En 5 días, un equipo pequeño logró lo que parecía imposible
Calif, una startup de seguridad de Palo Alto con un equipo reducido, desarrolló el primer exploit público de kernel para macOS en hardware Apple M5 en apenas 5 días. Utilizaron Claude Mythos Preview, un modelo de IA de Anthropic especializado en ciberseguridad, para bypassar la protección Memory Integrity Enforcement (MIE) que Apple consideraba infranqueable.
Para founders de startups tech y equipos de seguridad, esto no es solo una noticia: es una señal de que la IA está cambiando la economía del hacking, reduciendo de meses a días el tiempo necesario para encontrar y explotar vulnerabilidades críticas.
¿Qué hizo exactamente el equipo de Calif?
La startup Calif, liderada por Thai Duong (ex ingeniero de seguridad de Google), identificó las vulnerabilidades el 25 de abril de 2026 y tenía un exploit funcional el 1 de mayo. El ataque:
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad- Comienza desde un usuario local sin privilegios
- Escala a root en el sistema
- Combina dos vulnerabilidades de macOS con técnicas adicionales
- Funciona en hardware M5 bare metal con macOS 26.4.1 y MIE activado
El equipo entregó un reporte técnico de 55 páginas a Apple en persona en Cupertino, pero aún no ha publicado el código ni el informe completo públicamente.
¿Claude Mythos hackeó Apple solo?
No. Y entender esto es crucial para no caer en sensacionalismo. Según las declaraciones del propio equipo de Calif, Claude Mythos Preview actuó como un multiplicador de fuerza, no como un reemplazo del criterio humano.
La IA ayudó a:
- Encontrar bugs en categorías ya conocidas
- Acelerar la auditoría de código
- Reducir iteraciones de prueba y validación
- Identificar patrones de vulnerabilidad más rápido
Thai Duong fue claro: la IA no inventó una técnica completamente nueva desde cero. El componente decisivo siguió siendo la experiencia humana en ingeniería ofensiva.
¿Cuál fue la reacción de Apple?
Hasta la fecha de publicación de este artículo, Apple no ha emitido un comentario público detallado. Tampoco aparece un CVE asignado en los materiales disponibles.
Lo que se sabe es que Calif entregó el reporte en persona en Apple Park. El patrón habitual de Apple en estos casos es:
- Revisar el reporte internamente
- Preparar correcciones en silencio
- Publicar notas de seguridad en versiones posteriores
- Atribuir la mejora sin entrar en detalles operativos
Hasta que Apple publique una nota de seguridad o parche, conviene tratar el hallazgo como serio pero no plenamente auditado por terceros independientes.
Precedentes: ¿es esto nuevo?
No es el primer caso de IA asistiendo en investigación ofensiva, pero sí es uno de los más visibles. Antecedentes relevantes:
- Fuzzing asistido por IA: modelos que priorizan rutas de ejecución y generan inputs más prometedores
- Copilots para reversing: equipos usando LLMs para análisis de binarios y escritura de PoCs
- Investigación académica: papers demostrando automatización de reconocimiento y generación de payloads
La tendencia general: la IA no siempre descubre la vulnerabilidad, pero sí reduce drásticamente el coste de descubrimiento y explotación.
¿Qué opinan los expertos?
Michał Zalewski (investigador de seguridad reconocido) valoró el hallazgo como significativo, recordando que macOS es un objetivo muy difícil, pero advirtiendo que parte del entusiasmo sobre la IA podría estar exagerado.
El consenso entre expertos se resume en dos puntos:
- La IA sí está cambiando la economía del hacking
- Aún no reemplaza la experiencia ofensiva real
En otras palabras: la IA hoy es más peligrosa como amplificador que como actor autónomo.
¿Qué significa esto para tu startup?
Si fundas o trabajas en una startup tech, esto tiene implicaciones directas en tu estrategia de seguridad y desarrollo. No es teoría: es un cambio tangible en cómo se construyen y protegen los productos.
Para startups de seguridad
La IA puede abaratar y acelerar la investigación ofensiva y defensiva. Esto beneficia a equipos pequeños que antes no podían competir con grandes laboratorios. Acciones concretas:
- Implementa controles de uso interno para modelos de IA en tu equipo de seguridad
- Documenta rigurosamente tus hallazgos con trazabilidad de qué hizo la IA vs. qué hizo el humano
- Coordina responsablemente con fabricantes antes de publicar vulnerabilidades
Para empresas tecnológicas (SaaS, apps, plataformas)
Las defensas basadas en hardware o mitigaciones modernas no son infalibles. Si una IA acelera la búsqueda de bugs, el tiempo de vida útil de una vulnerabilidad puede reducirse drásticamente. Acciones concretas:
- Refuerza tu bug bounty: aumenta recompensas para atraer investigadores antes de que exploten vulnerabilidades
- Implementa fuzzing asistido por IA en tu pipeline de CI/CD
- Automatiza análisis estático y dinámico con herramientas que integren modelos de lenguaje
- Actualiza tu threat modeling considerando usos ofensivos de modelos de IA
Para founders en LATAM y España
El ecosistema hispanohablante tiene una ventaja: muchos equipos son ágiles y con menos burocracia que grandes corporaciones. Pero también enfrentan el reto de menos capital para seguridad. Recomendaciones:
- Prioriza security by design desde el día 1, no como parche posterior
- Considera herramientas de seguridad con IA accesibles (muchas son open source o freemium)
- Únete a comunidades de seguridad para estar al día de amenazas emergentes
El riesgo estratégico que debes monitorear
Si este patrón se generaliza (y todo indica que sí), veremos:
- Más exploits en menos tiempo: lo que antes tomaba meses ahora puede tomar días
- Más presión sobre equipos de seguridad de grandes plataformas
- Más debate regulatorio sobre modelos capaces de asistir en intrusión
Para tu startup, esto significa que la ventana entre descubrir una vulnerabilidad y ser explotado se está cerrando. La velocidad de respuesta ya no es un lujo: es supervivencia.
Conclusión
El caso de Calif y Claude Mythos es un ejemplo concreto de cómo los modelos avanzados están acelerando la investigación ofensiva más que reemplazando a los expertos humanos. Para founders, la lección es clara: la IA es una herramienta poderosa que puede trabajar tanto a tu favor (defensa) como en tu contra (ataque).
La pregunta no es si tu startup usará IA en seguridad. La pregunta es cómo la usarás y qué tan rápido podrás adaptarte cuando otros la usen contra ti.
¿Tu equipo de seguridad ya está evaluando modelos de IA para defensa? Si no, este es el momento de empezar. La ventaja competitiva en 2026 no es tener más recursos: es moverte más rápido con los recursos que tienes.
Fuentes
- Infobae - Claude Mythos vulnera chip M5 de Apple
- Atlas21 - Claude Mythos AI: Apple M5 Exploit Built in Under a Week
- Clubic - Claude Mythos aide une équipe à casser la protection des Mac M5
- The Hans India - Anthropic Mythos AI Helps Crack Apple M5 Security
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













