OpenAI pone modelos frontier de IA en manos de defensores autorizados — y cambia las reglas del juego
OpenAI anunció el 5 de febrero de 2026 que destina $10 millones en créditos de API para equipos de ciberseguridad verificados, como parte de la expansión de su programa Trusted Access for Cyber. No es un comunicado de relaciones públicas: es la señal más clara hasta ahora de que la frontera entre la IA de consumo y la IA de uso defensivo profesional está siendo redibujada — y con ello, las oportunidades (y los riesgos) para startups del sector.
¿Qué es el programa Trusted Access for Cyber de OpenAI?
Trusted Access for Cyber es un framework de acceso basado en confianza que permite a profesionales y organizaciones verificadas utilizar los modelos más avanzados de OpenAI para trabajo de ciberseguridad de doble uso (dual-use). La idea central es elegante pero compleja de ejecutar: relajar los filtros de seguridad estándar para defensores legítimos, sin abrir la puerta a actores maliciosos.
El programa opera a través de tres vías de acceso:
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad- Verificación individual: profesionales de ciberseguridad que se identifican en chatgpt.com/cyber.
- Acceso empresarial: organizaciones que solicitan participación a través de representantes de OpenAI.
- Programa invite-only: investigadores de seguridad con historial probado en vulnerabilidades de software open source e infraestructura crítica, con acceso a capacidades más permisivas.
El monitoreo es continuo. Las restricciones incluyen bloqueos explícitos a exfiltración de datos, creación de malware y pruebas destructivas no autorizadas. OpenAI clasifica el riesgo de sus modelos de ciberseguridad como casi "alto" dentro de su propio Preparedness Framework — lo que dice mucho sobre la potencia real de estas herramientas.
¿Qué modelos se usan y qué pueden hacer realmente?
Los modelos referenciados en el programa son versiones de la familia Codex, específicamente GPT-5.3-Codex y GPT-5.2-Codex, diseñados como agentes autónomos para tareas de seguridad complejas. Sus capacidades documentadas incluyen:
- Auditoría y revisión automática de código a escala
- Detección de vulnerabilidades sin bloqueos de los filtros estándar
- Triaje de alertas de seguridad
- Resumen e investigación de incidentes
- Sugerencias de remediación contextualizadas
- Compresión de contexto para analizar proyectos de código extensos
Un dato que ilustra el potencial: un investigador que usó una versión anterior del modelo encontró 3 vulnerabilidades zero-day en React. Con los nuevos modelos y acceso verificado, ese tipo de capacidad se vuelve reproducible a escala para equipos de defensa autorizados.
¿Por qué esto importa más allá del comunicado corporativo?
Hay un fenómeno estructural detrás de este anuncio. Históricamente, los atacantes han tenido ventaja sobre los defensores: los primeros solo necesitan encontrar una vulnerabilidad; los segundos deben proteger todo el perímetro. La IA cambia esa ecuación — pero solo si los defensores tienen acceso a las mismas capacidades que podrían usar los actores maliciosos.
El problema real no es técnico, es de gobernanza. OpenAI apuesta por un modelo de acceso escalonado verificado, en lugar de publicar los modelos abiertamente (como hacen algunos competidores con modelos open-weight). La lógica: democratizar el acceso sin democratizar el riesgo. Cuánto tiempo sostendrán esa tensión es la pregunta clave que el ecosistema deberá seguir de cerca.
El panorama competitivo: ¿está OpenAI sola en esto?
Las fuentes disponibles no detallan iniciativas equivalentes con el mismo nivel de formalización por parte de Google, Microsoft o Anthropic. Microsoft, a través de su integración con GitHub Copilot y Azure Defender, ha avanzado en automatización de seguridad, pero sin un framework de acceso diferenciado para defensores. Google cuenta con Sec-PaLM y herramientas integradas en Chronicle, aunque tampoco con un programa piloto de esta estructura.
OpenAI se posiciona, por ahora, como la primera en institucionalizar el concepto de acceso basado en confianza para uso dual en ciberseguridad — lo que puede convertirse en ventaja o en blanco de críticas si el programa falla en contener el mal uso.
¿Qué significa esto para tu startup?
Si lides una startup de ciberseguridad — o si la seguridad es una capa crítica de tu producto — este programa abre posibilidades concretas que antes requerían equipos mucho más grandes. Aquí van acciones que puedes tomar hoy:
- Solicita acceso al piloto empresarial: si tu startup tiene historial documentado en vulnerabilidades de software open source o trabaja con infraestructura crítica, puedes aplicar en openai.com/form/enterprise-trusted-access-for-cyber/. El proceso de verificación es real, pero el acceso a créditos API de $10M en el programa colectivo es una oportunidad concreta de reducir costos de I+D.
- Mapea tus casos de uso defensivos: el programa no es para todo. Funciona mejor para auditoría de código a escala, triaje de alertas y detección de vulnerabilidades automatizada. Si tu producto toca alguno de estos flujos, vale la pena evaluar si la integración con modelos Codex puede reducir el tiempo de respuesta de tu equipo de seguridad.
- Documenta tu postura de seguridad antes de aplicar: OpenAI verifica identidad y casos de uso. Tener documentación clara de tu metodología, historial de hallazgos y política de divulgación responsable acelera el proceso y aumenta las probabilidades de aprobación.
- Evalúa el riesgo regulatorio en tu mercado: en España, el AI Act de la UE aplica directamente a sistemas de IA de alto riesgo — y los modelos de ciberseguridad con capacidades avanzadas pueden entrar en esa categoría. En LATAM, la regulación es más fragmentada, pero el uso de modelos con capacidades dual-use puede tener implicaciones legales dependiendo del país y el sector.
El riesgo dual-use que nadie quiere nombrar
Seamos directos: un modelo capaz de encontrar 3 zero-days en React también puede ser usado para encontrarlos en sistemas que alguien quiere atacar. OpenAI lo reconoce explícitamente — de ahí el Preparedness Framework y las restricciones del programa.
Pero los controles de acceso no son infalibles. La verificación de identidad reduce el riesgo; no lo elimina. Y a medida que estos modelos mejoren — y lo harán — la presión para ampliar el acceso también crecerá. Para founders de startups de ciberseguridad, esto significa que el mercado de herramientas defensivas con IA va a expandirse significativamente en los próximos 18–24 meses, pero también que la barra regulatoria y de compliance subirá en paralelo.
El ecosistema que salga mejor posicionado será el que entienda que la ventaja competitiva no está solo en acceder a mejores modelos, sino en tener los procesos de gobernanza para usarlos de manera responsable y documentable.
Conclusión
El programa Trusted Access for Cyber de OpenAI no es solo una expansión de producto — es una apuesta sobre cómo debería distribuirse el poder de la IA en un sector donde los errores tienen consecuencias reales. Para startups de ciberseguridad en LATAM y España, representa una ventana de acceso a capacidades frontier que antes eran exclusivas de grandes corporaciones, siempre que puedan cumplir los requisitos de verificación. La pregunta no es si este tipo de herramientas va a transformar la ciberdefensa — ya está ocurriendo. La pregunta es si tu equipo estará entre los que aprovechen esa transformación.
Fuentes
- https://openai.com/index/scaling-trusted-access-for-cyber-defense (fuente original)
- https://openai.com/index/trusted-access-for-cyber/
- https://openai.com/form/enterprise-trusted-access-for-cyber/
- https://itdigest.com/information-communications-technology/cybersecurity/openai-launches-trusted-access-for-cyber-to-empower-defensive-security-while-guarding-against-abuse/
- https://the-decoder.com/openai-updates-codex-model-adds-trusted-access-program-for-cyber-defense/
- https://www.gend.co/en-ca/blog/trusted-access-for-cyber-openai
- https://developers.openai.com/codex/concepts/cyber-safety
- https://www.scworld.com/brief/openai-launches-trusted-access-for-cyber-initiative-to-bolster-ai-security
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













