OpenAI lanza un fellowship de seguridad para investigadores externos
El 6 de abril de 2026, OpenAI anunció oficialmente el OpenAI Safety Fellowship, un programa piloto que permite a investigadores externos conducir trabajo independiente sobre seguridad e alineación de la inteligencia artificial. El anuncio llegó en un momento de especial escrutinio hacia la compañía, luego de que una investigación del periodista Ronan Farrow en The New Yorker reportara que OpenAI habría disuelto algunos de sus procesos internos de seguridad. El lanzamiento del fellowship fue, para muchos en la industria, una señal —o al menos un intento— de reafirmar el compromiso público de la empresa con el desarrollo responsable de la IA.
Qué es el OpenAI Safety Fellowship y cuáles son sus objetivos
El OpenAI Safety Fellowship es un programa de seis meses diseñado para traer perspectivas externas al campo de la seguridad en IA. A diferencia de los roles internos en OpenAI, este fellowship apunta a investigadores independientes que quieran estudiar y publicar sobre temas críticos sin estar directamente empleados por la empresa.
Los temas de investigación elegibles incluyen:
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad- Evaluación de seguridad en sistemas de IA
- Ética y toma de decisiones algorítmica
- Robustez de modelos ante ataques adversariales
- Privacidad y protección de datos
- Supervisión de agentes de IA autónomos
Los fellows recibirán mentoría directa del equipo de OpenAI, acceso a recursos de cómputo, un estipendio mensual y espacio de trabajo en Berkeley, California (con opción remota disponible). Al finalizar el programa, se espera que produzcan outputs concretos como papers académicos o datasets públicos.
Fechas clave y cronograma del programa
El cronograma del OpenAI Safety Fellowship es el siguiente:
- Apertura de aplicaciones: abril de 2026 (ya abiertas)
- Cierre de aplicaciones: 3 de mayo de 2026
- Notificación a seleccionados: 25 de julio de 2026
- Inicio del programa: 14 de septiembre de 2026
- Fin del programa: 5 de febrero de 2027
Las aplicaciones se realizan directamente a través del formulario oficial de OpenAI. El proceso es competitivo, pero la convocatoria está abierta a perfiles diversos.
Quiénes pueden aplicar: no se requiere ser experto en IA
Uno de los aspectos más relevantes del programa es su apertura a perfiles multidisciplinarios. OpenAI no limita las aplicaciones a investigadores de IA: también son bienvenidos profesionales de ciencias sociales, ciberseguridad, ética, ingeniería y otras disciplinas relacionadas.
En concreto, pueden aplicar:
- Investigadores académicos y postdoctorales
- Ingenieros de software con interés en seguridad
- Practicantes del sector privado con experiencia relevante
- Profesionales de áreas como política pública, derecho tecnológico o ciencias del comportamiento
Esta apertura disciplinaria es intencionada: los desafíos de alineación en IA no son solo técnicos, y OpenAI parece reconocerlo al construir una cohorte diversa de fellows.
El contexto detrás del lanzamiento: presión externa y señales de compromiso
El timing del anuncio no es casual. El fellowship fue publicado horas después de que circulara una investigación del reconocido periodista Ronan Farrow en The New Yorker, en la que se reportaba que OpenAI habría desmantelado parte de sus equipos y procesos internos dedicados a la seguridad. Esa publicación reavivó el debate sobre si la empresa, en su carrera por mantenerse competitiva frente a rivales como Anthropic, Google DeepMind y startups emergentes, está priorizando el lanzamiento de productos por encima de la cautela.
En este contexto, el OpenAI Safety Fellowship puede leerse de dos maneras: como un esfuerzo genuino por ampliar la base de investigadores independientes que trabajan en seguridad, o como una respuesta táctica de relaciones públicas ante críticas crecientes. La comunidad de AI safety está dividida al respecto, aunque varios actores han reconocido que el programa, si se ejecuta con rigor, puede aportar valor real.
Cabe destacar que este lanzamiento se suma a otras iniciativas recientes de OpenAI en materia de seguridad, como el programa Safety Bug Bounty lanzado en marzo de 2026, que incentiva a la comunidad a identificar vulnerabilidades de abuso, inyección de prompts y riesgos en sistemas agentes.
Comparación con el ecosistema: Anthropic también apuesta por fellows externos
El movimiento de OpenAI no ocurre en el vacío. Su principal competidora en el espacio de seguridad, Anthropic, lleva tiempo operando su propio programa de fellows para investigación en alineación. El Anthropic Fellows Program ya tiene cohortes planificadas para mayo y julio de 2026, y sus resultados son destacables: aproximadamente el 80% de los fellows producen papers y el 40% terminan uniéndose a tiempo completo a la empresa.
Esta tendencia de abrir programas externos de seguridad e investigación apunta a una maduración del sector: las empresas líderes de IA reconocen que no pueden —ni deben— abordar los retos de alineación solo con equipos internos. La diversidad de perspectivas es, en sí misma, una ventaja competitiva y un imperativo ético.
Implicaciones para founders y el ecosistema tech
Para founders que están construyendo sobre modelos de OpenAI o desarrollando productos con IA generativa, el OpenAI Safety Fellowship tiene implicaciones concretas:
- Mayor investigación pública en seguridad puede traducirse en mejores guías, evals y frameworks que los equipos de producto pueden adoptar.
- El énfasis en supervisión de agentes de IA es especialmente relevante para startups que construyen flujos agenticos o automatizan decisiones con LLMs.
- La participación de perfiles no técnicos (ética, política, derecho) puede acelerar la construcción de marcos regulatorios más claros, reduciendo incertidumbre para equipos que operan en sectores regulados.
Además, si eres investigador o tienes perfiles técnicos en tu equipo con interés en seguridad, esta es una oportunidad concreta de conectar con el ecosistema de AI safety a nivel global.
Conclusión
El OpenAI Safety Fellowship es una apuesta que llega en un momento crítico para la industria. Sea cual sea la motivación detrás de su lanzamiento —genuina o reactiva—, el programa abre una ventana real para que investigadores externos contribuyan al desafío más importante de la IA: asegurarse de que los sistemas avanzados operen de forma segura, alineada y confiable. Para el ecosistema startup, entender y seguir de cerca estas iniciativas no es opcional; es parte de construir con responsabilidad en la era de la inteligencia artificial.
Las aplicaciones están abiertas hasta el 3 de mayo de 2026. Si tienes el perfil o conoces a alguien que lo tenga, vale la pena explorar la oportunidad directamente en el sitio oficial de OpenAI.
Conecta con founders que están construyendo con IA de forma responsable y debatiendo estos temas en tiempo real. Unete gratis a la comunidad de Ecosistema Startup.
Fuentes
- https://thenextweb.com/news/openai-safety-fellowship (fuente original)
- https://openai.com/index/introducing-openai-safety-fellowship/ (anuncio oficial OpenAI)
- https://www.digit.in/news/general/want-to-work-on-ai-safety-openai-launches-new-safety-fellowship-program-for-researchers.html (fuente adicional)
- https://www.startuphub.ai/ai-news/artificial-intelligence/2026/openai-launches-safety-fellowship (fuente adicional)
- https://aisecwatch.com/issues/2890f66c-9f30-4fdb-ab61-cf420aea9a8c (fuente adicional)
- https://openai.com/index/safety-bug-bounty/ (contexto: Safety Bug Bounty OpenAI)
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













