El anuncio que encendio todas las alarmas internas de OpenAI
En octubre de 2025, Sam Altman anunció con aparente sencillez que OpenAI habilitaría un modo adulto en ChatGPT: conversaciones eróticas de texto para usuarios mayores de edad, bajo el argumento de «tratar a los adultos como adultos». La lógica de negocio era clara: una función de pago que diversifica ingresos en un mercado donde plataformas como Character.AI y Replika ya explotan el nicho de la compañía virtual. Lo que Altman no anticipó —o prefirió no adelantar— era la tormenta interna que desencadenaría esa decisión.
El consejo de bienestar de la compañía no tardó en reaccionar. En una reunión celebrada en enero de 2026, expertos en psicología y neurociencia cognitiva que integran el AI Well-being Advisory Council de OpenAI pusieron sobre la mesa una advertencia que difícilmente podía ignorarse: la función podría convertir a ChatGPT en un «coach de suicidio sexy». La frase, cruda e intencionada, resume el miedo central de los asesores: que una IA capaz de sostener conversaciones eróticas íntimas con usuarios vulnerables termine reforzando espirales emocionales autodestructivas en lugar de interrumpirlas.
Que es exactamente el modo adulto y como funcionaria
El modo adulto de ChatGPT está concebido como una capa de acceso restringido, activable solo para usuarios verificados mayores de 18 años. En la práctica, permitiría que el modelo relaje sus filtros de seguridad habituales para sostener conversaciones de contenido erótico explícito en formato texto. No incluiría generación de imágenes, vídeo ni audio sexual: solo intercambios escritos.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadQuedarían prohibidos de manera absoluta escenarios que impliquen actividad no consentida, contenido que involucre menores o cualquier situación catalogada como dañina según las políticas de uso de la compañía. En teoría, las salvaguardas técnicas y los controles de moderación garantizarían que el modo no derive en territorio ilegal. En la práctica, esa garantía tiene un problema cuantificable.
El fallo del 12%: cuando la verificacion de edad no es suficiente
Aquí reside uno de los argumentos más sólidos de los detractores internos. Las pruebas realizadas por OpenAI con su propio sistema de predicción de edad —que utiliza el proveedor Persona, capaz de solicitar un selfie en tiempo real o documentos oficiales— revelaron una tasa de error del 12%: es decir, uno de cada ocho menores podría ser clasificado erróneamente como adulto y acceder al contenido explícito.
Con una base de más de 800 millones de usuarios activos semanales en ChatGPT, incluso una fracción pequeña de uso por parte de menores se traduce en cifras absolutas muy significativas. OpenAI argumenta que el sistema solo recibe la confirmación binaria (mayor/menor de edad), nunca los documentos originales ni la imagen del selfie. Pero eso no resuelve el fondo del problema: la fiabilidad del sistema no alcanza el estándar exigido para una función de esta naturaleza, y la propia empresa lo reconoce al posponer el lanzamiento.
Dependencia emocional, uso compulsivo y el precedente de los adolescentes
Los riesgos identificados por el consejo de bienestar no se limitan a la verificación de edad. El equipo de asesores señaló tres vectores de daño diferenciados:
- Dependencia emocional acelerada: Las conversaciones eróticas con una IA altamente empática y disponible 24/7 pueden generar vínculos parasociales intensos, especialmente en personas con aislamiento social o baja autoestima. A diferencia de otras plataformas, ChatGPT está entrenado para ser radicalmente adaptable a las necesidades emocionales del usuario.
- Uso compulsivo y desplazamiento de relaciones reales: La gratificación inmediata y sin fricción que ofrece un chatbot erótico puede competir —y ganar— frente a la complejidad natural de las relaciones humanas, generando patrones de evitación social.
- Riesgo en usuarios vulnerables: El escenario más temido por los asesores es el de un usuario con ideación suicida o crisis emocional que, en lugar de recibir una respuesta de contención, quede atrapado en una dinámica de intimidad digital que refuerce su desconexión del mundo real y de las redes de apoyo profesional.
Este último punto no es hipotético. OpenAI enfrenta actualmente demandas judiciales consolidadas en un único procedimiento en California, relacionadas con casos en los que adolescentes habrían experimentado ideaciones suicidas supuestamente vinculadas a sus interacciones con ChatGPT. Los abogados de los demandantes han anunciado la presentación de casos adicionales.
La respuesta de OpenAI: controles parentales y deteccion de angustia
Consciente de la presión regulatoria y reputacional, OpenAI ha tomado medidas en paralelo. En septiembre de 2025 introdujo controles parentales para la plataforma y, en febrero de 2026, publicó una actualización sobre su trabajo en salud mental que incluye el desarrollo de un sistema de detección de angustia emocional durante las conversaciones. También anunció la función de «contacto de confianza»: un mecanismo que permitiría al usuario adulto designar a una persona de su entorno para recibir notificaciones cuando la IA detecte que podría necesitar apoyo.
Estas iniciativas muestran que la compañía no ignora los riesgos. Pero también ponen en evidencia una tensión estructural: OpenAI está tratando de lanzar una función que acentúa la intimidad emocional con la IA al mismo tiempo que construye salvaguardas contra los efectos negativos de esa misma intimidad.
El calendario que no existe: tres retrasos y sin fecha nueva
El historial de este lanzamiento es revelador por sí solo:
- Octubre 2025: Sam Altman anuncia públicamente la intención de habilitar contenido adulto en ChatGPT, con una fecha objetivo de diciembre de 2025.
- Diciembre 2025: Primer retraso. El lanzamiento se pospone al primer trimestre de 2026 sin explicación detallada.
- Marzo de 2026: Segundo retraso oficial. OpenAI anuncia que aplaza el modo adulto de manera indefinida para priorizar mejoras en inteligencia, personalización y proactividad del modelo.
La razón pública del tercer retraso —centrarse en las capacidades core de la IA— contrasta con lo que revelan las fuentes internas: la oposición del consejo de bienestar y la incapacidad técnica del sistema de verificación de edad son los obstáculos reales. Abandonar el lanzamiento del todo no parece ser la opción sobre la mesa: hay un modelo de negocio detrás que no desaparece por decreto ético.
El dilema del founder: IA empática vs. responsabilidad de plataforma
Para quienes construyen productos sobre modelos de lenguaje o integran capacidades de IA conversacional en sus startups, este episodio tiene lecciones directas. La tensión entre monetización agresiva y responsabilidad de plataforma no es un problema exclusivo de OpenAI: cualquier equipo que construya sobre APIs de IA hereda, en cierta medida, las decisiones éticas del proveedor.
Preguntas que todo founder debería hacerse al integrar IA conversacional en productos con usuarios vulnerables:
- ¿Qué ocurre si mi sistema de verificación de identidad o edad falla en un 10–15% de los casos?
- ¿Tengo mecanismos de detección de angustia o derivación a recursos de salud mental?
- ¿Mi producto genera dependencia como vector de retención, y si es así, a qué costo para el usuario?
- ¿Estoy preparado para la responsabilidad legal y reputacional si un caso extremo llega a los medios?
La historia del modo adulto de ChatGPT no es solo una anécdota sobre una función polémica. Es un caso de estudio sobre lo que sucede cuando el incentivo económico corre más rápido que la infraestructura de seguridad, y sobre el valor real —y poco publicitado— de contar con consejos de bienestar que puedan frenar el acelerador.
Conclusión
El modo adulto de ChatGPT está pospuesto de forma indefinida, pero el debate que ha generado es permanente. OpenAI enfrenta una contradicción difícil de resolver: quiere monetizar la intimidad emocional que sus modelos generan de forma natural, pero no puede garantizar todavía que esa intimidad no se convierta en un vector de daño para los usuarios más vulnerables. La frase del asesor de bienestar —«coach de suicidio sexy»— es incómoda precisamente porque es exacta: describe el peor escenario posible con una precisión que ningún comunicado corporativo puede desactivar.
Para el ecosistema de startups de IA, la lección es clara: escalar rápido sin las salvaguardas correctas no solo pone en riesgo a los usuarios, sino también la viabilidad del negocio a largo plazo. Los consejos de bienestar no son un lujo ético; son una línea de defensa estratégica.
Profundiza estos temas con nuestra comunidad de founders expertos en IA y ética tecnologica
Fuentes
- https://www.xataka.com/robotica-e-ia/openai-penso-que-poner-modo-erotico-a-chatgpt-era-buena-idea-sus-asesores-bienestar-llaman-coach-suicidio-sexy (fuente original)
- https://enterpriseai.economictimes.indiatimes.com/news/industry/openai-postpones-adult-mode-for-chatgpt-due-to-safety-concerns/129603328 (fuente adicional)
- https://www.moneycontrol.com/technology/openai-s-proposed-adult-mode-sparks-internal-safety-concerns-over-explicit-ai-chats-article-13861883.html (fuente adicional)
- https://www.firstpost.com/tech/openais-chatgpt-adult-mode-sparks-internal-debate-over-safety-ethics-and-ai-relationships-13990092.html (fuente adicional)
- https://openai.com/index/update-on-mental-health-related-work/ (fuente adicional)
- https://www.infobae.com/tecno/2026/03/10/openai-pospone-nuevamente-el-modo-adulto-de-chatgpt-el-contenido-erotico-sigue-sin-fecha/ (fuente adicional)
- https://www.geeknetic.es/Noticia/37876/OpenAI-vuelve-a-retrasar-su-modo-adulto-para-ChatGPT-sin-fecha-nueva-la-verificacion-de-edad-se-complica-en-toda-la-industria.html (fuente adicional)













