Cuando la convicción se convierte en amenaza: el caso del doomerismo de IA
Un incidente violento contra el CEO de OpenAI motivado por creencias extremas sobre el apocalipsis tecnológico ha puesto sobre la mesa una pregunta que el ecosistema tech evitaba: ¿puede la ideología del riesgo existencial de la IA derivar en radicalización violenta?
El análisis publicado en Campbell Ramble parte de una premisa incómoda: si alguien cree genuinamente que el desarrollo de la inteligencia artificial general (AGI) pondrá fin a la humanidad, la lógica interna de esa creencia puede justificar acciones extremas para detenerla. No es irracionalidad lo que mueve a estas personas — es una racionalidad llevada al límite.
¿Qué es el doomerismo de IA y por qué está creciendo?
El doomerismo de IA es una corriente de pensamiento que predice, con alta probabilidad, la extinción humana como consecuencia del desarrollo de inteligencia artificial avanzada sin controles suficientes. No se trata de ciencia ficción: tiene raíces en debates filosóficos serios y cuenta con defensores dentro de la propia industria.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadFiguras como Eliezer Yudkowsky, cofundador del Machine Intelligence Research Institute (MIRI), han declarado públicamente que el desarrollo de IA sin alineación adecuada «podría significar el fin de la raza humana» y que «si seguimos con el enfoque actual, eventualmente perderemos el control sobre las máquinas». Estas declaraciones no provienen de activistas marginales — vienen de personas con décadas de trabajo en el campo.
El problema no es que exista este debate. El problema es lo que ocurre cuando esa convicción no encuentra salidas institucionales efectivas.
PauseAI y el activismo organizado: la cara visible del movimiento
La organización más conocida dentro de este espectro es PauseAI, fundada en 2023 en los Países Bajos por Joep Meindertsma. A finales de 2025, la dirección internacional fue asumida por Maxime Fournes, líder de la rama francesa.
PauseAI opera en once países — incluyendo España, Estados Unidos, Reino Unido y Alemania — con cientos de voluntarios activos. Sus acciones han sido, hasta ahora, estrictamente pacíficas:
- Protestas en más de 15 ciudades alrededor del mundo.
- La primera conferencia PauseCon en Londres (junio de 2025), con expertos como Connor Leahy y Rob Miles, que culminó en la mayor protesta registrada ante las oficinas de Google DeepMind.
- Una petición en el Reino Unido firmada por 63 parlamentarios para exigir que Google DeepMind cumpla sus compromisos de seguridad en IA.
Su mensaje central: «Mitigar el riesgo de extinción de la IA debe ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear».
Pero PauseAI es el extremo organizado y moderado del espectro. El artículo de Campbell Ramble explora qué ocurre en el margen más radical, donde la paciencia institucional se agota.
¿Cuándo la convicción absolutista se convierte en peligro?
La lógica del doomerismo extremo funciona así: si estás convencido de que el desarrollo de la IA causará la extinción de miles de millones de personas, cualquier acción para detenerlo — incluyendo la violencia — puede percibirse como justificada. Es la misma estructura lógica que ha impulsado actos de violencia política a lo largo de la historia, independientemente de la causa.
El análisis de AI Panic News sobre «la trampa de la racionalidad» documenta cómo comunidades hiperracionalistas ligadas al movimiento de Altruismo Efectivo (EA) y la cultura LessWrong han producido, en casos documentados desde 2021, episodios de quiebre psicológico, dinámicas de culto y comportamientos extremos entre sus miembros. No porque sus preguntas sean inválidas, sino porque el aislamiento, el jerga compartida y las creencias totalizadoras crean un entorno propicio para la radicalización.
El artículo de Campbell Ramble argumenta que hay una «conclusión racional» del doomerismo que el movimiento no quiere confrontar: si aceptas su premisa al 100%, la violencia contra los desarrolladores de IA se convierte en una consecuencia lógica, no en una anomalía.
Por qué este debate importa ahora más que nunca
En enero de 2026, un reporte de Cambio Digital documentaba el crecimiento de movimientos anti-IA — StopAI, PauseAI y ControlAI — impulsados principalmente por dos miedos: la destrucción de empleos y el impacto ambiental de los centros de datos. El activismo mainstream es civil y legítimo. Pero la narrativa de riesgo existencial que impulsa a algunos de estos grupos tiene una temperatura diferente.
Para el ecosistema founder hispanohablante, esto tiene implicaciones concretas. El debate sobre la IA ya no es solo tecnológico o regulatorio — está adquiriendo dimensiones de seguridad personal para quienes lideran empresas en este sector.
¿Qué significa esto para tu startup?
Si construyes o planeas construir productos basados en IA, el doomerismo extremo no es solo un debate filosófico que ocurre en otros países. Estas son las implicaciones prácticas que debes tener en radar:
- El discurso de riesgo existencial afecta la regulación. Cuando legisladores en el Reino Unido reciben peticiones firmadas por 63 parlamentarios que encuadran la IA como amenaza comparable a una guerra nuclear, el marco regulatorio que rodea tu negocio se ve moldeado por esa narrativa. Entender estos movimientos te da ventaja para anticipar cambios normativos.
- La comunicación pública de tu empresa importa. Ser percibido como un actor responsable en IA — con políticas claras de uso ético, transparencia sobre limitaciones y compromiso público con la seguridad — no es solo marketing: es gestión de riesgo reputacional en un entorno cada vez más polarizado.
- El talento en AI safety es un activo, no un lujo. Incorporar personas con formación en alineación y seguridad de IA a tu equipo no solo mejora tu producto — también te posiciona mejor frente a inversores, reguladores y comunidades críticas.
- Distingue entre crítica legítima y narrativa extrema. Hay preguntas válidas sobre el impacto social de la IA que merecen respuesta seria. Aprender a diferenciar la crítica constructiva del doomerismo absolutista te permite responder con inteligencia y no con defensividad.
El debate filosófico de fondo: ¿quién decide el riesgo aceptable?
El artículo de Campbell Ramble también toca un nervio filosófico más profundo: ¿quién tiene autoridad para determinar que el desarrollo de la IA representa un riesgo existencial tan grave que justifica medidas extraordinarias?
Esta no es una pregunta con respuesta fácil. El filósofo Roy Scranton argumentó en su ensayo «We’re Doomed. Now What?» (2018) que aceptar la catástrofe como posibilidad real es necesaria para actuar con sensatez — pero la conclusión que extrae no es la violencia, sino la responsabilidad colectiva. La diferencia entre el doomerismo como marco analítico y el doomerismo como ideología de acción es precisamente lo que está en juego en este debate.
En el ecosistema de startups hispanohablante, donde el acceso a capital es más limitado y el margen de error es menor que en Silicon Valley, estas conversaciones no son abstractas. Cada decisión sobre qué construir, cómo desplegarlo y a qué velocidad tiene consecuencias reales para comunidades reales.
Conclusión
El doomerismo de IA no es una amenaza que los founders puedan ignorar — pero tampoco es una razón para paralizar el desarrollo tecnológico responsable. Lo que el incidente analizado por Campbell Ramble revela es que los debates sobre el futuro de la IA han salido del ámbito académico y han entrado en el mundo de las consecuencias físicas.
Para los founders hispanohablantes que construyen en el sector de la IA, la lección es clara: la legitimidad de tu empresa no se construye solo con buenos productos — también con buenas prácticas, comunicación honesta y participación activa en los debates que definen el marco dentro del cual operamos todos.
El extremismo no convence a nadie que no esté ya convencido. La responsabilidad, en cambio, genera confianza.
Fuentes
- https://www.campbellramble.ai/p/the-rational-conclusion (artículo original)
- https://pauseai.es/nosotros (PauseAI — sobre la organización)
- https://pauseai.es (PauseAI)
- https://cambiodigital-ol.com/2026/01/crecen-los-movimientos-anti-ia-preocupan-el-empleo-y-los-centros-de-datos/ (Cambio Digital, enero 2026)
- https://www.aipanic.news/p/the-rationality-trap (AI Panic News — la trampa de la racionalidad)
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













