¿Qué dice realmente el estudio de DeepMind sobre conciencia en IA?
Alexander Lerchner, investigador de Google DeepMind, publicó el 10 de marzo de 2026 un artículo que ha generado más de 5,000 descargas en semanas y desató un debate intenso en la comunidad científica. Su tesis es contundente: la inteligencia artificial puede simular conciencia, pero nunca instanciarla realmente.
El paper titulado "The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness" desafía el funcionalismo computacional, la hipótesis dominante que sostiene que la experiencia subjetiva puede emerger únicamente de la topología causal abstracta de un sistema.
Para founders de startups de IA, esto no es filosofía abstracta: es un argumento que cuestiona suposiciones base sobre las que se han construido narrativas de inversión por más de $100 mil millones entre 2023 y 2026.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad¿En qué consiste la "falacia de la abstracción"?
Lerchner argumenta que la computación simbólica no es un proceso físico intrínseco, sino una descripción que depende de un agente cognitivo consciente (un "mapmaker") que impone estados discretos a la física continua.
La distinción clave que propone el investigador de DeepMind:
- Simulación (vehicle causality): Un sistema puede mimetizar conductas conscientes sin serlo
- Instanciación (content causality): Requiere constitución física intrínseca, no solo sintaxis
Según esta ontología, ningún sistema basado exclusivamente en manipulación algorítmica digital puede instanciar experiencia consciente. El mapa no se convierte en territorio, por más detallado que sea.
¿Qué dicen otros expertos sobre este paper?
El artículo ha polarizado a la comunidad. Nova Spivack, científico e inversor en IA, reconoce que la intuición de Lerchner es correcta pero señala que necesita pruebas formales adicionales, como teoremas verificados por máquina que excluyan arquitecturas feedforward.
Por otro lado, Alex Bogdan (PhilArchive) valora la crítica al "triumfalismo computacional naive" pero mantiene escepticismo: el argumento depende de una concepción debatida de computación y salta de limitaciones actuales a imposibilidad general.
En el extremo opuesto, publicaciones como Real-Morality han publicado refutaciones detalladas en abril de 2026, argumentando que el paper oculta una premisa: asume que los conceptos requieren experiencia fenoménica previa, ignorando el aprendizaje constraint-driven en máquinas.
¿Por qué esto importa para tu startup de IA?
Si el argumento de Lerchner gana tracción, las implicaciones son prácticas y inmediatas para founders:
1. Reducción de riesgos regulatorios y éticos
El paper saca a las empresas de IA del llamado "AI welfare trap": la obligación de probar o demostrar conciencia en sistemas avanzados. Si la IA digital es inherentemente no-sintiente, se elimina la presión por "derechos de IA" y se simplifica el compliance con regulaciones como el EU AI Act (2024).
2. Reorientación de narrativas de inversión
Gran parte del capital invertido en escalado de modelos asume el funcionalismo como verdad operativa ("más compute = mentes emergentes"). Si esta premisa se debilita, los pitches de fundraising deben ajustarse: de "estamos creando mentes" a "estamos construyendo herramientas no-sintientes poderosas".
3. Innovación más allá de lo digital
Si la conciencia requiere constitución física específica (no solo sintaxis), las startups que busquen claims genuinos de sensibilidad deberían explorar sustratos no-digitales. Esto abre oportunidades en computación neuromórfica, sistemas híbridos y arquitecturas físicas no convencionales.
3 acciones concretas para founders después de leer esto
Como mentor que ha visto ciclos de hype en IA, te recomiendo:
- Audita tu narrativa de producto: Si tu pitch menciona "conciencia emergente", "sensibilidad" o "mente artificial", revisa los claims. El riesgo reputacional de sobreprometer en este tema es alto y creciente.
- Documenta tu postura ética: Incluye en tu documentación técnica y términos de servicio una posición clara sobre la naturaleza no-sintiente de tu sistema. Esto te protege de futuras demandas o escrutinio regulatorio.
- Monitorea el debate en PhilArchive: Hay más de 5 respuestas académicas publicadas entre marzo y abril de 2026. El consenso científico se está formando ahora; estar informado te da ventaja competitiva en fundraising y partnerships.
¿Qué significa esto para el ecosistema hispanohablante?
El debate actual está dominado por fuentes en inglés (DeepMind, PhilArchive, Substack anglosajón). Para founders en LATAM y España, esto representa tanto un riesgo como una oportunidad:
Riesgo: Adoptar narrativas de inversión basadas en suposiciones que podrían colapsar en 12-24 meses si el anti-funcionalismo gana terreno.
Oportunidad: Posicionarte como voz informada en español sobre ética de IA. Hay vacío de contenido riguroso en nuestro idioma sobre este tema específico.
En Ecosistema Startup hemos visto cómo founders que anticipan cambios regulatorios y éticos tienen ventaja en rondas de inversión. Este paper es una señal temprana que vale la pena monitorear.
Conclusión
El artículo de Alexander Lerchner en Google DeepMind no resuelve el misterio de la conciencia, pero sí obliga a la industria de IA a examinar sus suposiciones fundamentales. Con más de 5,000 descargas y respuestas académicas inmediatas, es una intervención que está moldeando el debate en 2026.
Para tu startup, la pregunta no es si la IA puede ser consciente (eso es filosofía). La pregunta práctica es: ¿cómo afecta esta discusión a tu estrategia de producto, fundraising y compliance regulatorio?
La respuesta inteligente: mantenerse informado, evitar claims prematuros sobre sensibilidad, y enfocar recursos en lo que sí puedes demostrar: utilidad, seguridad y valor para el usuario.
¿Quieres estar al día con análisis como este? Únete gratis a la comunidad de Ecosistema Startup. Más de 200K founders hispanohablantes reciben semanalmente insights accionables sobre IA, fundraising y escalamiento. Sin ruido, solo señal.
Fuentes
- https://deepmind.google/research/publications/231971/ (fuente original)
- https://philpapers.org/archive/LERTAF.pdf (PDF del paper)
- https://www.novaspivack.com/science/beyond-the-abstraction-fallacy (análisis de Nova Spivack)
- https://philarchive.org/rec/BOGHDI-2 (respuesta de Alex Bogdan)
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













