Los LLM y la homogeneizacion del pensamiento: que dice la ciencia
Un articulo de opinion publicado en Trends in Cognitive Sciences de Cell Press, liderado por Zhivar Sourati, cientifico informatico de la Universidad del Sur de California (USC Dornsife), lanza una advertencia que todo founder tech deberia tener en su radar: los grandes modelos de lenguaje (LLM) podrian estar estandarizando la forma en que los humanos escriben, razonan y, fundamentalmente, piensan. El fenomeno no es menor: afecta directamente a la diversidad cognitiva que esta detras de la innovacion, el emprendimiento y la resolucion de problemas colectivos.
Que encontraron los investigadores de USC
Segun Sourati y su equipo, al interactuar con los mismos modelos de lenguaje, las personas tienden a converger en estilos linguisticos, perspectivas y estrategias de razonamiento similares. En sus propias palabras: «Las personas difieren en su forma de escribir, razonar y ver el mundo», pero el uso masivo de chatbots basados en LLM esta borrando esas diferencias, produciendo expresiones y pensamientos cada vez mas uniformes.
El estudio identifica tres mecanismos clave a traves de los cuales opera esta homogenizacion:
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad- Estandarizacion linguistica: Los LLM favorecen patrones de escritura estadisticamente dominantes, lo que empuja a los usuarios a adoptar estructuras y vocabularios similares.
- Presion hacia el razonamiento lineal: Tecnicas como el chain-of-thought refuerzan estilos de razonamiento paso a paso, penalizando enfoques mas intuitivos, asociativos o abstractos que suelen ser igualmente validos.
- Influencia en opiniones: Tras interacciones repetidas con un LLM sesgado, las opiniones de los usuarios tienden a alinearse con las del modelo, incluso sin que el usuario lo perciba conscientemente.
El sesgo WEIRD: occidental, educado y democratico
Uno de los hallazgos mas criticos del estudio apunta al origen del problema: los datos de entrenamiento de los LLM sobrerrepresentan perspectivas occidentales, de clases privilegiadas y contextos democraticos (lo que en la academia se denomina sesgo WEIRD: Western, Educated, Industrialized, Rich, Democratic). Esto significa que los modelos no son culturalmente neutrales; reflejan una porcion estrecha de la experiencia humana global.
Para el ecosistema startup latinoamericano, esto tiene implicaciones directas. Cuando un founder hispano utiliza herramientas de IA generativa para redactar pitches, analizar mercados o generar estrategias, el modelo esta filtrando ese output a traves de un prisma cultural especifico que puede no representar ni a su mercado objetivo ni a su realidad operativa.
El impacto en equipos y en la innovacion colectiva
Quiza el dato mas contraintuitivo del estudio sea este: aunque los individuos producen mas ideas y con mayor detalle cuando usan LLM, los grupos generan menos ideas y menos creativas cuando dependen de estos modelos para colaborar. La conclusion es paradojica pero logica: la IA potencia al individuo en el corto plazo, pero puede debilitar la inteligencia colectiva de un equipo en el mediano plazo.
Para un founder que construye cultura de equipo, esto es una senial de alerta. Si todo tu equipo usa los mismos prompts y los mismos modelos para pensar, corres el riesgo de crear una camara de eco cognitiva que reduce la capacidad de tu organizacion para detectar oportunidades no obvias o resolver problemas complejos desde angulos distintos.
Que recomiendan los investigadores para un uso responsable de la IA
El equipo de USC Dornsife no plantea una postura anti-IA; al contrario, ofrece un camino hacia una IA mas util y responsable. Sus principales recomendaciones son:
- Diversificar los datos de entrenamiento: Incorporar fuentes que representen culturas, idiomas y contextos cognitivos variados, incluyendo perspectivas del Sur Global.
- Diseniar LLM con multiples modos de razonamiento: Si los modelos ofrecieran estilos de pensamiento mas diversos, apoyarian mejor la inteligencia colectiva y la capacidad de resolucion de problemas en equipo.
- Educar a los usuarios sobre el sesgo implicito: La conciencia del efecto homogenizador es el primer paso para contrarrestarlo.
Implicaciones practicas para founders tech
Como founder, no se trata de dejar de usar IA, sino de usarla de forma estrategica y consciente. Algunas acciones concretas que puedes implementar desde hoy:
- Alterna modelos: Usa distintos LLM para las mismas tareas y compara outputs. La variacion entre modelos puede revelar angulos que un solo modelo no genera.
- Protege los espacios de brainstorming humano: Reserva sesiones de ideacion sin IA antes de incorporar el modelo como capa de refinamiento.
- Audita el sesgo cultural en tus herramientas: Preguntate si los outputs de tu stack de IA son coherentes con el contexto cultural de tu mercado objetivo en LATAM.
- Fomenta la diversidad cognitiva en tu equipo: Contrata perfiles con formaciones, culturas y estilos de pensamiento distintos. La IA no puede reemplazar esa riqueza.
- Cuestiona los outputs por defecto: El hecho de que un LLM genere una respuesta fluida no la hace correcta, creativa ni culturalmente pertinente para tu contexto.
El debate mas amplio: LLM como espejo o como molde
Existe un debate academico de fondo que vale la pena mencionar. Investigadores como los del blog de Alejandro Barros argumentan que los LLM no piensan realmente: «Solo imitan muy bien». Los modelos colapsan ante tareas de razonamiento genuinamente complejas (como puzzles logicos o problemas de razonamiento causal) porque carecen de representaciones mentales reales. Sin embargo, esa misma capacidad de imitar con alta fidelidad es precisamente lo que los hace tan influyentes en el comportamiento humano: cuanto mas fluido y convincente es el output, mas propenso es el usuario a adoptarlo como propio.
La pregunta para el ecosistema tech no es si la IA piensa, sino cuanto de lo que nosotros pensamos esta siendo moldeado, sin saberlo, por los patrones estadisticos de estos modelos.
Conclusion
El estudio de USC Dornsife no es un llamado al miedo tecnologico: es una invitacion a usar la inteligencia artificial de forma critica y responsable. Para los founders del ecosistema hispanohablante, este hallazgo es doblemente relevante: primero, porque construyen productos que impactan a millones de usuarios; segundo, porque operan en un contexto cultural que los LLM dominantes suelen subrepresentar.
La diversidad cognitiva es uno de los activos mas valiosos de cualquier equipo innovador. Protegerla en la era de la IA generativa no es un lujo ni una postura filosofica: es una ventaja competitiva real. Los founders que entiendan esto antes que los demas estaran mejor posicionados para construir productos mas creativos, equipos mas resilientes y empresas mas adaptables.
Profundiza estos temas con nuestra comunidad de founders y expertos en IA responsable.
Fuentes
- https://dornsife.usc.edu/news/stories/ai-may-be-making-us-think-and-write-more-alike/ (fuente original)
- https://www.infobae.com/america/agencias/2026/03/11/la-ia-esta-homogeneizando-la-forma-en-que-las-personas-escriben-y-piensan-segun-cientificos-y-psicologos/ (fuente adicional)
- https://www.ecoavant.com/ciencia/la-ia-podria-estar-estandarizando-el-pensamiento-humano_16447_102.html (fuente adicional)
- https://www.metro.pr/estilo-vida/2026/03/11/cientificos-alertan-que-la-ia-podria-reducir-la-diversidad-del-pensamiento-humano/ (fuente adicional)
- https://elnacional.com.py/lifestyle/la-ia-podria-homogeneizar-forma-escribimos-pensamos-alertan-cientificos-n102309 (fuente adicional)
- https://www.alejandrobarros.com/los-modelos-de-lenguaje-no-piensan-solo-imitan-muy-bien/ (fuente adicional)
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













