Caso Superhuman: IA, ética y controversia
En marzo de 2026, Superhuman, empresa matriz de Grammarly, se enfrentó a una crisis en el sector de inteligencia artificial aplicada a la productividad. Su herramienta Expert Review generó controversia al utilizar nombres y estilos de reconocidos expertos, autores y periodistas –sin su consentimiento– para entregar sugerencias de edición respaldadas por IA. Figuras como Stephen King y Julia Angwin estuvieron entre los perfiles utilizados indebidamente.
Implicaciones legales y éticas
La reacción del ecosistema fue inmediata: Julia Angwin encabezó una demanda colectiva contra Superhuman, alegando violaciones de privacidad y derechos de imagen en California. Esta situación desencadenó debates intensos sobre la ética en IA y la urgencia de establecer marcos claros para el uso de identidades y trabajos ajenos en plataformas tecnológicas.
El CEO de Superhuman, Shishir Mehrotra, reconoció públicamente el error, anunciando la desactivación de Expert Review y su compromiso de mejorar los procesos de aprobación y compensación para creadores de contenido que colaboren mediante IA.
Modelos de negocio y futuros desafíos
El caso visibiliza la complejidad de desarrollar modelos de negocio sustentables y éticos en plataformas AI. La monetización basada en el “expertise” de terceros obliga a repensar esquemas de licencia, reparto de ingresos e incentivos para creadores y expertos.
Para los founders de startups AI-first en LATAM, el aprendizaje es doble: garantizar consentimiento explícito de creadores y diseñar productos que respeten tanto la legalidad como la confianza del usuario.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadClaves para founders: prevención y oportunidad
- Priorizar acuerdos claros con creadores si la plataforma se basa en “identidades” o contenidos de terceros.
- Evaluar riesgos legales en mercados de destino (privacidad, derechos de imagen, data ownership).
- Diseñar sistemas transparentes de compensación para expertos y colaboradores humanos.
- Comunicar abiertamente vulnerabilidades y aprendizajes ante la comunidad.
Conclusión
El caso Superhuman y Grammarly marca un antes y un después en la intersección entre IA aplicada, ética y modelos de negocio. Para el ecosistema startup LATAM, representa una oportunidad para liderar con transparencia y responsabilidad en la creación de plataformas AI-first.
Descubre cómo otros founders implementan estas soluciones…
Fuentes
- https://www.theverge.com/podcast/898715/superhuman-grammarly-expert-review-shishir-mehrotra-interview-ai-impersonation (fuente original)
- https://www.siliconrepublic.com/business/grammarly-drops-ai-impersonated-tool-after-class-action-lawsuit (fuente adicional)
- https://futurism.com/artificial-intelligence/grammarly-apology-lawsuit (fuente adicional)
- https://iclg.com/news/23650-grammarly-in-hot-water-over-author-impersonating-ai-tool (fuente adicional)













