El Ecosistema Startup > Blog > Actualidad Startup > Grammarly demandada por usar identidades reales en su IA

Grammarly demandada por usar identidades reales en su IA

Grammarly convirtió periodistas reales en «editores de IA» sin su permiso

Durante meses, Grammarly utilizó el nombre y la imagen de personas reales —entre ellas periodistas de reconocida trayectoria— para alimentar su función de inteligencia artificial denominada «Expert Review», y lo hizo sin obtener ningún tipo de consentimiento. El resultado: una demanda colectiva que pone sobre la mesa uno de los debates más urgentes del ecosistema tecnológico actual: ¿hasta dónde pueden llegar las empresas de IA al apropiarse de identidades reales con fines comerciales?

¿Quién es Julia Angwin y por qué demanda a Grammarly?

La demandante principal es Julia Angwin, periodista investigadora veterana especializada en el impacto social de la tecnología. Fundadora de The Markup en 2018 y directora inaugural de la iniciativa de medios independientes del Centro Shorenstein de Harvard, Angwin es una voz ampliamente reconocida en el mundo del periodismo de datos y la rendición de cuentas tecnológica.

Angwin se enteró de que Grammarly estaba usando su nombre y credenciales para respaldar sugerencias generadas por IA dentro de su plataforma. En palabras de la propia periodista en su cuenta de Bluesky: «Grammarly me convirtió en editora de IA en contra de mi voluntad y lo odio». No fue consultada, no dio su aprobación y, sin embargo, su identidad aparecía vinculada a recomendaciones de escritura automatizadas que millones de usuarios recibían como si fueran de una experta humana real.

👥 ¿Quieres ir más allá de la noticia?

En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.

👥 Unirme a la comunidad

Cómo funciona —o funcionaba— la función Expert Review de Grammarly

La función «Expert Review» de Grammarly promete a sus usuarios recibir sugerencias editoriales avaladas por expertos del mundo real. La mecánica era aparentemente sencilla pero éticamente problemática: el sistema tomaba perfiles públicos de periodistas o profesionales reconocidos y asociaba sus nombres a las sugerencias generadas automáticamente por la IA, creando la ilusión de que esa persona había revisado personalmente el contenido.

Un usuario podría ver un mensaje del tipo «Julia Angwin sugiere reformular esta frase para mayor claridad», cuando en realidad ningún ser humano intervino en esa recomendación. La plataforma simulaba un respaldo humano que nunca existió, apropiándose del capital reputacional de los expertos sin compensación ni aviso.

Las acusaciones legales: privacidad, imagen y falso respaldo

La demanda colectiva presentada contra Grammarly acumula varios cargos con potencial impacto en toda la industria de IA:

  • Violación del derecho de publicidad (right of publicity): uso comercial del nombre y la imagen de personas reales sin su consentimiento explícito.
  • Invasión a la privacidad: explotación no autorizada de la identidad personal con fines lucrativos.
  • Falso respaldo (false endorsement): inducir a los usuarios a creer que expertos reales avalan activamente las sugerencias de la plataforma, cuando se trata de outputs automatizados.

Este conjunto de acusaciones no es menor. El «derecho de publicidad» es una figura legal consolidada en muchos estados de EE. UU. que protege a las personas del uso comercial no autorizado de su identidad, y su aplicación al entorno de la IA abre un precedente que puede redefinir cómo las startups y grandes empresas tecnológicas diseñan sus productos.

La respuesta de Grammarly: tarde y a medias

Ante la presión pública y la cobertura mediática del caso —en especial por parte de The Verge y Platformer—, Grammarly reaccionó anunciando que permitirá a los expertos afectados optar por salir de la función (opt-out). Sin embargo, la compañía no ha reconocido públicamente el fallo de consentimiento previo ni ha explicado por qué no se solicitó autorización desde el inicio.

Este movimiento reactivo es exactamente el tipo de gestión de crisis que erosiona la confianza en las empresas de IA: actuar solo cuando hay presión externa, en lugar de diseñar los productos con privacidad y consentimiento como principios fundacionales.

Por qué este caso importa para founders que construyen con IA

Si estás desarrollando un producto o servicio que incorpora inteligencia artificial —especialmente funciones que involucran nombres, voces, imágenes o datos de personas reales—, este caso es una señal de alerta que no debes ignorar. Aquí los aprendizajes clave:

1. El consentimiento no es opcional

Usar datos o identidades públicamente disponibles no equivale a tener permiso para usarlas con fines comerciales. La disponibilidad pública de información no transfiere automáticamente el derecho de explotación.

2. El diseño centrado en privacidad es ventaja competitiva

En un entorno donde los usuarios son cada vez más conscientes del uso que se hace de sus datos e identidad, las startups que incorporan el consentimiento y la transparencia como pilares desde el día uno construyen productos más sostenibles —y blindados legalmente.

3. Los precedentes legales en IA están formándose ahora

El caso Angwin vs. Grammarly se suma a una lista creciente de litigios que están definiendo los límites legales del uso de IA: desde las demandas de medios de comunicación contra OpenAI por uso de contenido periodístico en entrenamiento, hasta el acuerdo de Anthropic por 1,5 millones de dólares en una demanda colectiva por violaciones de derechos de autor con su modelo Claude. Quienes construyen productos de IA hoy están navegando un terreno legal aún en construcción.

4. Las funciones de «IA con cara humana» son un riesgo latente

Funciones que simulan la presencia o el criterio de personas reales —sin que esas personas lo sepan— podrían catalogarse como una forma moderna de deepfake reputacional. El daño no es solo legal: es a la confianza del usuario y a la credibilidad del producto.

El contexto más amplio: la IA y la crisis de confianza informacional

La propia Julia Angwin ha advertido en múltiples ocasiones que la inteligencia artificial «está creando una desconfianza generalizada hacia toda la información». Este caso lo ilustra de manera perfecta: cuando una plataforma atribuye sugerencias automatizadas a expertos reales, no solo engaña al usuario individual, sino que erosiona la credibilidad de los profesionales cuya reputación se instrumentaliza sin permiso.

Para el ecosistema de startups, la lección es estructural: la confianza es el activo más frágil y el más valioso que un producto de IA puede tener. Una vez que los usuarios descubren que han sido inducidos a creer en un respaldo falso, la reputación del producto difícilmente se recupera.

Conclusión

El caso Julia Angwin contra Grammarly no es solo una disputa entre una periodista y una empresa de tecnología de escritura. Es un síntoma de una tensión estructural en el desarrollo de productos de IA: la presión por ofrecer funciones diferenciadoras que hagan los outputs del modelo más creíbles, versus el respeto irrenunciable a la identidad, privacidad y consentimiento de las personas.

Para los founders que construyen con IA en LATAM y el mundo hispanohablante, este caso llega en el momento justo: el marco legal global sobre IA está tomando forma ahora, y las decisiones de diseño que tomes hoy determinarán si tu producto es sostenible o una demanda esperando suceder. Consentimiento, transparencia y privacidad por diseño no son solo buenas prácticas éticas: son estrategia de negocio.

Profundiza estos temas con nuestra comunidad de founders que construyen con IA de forma responsable

Unirme a la comunidad

Fuentes

  1. https://www.theverge.com/ai-artificial-intelligence/893451/grammarly-ai-lawsuit-julia-angwin (fuente original)
  2. https://journalistsresource.org/media/ai-journalism-julia-angwin/ (fuente adicional)
  3. https://www.politico.com/newsletters/digital-future-daily/2025/10/31/5-questions-for-julia-angwin-00631214 (fuente adicional)
  4. https://bsky.app/profile/did:plc:ohugifx3xouerbmcljjs4kpc (declaraciones de Julia Angwin)
¿te gustó o sirvió lo que leíste?, Por favor, comparte.

Daily Shot: Tu ventaja táctica

Lo que pasó en las últimas 24 horas, resumido para que tú no tengas que filtrarlo.

Suscríbete para recibir cada mañana la curaduría definitiva del ecosistema startup e inversionista. Sin ruido ni rodeos, solo la información estratégica que necesitas para avanzar:

  • Venture Capital & Inversiones: Rondas, fondos y movimientos de capital.
  • IA & Tecnología: Tendencias, Web3 y herramientas de automatización.
  • Modelos de Negocio: Actualidad en SaaS, Fintech y Cripto.
  • Propósito: Erradicar el estancamiento informativo dándote claridad desde tu primer café.

📡 El Daily Shot Startupero

Noticias del ecosistema startup en 2 minutos. Gratis, cada día hábil.


Share to...