Qué era la función Expert Review de Grammarly
En agosto de 2025, Grammarly lanzó ocho agentes de IA para asistir en la escritura. Uno de ellos, Expert Review, prometía algo llamativo: analizar el texto del usuario y entregarle retroalimentación redactada desde la perspectiva de un experto reconocido en el tema. Para textos de más de 150 palabras, el sistema identificaba automáticamente un perfil relevante y simulaba sus sugerencias editoriales.
El problema estaba en los nombres. Grammarly utilizaba figuras reales como el escritor William Zinsser —fallecido en 2015— o el novelista Stephen King para «enmarcar» las correcciones de la IA. En la documentación oficial de soporte, la empresa aclaraba que las referencias eran «solo informativas» y que no implicaban afiliación ni respaldo. Pero esa advertencia en letra pequeña no convenció a nadie.
El backlash: usar nombres reales sin permiso
La reacción no tardó en llegar. Medios como The Verge, eWeek y Gigazine documentaron las críticas de expertos y creadores de contenido que se sintieron «clonados» sin consentimiento. El argumento central era claro: utilizar el nombre y el estilo de una persona real para generar output comercial —sin pedirle permiso ni compensarla— es una apropiación inaceptable de identidad digital.
La situación se volvía todavía más delicada en el caso de personas fallecidas, como el propio Zinsser, cuya herencia intelectual quedaba expuesta a interpretaciones algorítmicas sin control de sus allegados o herederos.
¿Inspiración estilística o suplantación digital?
Quienes defendían la función argumentaban que imitar un estilo es una práctica creativa antigua: los escritores llevan siglos aprendiendo de sus maestros. El límite ético, sin embargo, se cruza cuando una empresa comercializa ese proceso bajo el nombre real del experto, generando la ilusión de que esa persona está efectivamente revisando tu trabajo. No es inspiración: es un endoso fabricado.
La decisión de Grammarly: deshabilitar la función
Ante la presión pública y mediática, Grammarly deshabilitó la función Expert Review. La empresa no emitió una declaración pública extensa, pero el movimiento fue interpretado por la industria como un reconocimiento implícito de que el diseño original había cruzado una línea de consentimiento. Fuentes como Junia AI señalaron que una alternativa más ética sería construir rúbricas de evaluación anónimas o sintéticas, sin anclarlas a personas reales identificables.
Qué nos enseña este caso sobre ética IA y herramientas para founders
Para los founders que construyen o integran herramientas de IA, este incidente es una señal de alerta concreta. Aquí los aprendizajes accionables:
- El consentimiento no es opcional: usar datos, nombres o estilos de personas reales para entrenar o «enmarcar» outputs de IA sin permiso genera riesgos legales y reputacionales que pueden escalar rápido.
- La transparencia importa en el diseño del producto: una cláusula en letra pequeña no reemplaza un diseño ético. Si tu feature puede malinterpretarse como un endoso real, hay que rediseñarla antes del lanzamiento.
- La regulación viene en camino: incidentes como este aceleran la discusión sobre leyes de consentimiento para uso de identidades en IA, «watermarking» de contenido generado y prohibición de simulación de personas sin autorización explícita.
- La confianza del usuario es el activo más frágil: el debate no giró solo en torno a los expertos afectados, sino también en los propios usuarios de Grammarly, que se preguntaron si realmente estaban recibiendo retroalimentación de calidad o una ilusión bien empaquetada.
El mapa de riesgos para startups que usan IA generativa
Este caso no es aislado. Forma parte de un patrón más amplio donde herramientas de IA avanzan de corregir errores gramaticales a simular expertise humano, con todas las implicancias legales y éticas que eso conlleva. Las startups que integren capacidades similares deben anticipar:
- Posibles demandas por uso no autorizado de identidad (right of publicity).
- Presión regulatoria en la Unión Europea bajo el AI Act y en estados como California.
- Pérdida de confianza de usuarios si perciben que el producto «engaña» sobre la naturaleza del output.
- Riesgos de PR amplificados por la velocidad de las redes sociales: un hilo viral puede desactivar años de brand-building.
¿Hacia dónde van las herramientas de edición con IA?
La respuesta del mercado a este incidente probablemente empuje a las herramientas de escritura hacia modelos más transparentes: expertos sintéticos sin nombre real, rúbricas configurables por el usuario, o integraciones directas con expertos reales que hayan dado consentimiento explícito a cambio de compensación. Startups que sepan navegar ese camino con anticipación tendrán una ventaja competitiva real frente a los que lleguen tarde al debate ético.
Conclusión
El caso de Grammarly Expert Review es un recordatorio poderoso: la velocidad de lanzamiento no puede superar la reflexión ética. En el ecosistema startup, donde la presión por iterar rápido es enorme, la ética de los datos y el consentimiento digital deben ser parte del proceso de diseño de producto desde el día uno, no un parche reactivo después del backlash. Los founders que construyan con esa lógica no solo evitarán crisis: construirán productos más sólidos y confiables a largo plazo.
Descubre cómo otros founders implementan IA de forma ética y escalable en nuestra comunidad.
Fuentes
- https://www.theverge.com/ai-artificial-intelligence/893270/grammarly-ai-expert-review-disabled (fuente original)
- https://gigazine.net/gsc_news/en/20260310-grammarly-expert-reviews/ (fuente adicional)
- https://www.eweek.com/news/grammarly-ai-expert-review-backlash/ (fuente adicional)
- https://www.junia.ai/blog/grammarly-expert-review (fuente adicional)
- https://ciente.io/news/grammarlys-expert-reviews-feature-comes-with-a-scary-realization/ (fuente adicional)













