El Ecosistema Startup > Blog > Actualidad Startup > Trabajadores de IA en Kenia: trauma, sindicatos y ética

Trabajadores de IA en Kenia: trauma, sindicatos y ética

La cara oculta del entrenamiento de IA: quiénes hacen el trabajo que nadie quiere ver

Detrás de cada respuesta fluida de ChatGPT, de cada filtro de contenido de Facebook o de cada moderación automática de TikTok, hay miles de personas que revisan, clasifican y etiquetan material que va desde imágenes violentas hasta pornografía explícita. Son los trabajadores invisibles de la IA, y la historia de Michael Geoffrey es quizás la más elocuente de todas.

Geoffrey, trabajador keniata, pasó jornadas de hasta 8 horas diarias etiquetando contenido explícito y sosteniendo conversaciones con chatbots de carácter sexual, todo para que los modelos de lenguaje de grandes empresas tecnológicas aprendieran a distinguir lo apropiado de lo inapropiado. El costo fue altísimo: deterioro severo de su salud mental. Hoy, sin embargo, no solo sobrevivió a esas condiciones; las convirtió en combustible para liderar el sindicato que lucha precisamente contra ellas.

Nairobi: el epicentro invisible del entrenamiento de IA global

La capital keniata se ha convertido en uno de los principales polos de anotación de datos y moderación de contenido para las grandes tecnológicas del mundo. Empresas como Sama, con sede en Nairobi —conocida también como el Silicon Savannah—, operan como subcontratistas para gigantes como OpenAI, Meta y TikTok, externalizando tareas repetitivas de bajo costo aprovechando la infraestructura digital local y el dominio del inglés.

👥 ¿Quieres ir más allá de la noticia?

En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.

👥 Unirme a la comunidad

Las condiciones laborales documentadas son preocupantes:

  • Salarios de entre 2 y 3 dólares por hora, equivalentes a alrededor de 3 euros, muy por debajo de los estándares internacionales del sector tech.
  • Contratos de corto plazo, a veces de solo días o semanas, sin beneficios como seguro médico ni estabilidad laboral.
  • Jornadas de 8 a 10 horas revisando contenido con violencia extrema, agresiones sexuales, suicidios e imágenes íntimas de usuarios.
  • Ausencia de apoyo psicológico adecuado para procesar la exposición a material traumático.

Cuando el trabajo se convierte en trauma: el impacto en la salud mental

Moderadores keniatas han descrito su trabajo ante medios internacionales como una forma de "tortura". El impacto no es metafórico: el estrés crónico, los episodios de ansiedad y los trastornos por exposición a contenido traumático son consecuencias documentadas entre estos trabajadores.

El caso de Michael Geoffrey ilustra una realidad colectiva. Pero no es el único. Figuras como Sonia Kgomo, ex moderadora de contenidos de Meta en Kenia, se han convertido también en voces clave dentro de organizaciones como African Tech Workers Rising, respaldada por UNI Global Union. En febrero de 2025, Kgomo participó en la Cumbre de Acción en IA en París, donde denunció el rol "invisible" que África desempeña en la cadena de valor de la inteligencia artificial global.

La paradoja es brutal: los modelos que hoy el mundo celebra por su capacidad de "pensar" fueron entrenados, en parte, a costa del bienestar psicológico de personas que cobraban menos de lo que muchos occidentales gastan en un café.

Del dolor individual a la acción colectiva: el surgimiento de sindicatos de IA

La respuesta de los trabajadores no se hizo esperar. En mayo de 2023, más de 150 moderadores y etiquetadores de datos que trabajaban para empresas subcontratadas por Facebook, ChatGPT y TikTok formaron un sindicato en Nairobi, exigiendo mejores condiciones, acceso a contratos estables y reconocimiento formal de sus derechos laborales.

El caso tomó dimensiones legales cuando 184 extrabajadores de Sama demandaron a Meta tras ser despedidos precisamente por intentar sindicarse. El Tribunal de Nairobi ordenó la suspensión de los despidos en junio de 2023. Las negociaciones fracasaron meses después, en octubre de 2023, y el caso permanece activo. Los trabajadores exigen indemnizaciones, apoyo en salud mental y el reconocimiento pleno de su derecho a organizarse.

Hoy, Michael Geoffrey lidera uno de estos esfuerzos sindicales: el mismo tipo de organización que en su momento no existió para protegerlo a él.

Lo que esto revela sobre la cadena ética de la IA

Para el ecosistema de startups tech, esta historia plantea preguntas incómodas pero necesarias. El entrenamiento de modelos de IA no ocurre en el vacío: depende de una cadena de trabajo humano que, en muchos casos, está profundamente desregulada y éticamente cuestionable.

Algunos puntos que todo founder o líder tech debería conocer:

  • La IA no es mágica, es trabajo humano. Cada modelo generativo necesita millones de ejemplos etiquetados por personas reales.
  • La externalización tiene un costo humano oculto. El ahorro de costos en subcontratación de datos muchas veces recae sobre los eslabones más vulnerables de la cadena.
  • La regulación avanza lentamente, pero los sindicatos no esperan. Organizaciones como African Tech Workers Rising ya están en mesas de negociación global.
  • El mercado global de anotación de datos crece impulsado por la demanda de IA, pero sin marcos éticos sólidos, reproduce inequidades estructurales.

Para startups que construyen sobre modelos de IA o que subcontratan tareas de datos, incorporar prácticas de auditoría ética en su cadena de suministro de datos no es solo una cuestión moral: será, cada vez más, una exigencia del mercado y los reguladores.

El futuro del trabajo en IA: entre la automatización y los derechos laborales

En la Cumbre de Acción en IA de París 2025, el debate sobre los derechos de los trabajadores de datos ganó visibilidad internacional. La narrativa dominante de la IA como motor de productividad choca frontalmente con la realidad de quienes hacen posible esa productividad desde el anonimato.

Las plataformas de trabajo digital en África, Asia y América Latina representan el siguiente gran frente de la discusión laboral tech. Y aunque la regulación específica para trabajo digital aún es incipiente en Kenia y la mayoría del mundo, el movimiento sindical que emerge desde Nairobi marca una tendencia: los trabajadores de la IA están dejando de ser invisibles.

Para el ecosistema startup, esto también abre oportunidades: desde el desarrollo de herramientas de bienestar laboral para equipos remotos, hasta startups de ética de datos y auditoría de cadenas de suministro de IA. El problema es real, el mercado existe y la urgencia es creciente.

Conclusión

La historia de Michael Geoffrey no es solo una denuncia: es un recordatorio de que la IA que usamos a diario tiene costos humanos que raramente aparecen en los titulares de las rondas de financiación o los lanzamientos de productos. Construir tecnología responsable implica preguntarse no solo qué construimos, sino sobre qué hombros lo construimos.

En el ecosistema startup, donde la velocidad de ejecución a veces compite con la reflexión ética, casos como este invitan a hacer una pausa: ¿quién está detrás de los datos que alimentan nuestros modelos? ¿Bajo qué condiciones trabajan? ¿Qué tipo de industria queremos construir?

El sindicato que hoy lidera Geoffrey es una respuesta colectiva a preguntas que la industria tech lleva demasiado tiempo ignorando. Y si hay algo que los founders entienden bien, es que ignorar un problema estructural no lo hace desaparecer: lo agrava.

Profundiza estos temas con nuestra comunidad de founders y expertos en ética IA, tecnología responsable y el futuro del trabajo.

Unirme a la comunidad

Fuentes

  1. https://www.xataka.com/robotica-e-ia/pasaba-8-horas-al-dia-mirando-pornografia-para-entrenar-ia-hoy-lidera-sindicato-trabajadores-que-lucha-eso (fuente original)
  2. https://www.escudodigital.com/tecnologia/inteligencia-artificial/los-entrenadores-invisibles-kenia-y-la-mano-humana-que-ensena-a-la-ia.html (fuente adicional)
  3. https://elpais.com/tecnologia/2023-08-02/la-lucha-laboral-de-quienes-limpian-desde-kenia-la-toxicidad-de-facebook-tiktok-y-chatgpt-por-tres-euros-la-hora.html (fuente adicional)
  4. https://es.euronews.com/next/2023/06/30/los-moderadores-de-contenidos-de-facebook-de-kenia-califican-de-tortura-el-trabajo-que-rea.html (fuente adicional)
  5. https://www.lavanguardia.com/tecnologia/20231018/9305504/fracasa-acuerdo-cese-despidos-facebook-kenia-pmv.html (fuente adicional)
  6. https://uniglobalunion.org/es/news/ai-action-summit-africa-tech-workers/ (fuente adicional)
  7. https://techcabal.com/es/2026/03/04/kenia-meta-ray-ban-ai-momentos-intimos/ (fuente adicional)
¿te gustó o sirvió lo que leíste?, Por favor, comparte.

Daily Shot: Tu ventaja táctica

Lo que pasó en las últimas 24 horas, resumido para que tú no tengas que filtrarlo.

Suscríbete para recibir cada mañana la curaduría definitiva del ecosistema startup e inversionista. Sin ruido ni rodeos, solo la información estratégica que necesitas para avanzar:

  • Venture Capital & Inversiones: Rondas, fondos y movimientos de capital.
  • IA & Tecnología: Tendencias, Web3 y herramientas de automatización.
  • Modelos de Negocio: Actualidad en SaaS, Fintech y Cripto.
  • Propósito: Erradicar el estancamiento informativo dándote claridad desde tu primer café.

📡 El Daily Shot Startupero

Noticias del ecosistema startup en 2 minutos. Gratis, cada día hábil.


Share to...