El escándalo que sacude a Meta: trabajadores subcontratados revisando videos íntimos de sus gafas IA
La Oficina del Comisionado de Información del Reino Unido (ICO) contactó formalmente a Meta tras conocerse que trabajadores subcontratados, ubicados principalmente en Kenia, revisaron videos íntimos capturados por las populares gafas inteligentes Ray-Ban Meta. El caso expone una práctica habitual en la industria de la IA —el uso de anotadores humanos para entrenar modelos— pero con una dimensión de privacidad que pocos usuarios anticipaban al ponerse ese par de gafas.
¿Cómo funcionan las gafas Ray-Ban Meta y por qué son relevantes para la privacidad?
Las Ray-Ban Meta Smart Glasses integran cámaras y micrófonos que permiten capturar fotos y videos de forma manos libres, identificar objetos en tiempo real y procesar instrucciones de IA mediante la voz. Su diseño es deliberadamente discreto: un pequeño LED indicador de grabación advierte a quienes están cerca, pero críticos y reguladores coinciden en que dicho aviso es insuficiente para que los transeúntes puedan dar un consentimiento informado.
El material captado no solo queda en el dispositivo: es enviado a los servidores de Meta para mejorar los modelos de inteligencia artificial. Ahí comienza el problema.
Trabajadores en Kenia revisando contenido íntimo sin protecciones adecuadas
Según reportes suecos citados por el portal Dig.Watch y confirmados en la cobertura de la BBC, la empresa subcontratista Sama —con operaciones en Kenia— fue encargada de anotar y revisar fragmentos de video capturados por usuarios europeos de las gafas. Entre ese material apareció contenido sensible: imágenes de personas cambiándose de ropa, capturadas sin su conocimiento ni consentimiento.
Los propios anotadores de Sama reportaron fallas recurrentes en los sistemas de difuminado de rostros y anonimización que Meta supuestamente había implementado. Esto dejó expuesto material identificable ante trabajadores en un país que no cuenta con estatus de adecuación bajo el Reglamento General de Protección de Datos (GDPR) de la Unión Europea.
La respuesta regulatoria: Reino Unido, la UE y Estados Unidos se movilizan
El caso ha desencadenado reacciones en tres frentes regulatorios simultáneos:
Reino Unido: la ICO entra en escena
La Oficina del Comisionado de Información (ICO) del Reino Unido tomó contacto con Meta para solicitar explicaciones. El UK GDPR —equivalente británico del reglamento europeo, vigente post-Brexit— exige consentimiento explícito para la recolección y procesamiento de datos personales, así como garantías adicionales cuando esos datos se transfieren a países sin protecciones equivalentes.
Unión Europea: el Parlamento presiona a la Comisión
Legisladores del Parlamento Europeo exigieron a la Comisión Europea claridad sobre si Meta cumple el GDPR, cómo justifica la exportación de datos de ciudadanos europeos a Kenia y si las reformas regulatorias recientes podrían debilitar las normas de entrenamiento de IA. La Comisión Irlandesa de Protección de Datos (DPC) —supervisora de Meta en la UE por ser la sede europea de la compañía— también fue notificada.
Estados Unidos: la FTC bajo presión ciudadana
En paralelo, organizaciones como EPIC (Electronic Privacy Information Center) instaron a la Comisión Federal de Comercio (FTC) a investigar los planes de Meta para incorporar reconocimiento facial a las gafas Ray-Ban. En un caso judicial distinto, un juez ordenó a empleados de Meta eliminar cualquier dato de reconocimiento facial capturado en salas de tribunal, subrayando la preocupación creciente en el ámbito legal.
El problema de fondo: humanos entrenando la IA con tu privacidad
El caso de Meta no es un accidente aislado: refleja una práctica sistémica en la industria. Empresas como Google, Amazon y OpenAI también han utilizado contratistas humanos —a menudo en países de bajos ingresos— para anotar datos de audio, video e imagen con el objetivo de mejorar sus modelos de IA. Lo que distingue este caso es la naturaleza de los datos: no son grabaciones voluntarias ni contenido público, sino capturas involuntarias de momentos privados de personas que jamás supieron que estaban siendo filmadas.
Para los founders que construyen productos con IA generativa, visión computacional o dispositivos wearables, este escándalo es una señal de alerta sobre tres dimensiones críticas:
- Consentimiento informado: ¿saben tus usuarios exactamente qué datos captura tu producto y quién los revisa?
- Cadena de subcontratación: las obligaciones de privacidad no terminan en tu empresa; tus proveedores y anotadores también son tu responsabilidad legal.
- Transferencias internacionales de datos: si procesas datos de usuarios europeos o británicos y los envías a terceros en países sin adecuación GDPR, el riesgo regulatorio es real y costoso.
Implicaciones para startups que construyen con IA y hardware
El mercado de los wearables con IA está en plena expansión. Gafas inteligentes, auriculares con IA y sensores corporales se proyectan como la próxima plataforma después del smartphone. Pero el escándalo de Meta demuestra que la velocidad de adopción puede superar la madurez de los marcos legales.
Startups que operan en este espacio —o que simplemente recolectan datos de usuarios para entrenar modelos— deben considerar:
- Implementar privacy by design desde la arquitectura del producto, no como capa posterior.
- Hacer auditorías periódicas de los pipelines de anotación de datos, incluyendo a contratistas externos.
- Ser transparentes con los usuarios sobre el uso de revisores humanos en procesos de IA: ya hay precedentes legales que lo exigen.
- Anticipar un endurecimiento regulatorio en Europa, Reino Unido y Latinoamérica (Brasil con la LGPD, y México con su reforma en marcha).
Conclusión
El caso de las gafas inteligentes de Meta y los trabajadores de Kenia revisando videos íntimos es mucho más que un titular incómodo para una Big Tech: es un espejo que la industria tecnológica debe mirarse con honestidad. La IA avanza a una velocidad que la regulación difícilmente puede seguir, pero los reguladores —en el Reino Unido, la UE y Estados Unidos— están demostrando que sí tienen dientes.
Para los founders del ecosistema startup, la lección es clara: la privacidad no es un checkbox legal, es una ventaja competitiva. Construir con confianza desde el día uno —siendo transparentes sobre cómo se usan los datos, quién los revisa y bajo qué protecciones— puede ser el diferenciador que separe a las startups responsables de las que enfrentan multas millonarias en los próximos años.
Profundiza estos temas con nuestra comunidad de founders expertos en IA, privacidad y regulación tecnológica.
Fuentes
- https://www.bbc.com/news/articles/c0q33nvj0qpo (fuente original)
- https://dig.watch/updates/eu-pressures-meta-over-alleged-smart-glasses-privacy-breaches (fuente adicional)
- https://www.biometricupdate.com/202602/ftc-asked-to-investigate-meta-facial-recognition-smart-glasses-plan (fuente adicional)
- https://www.bcu.ac.uk/blog/computing/the-hidden-risks-behind-metas-ai-glasses (fuente adicional)













