¿Qué es la herramienta Likeness Detection de YouTube?
YouTube ha ampliado su sistema Likeness Detection en abril de 2026 para permitir que celebridades detecten y soliciten la eliminación de videos deepfake de Inteligencia Artificial que usen su imagen o voz sin autorización. Esta herramienta funciona de forma similar al conocido Content ID de la plataforma, utilizando reconocimiento facial, análisis biométrico y modelos de IA para escanear automáticamente los videos subidos y detectar coincidencias no consentidas con perfiles verificados.
Cuando el sistema identifica un deepfake potencial, el titular recibe una notificación en un panel privado donde puede revisar el contenido y solicitar su eliminación si vulnera la política de privacidad de YouTube. Los datos biométricos de los usuarios inscritos no se utilizan para entrenar modelos de Inteligencia Artificial generativa, según confirmó Google.
La herramienta se lanzó inicialmente en octubre de 2024 para creadores del Programa de Socios de YouTube (como MrBeast o Marques Brownlee). El 10 de marzo de 2026 se anunció una expansión piloto a políticos, periodistas y funcionarios. La incorporación de celebridades es la fase más reciente de esta escalada progresiva.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad¿Cómo funciona técnicamente la detección de deepfakes en YouTube?
El sistema Likeness Detection combina varios niveles de tecnología para identificar contenido manipulado generada con IA:
- Análisis biométrico facial y vocal: el software examina geometría facial, microgestos y patrones de voz para detectar incongruencias con el perfil verificado del solicitante
- Marcas de agua digitales de Google: el sistema rastrea metadatos y firmas de contenido generada por herramientas de IA compatibles con los estándares de Google
- Panel de gestión centralizado: los usuarios inscritos acceden a un dashboard donde visualizan alertas, revisan coincidencias y gestionan solicitudes de eliminación
Es clave entender que no se bloquean parodias ni sátira: la herramienta evalúa cada caso según la política de privacidad de YouTube, preservando usos legítimos y consensuados de la imagen pública.
El registro requiere verificación de identidad mediante video y acreditación, un filtro diseñado para evitar abusos del sistema por parte de solicitantes no verificados.
¿Qué contexto regulatorio rodea esta decisión de YouTube?
La expansión de esta herramienta no llega en el vacío. El marco global de regulación de IA contra deepfakes ha pasado de un puñado de propuestas a cientos de leyes activas en todo el mundo en apenas dos años, según datos compilados por 61 autoridades de protección de datos que emitieron una declaración conjunta el 23 de febrero de 2026 contra la replicación no consentida de personas.
En Estados Unidos, la Take It Down Act (2025) obliga a las plataformas a eliminar deepfakes dañinos en 48 horas, impone sanciones penales federales y requiere mecanismos de reporte obligatorios. Estados como Tennessee, Luisiana y Florida ya tienen legislación estatal propia.
En España, el Consejo de Ministros aprobó en enero de 2026 una reforma que reconoce como intromisión ilegítima el uso de imágenes o voces manipuladas con IA sin consentimiento. La norma establece una edad mínima de 16 años para autorizar el uso de imagen de menores y prohíbe usos publicitarios con deepfakes sin permiso explícito.
A nivel europeo, la EU AI Act prohíbe explícitamente desde marzo de 2026 los sistemas de IA que generen deepfakes de contenido íntimo no consentido, clasificándolos como prácticas de riesgo inaceptable. Las disposiciones para sistemas de alto riesgo entran en vigor en agosto de 2026.
La ONU advirtió en enero de 2026 que el uso de IA para abuso y explotación de menores mediante deepfakes crece de forma alarmante, añadiendo presión regulatoria sobre las plataformas.
¿Qué tan grande es el problema de los deepfakes?
Las cifras hablan por sí solas. En el segundo trimestre de 2025 se registraron 487 ataques con deepfakes divulgados públicamente, lo que representa un aumento del 41% trimestral y más del 300% interanual. Los incidentes se duplican aproximadamente cada seis meses.
Las pérdidas financieras por estafas con deepfakes alcanzaron cerca de 350 millones de dólares en el mismo periodo, según Kaspersky. Los deepfakes se han vuelto significativamente más realistas y afectan desproporcionadamente a mujeres y menores.
¿Cómo se compara YouTube con TikTok, Meta e Instagram?
En 2026, no existe un equivalente directo al sistema Likeness Detection de YouTube en TikTok, Meta o Instagram. Si bien estas plataformas han implementado políticas de marcado de contenido generado con IA, ninguna cuenta con un sistema de monitoreo proactivo similar a Content ID para deepfakes de imagen y voz.
Sin embargo, la Take It Down Act de Estados Unidos ya obliga a todas estas plataformas a responder a solicitudes de eliminación en 48 horas, lo que probablemente acelerará el desarrollo de herramientas similares entre competidores.
¿Qué significa esto para tu startup?
Si tu startup opera en el espacio de IA generativa, creación de contenido o protección de identidad digital, esta decisión de YouTube envía varias señales importantes:
1. La regulación privada precede a la pública. Google no esperó a marcos regulatorios obligatorios para actuar. Las grandes plataformas están implementando mecanismos de protección proactivos que podrían convertirse en estándares de la industria. Si construyes herramientas de IA generativa, anticipate: incorpora opciones de consentimiento verificable, marcado de contenido y mecanismos de reporte desde el diseño.
2. Oportunidad en protección de identidad digital. El mercado de deepfakes crece un 300% interanual y las pérdidas superan los 350 millones de dólares. Si tu equipo opera en LATAM o España — donde la regulación está en desarrollo — existe una ventana para construir soluciones de detección y gestión de identidad digital antes de que los grandes players saturen el espacio. España aprobó su primera ley sobre deepfakes en enero de 2026; en LATAM el vacío regulatorio es aún mayor y representa una oportunidad para productos B2B de compliance.
3. Piensa en compliance como feature, no como obstáculo. La EU AI Act entra en vigor para sistemas de alto riesgo en agosto de 2026, y la Take It Down Act ya opera en Estados Unidos. Si tu producto genera o procesa contenido con IA que incluye rostros o voces reales, diseña con compliance integrado: verificación de consentimiento, marcas de agua detectables, y auditoría de uso. Las startups que incorporen esto desde el day one tendrán ventaja competitiva frente a las que lo parcheen después.
4. Monitorea la evolución de competidores. El hecho de que YouTube lidere con Likeness Detection no significa que TikTok y Meta no vayan a seguir. Las plataformas que dependen de contenido generado por usuarios enfrentan presión regulatoria creciente para implementar sistemas similares. Para founders que construyen herramientas de detección de IA, esto valida la demanda del mercado.
Conclusión
La expansión de Likeness Detection a celebridades marca un punto de inflexión en cómo las plataformas gestionan la identidad digital frente a la IA generativa. Ya no se trata solo de moderación post-publicación: YouTube está construyendo un sistema proactivo que escala desde creadores hacia figuras públicas.
Para founders tech, la lectura es clara: el ecosistema regulatorio y tecnológico converge hacia una realidad donde la protección de identidad digital no será opcional. Las startups que entiendan esta tendencia y construyan con compliance integrado — especialmente en mercados como LATAM donde la regulación va por detrás de la tecnología — estarán posicionadas para capturar una demanda que crece exponencialmente.
El desafío no es solo técnico: es entender que la confianza del usuario se convierte en el activo más valioso de cualquier plataforma en la era de la IA generativa.
Fuentes
- https://www.theverge.com/ai-artificial-intelligence/915872/celebrities-will-be-able-to-find-and-request-removal-of-ai-deepfakes-on-youtube
- https://www.europapress.es/portaltic/internet/noticia-youtube-extiende-herramienta-deteccion-deepfakes-politicos-periodistas-20260310170957.html
- https://www.muycomputer.com/2026/03/10/youtube-amplia-su-sistema-para-detectar-deepfakes/
- https://almcorp.com/es/blog/youtube-likeness-detection-tool-explained/
- https://www.ecija.com/actualidad-insights/nueva-regulacion-para-frenar-los-deepfakes-en-el-ambito-del-honor/
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













