Un desarrollador afirma haber descifrado SynthID con análisis de señales
Un desarrollador de software llamado Alosh Denny publicó en GitHub y Medium un proyecto donde asegura haber revertido la ingeniería del sistema SynthID de Google DeepMind — el mecanismo de marcas de agua invisible que protege más de 10 mil millones de imágenes y fotogramas de video generados por IA en los servicios de Google. Lo más llamativo: afirma haberlo logrado sin redes neuronales ni acceso propietario, usando únicamente análisis espectral y una colección de imágenes producidas con Gemini.
Si la afirmación es válida, significa que el estándar de autenticación de contenido IA más desplegado del mundo podría tener una grieta explotable con herramientas de acceso libre. Para cualquier startup que usa IA generativa en producción, esto cambia el mapa de riesgos.
¿Qué es SynthID y cómo funciona técnicamente?
SynthID es el sistema de marcas de agua desarrollado por Google DeepMind para verificar la autenticidad de contenido generado por IA: imágenes, audio y texto. En el caso de imágenes, funciona de forma post-generación (no altera el proceso de creación) e incrusta un patrón invisible mediante frecuencias portadoras dependientes de la resolución con valores de fase fijos y patrones de ruido aprendidos distribuidos en el espectro visual.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadEl detector de SynthID extrae los residuos de ruido —por ejemplo, mediante denoising por wavelets—, aplica una transformada rápida de Fourier (FFT) y verifica si las fases en esas frecuencias coinciden con el patrón original. La marca resiste operaciones comunes como compresión, recorte y filtros básicos, pero es completamente imperceptible al ojo humano. Según el paper publicado por DeepMind en arXiv en octubre de 2025, el sistema fue diseñado para escalar a nivel de internet manteniendo esa resistencia.
¿Qué afirma haber hecho el desarrollador?
Alosh Denny publicó en su repositorio de GitHub (reverse-SynthID) que logró:
- Descubrir la estructura de frecuencias portadoras dependientes de resolución que usa SynthID para embeber la marca.
- Construir un detector propio con una precisión del 90% usando solo análisis de señales y espectral.
- Desarrollar un método de bypass multi-resolución (denominado V3) que reduce un 75% de la energía portadora y un 91% de la coherencia de fase, mientras mantiene una calidad visual de 43+ dB PSNR — prácticamente indistinguible del original.
En términos simples: afirma poder tanto eliminar la marca de agua de una imagen generada por IA como insertarla manualmente en una imagen que no fue creada por Google, lo que abriría la puerta a falsos positivos y negativos en los sistemas de verificación.
¿Qué dice Google y qué opinan los expertos?
Google niega la afirmación. La empresa sostiene que la investigación publicada no logra evadir el detector real de SynthID, y señala que el desarrollador probó contra una versión pública simplificada — no contra el detector interno completo, que es considerablemente más robusto.
La comunidad técnica en Hacker News fue crítica con el trabajo: varios comentaristas lo calificaron como un repositorio de baja calidad asistido por IA que no cumple con los estándares mínimos de validación, precisamente porque no prueba sus resultados contra el detector oficial de Google.
Sin embargo, investigadores independientes que han explorado ataques adversariales contra SynthID — como el análisis publicado por fyx.me en febrero de 2026 — confirman que los patrones espectrales persisten incluso tras intentos de eliminación. Esto no prueba ni refuta la afirmación de Denny, pero sí indica que el tema tiene sustancia técnica suficiente para tomarse en serio.
¿Por qué este debate importa más allá del caso concreto?
Aunque Google tenga razón y el proyecto de Denny no derrote al detector real, el episodio revela algo más relevante: el modelo de seguridad basado en oscuridad del detector no es sostenible a largo plazo. Si un desarrollador puede construir un detector con 90% de precisión usando solo imágenes públicas de Gemini, la brecha entre lo público y lo propietario se reduce con cada iteración.
El paper de DeepMind en arXiv reconoce implícitamente este riesgo: el diseño de SynthID asume que el detector completo permanece privado. Pero los detectores públicos actúan como oráculos que filtran información sobre la estructura de la marca, y eso tiene un coste de seguridad acumulativo.
Otros sistemas de watermarking IA y cómo se comparan
SynthID no es el único sistema en el mercado. Aquí el contexto que necesita cualquier founder antes de tomar decisiones de infraestructura:
- Stable Signature (Stability AI): Integrado en el proceso de generación en lugar de aplicarse después. Similar enfoque espectral, pero atado al modelo — menos flexible y potencialmente más vulnerable a ataques por patrones conocidos.
- C2PA (Coalition for Content Provenance and Authenticity): Impulsado por Adobe, Microsoft y otros. Usa firma criptográfica más marcas visibles/invisibles. Más transparente y auditable, pero también más fácil de modificar. Complementa bien a SynthID pero no compite directamente.
- Nightshade / Greenbit (Universidad de Chicago): Enfoque defensivo — diseñado para envenenar datos de entrenamiento y proteger a artistas, no para verificar proveniencia post-generación. Objetivo distinto.
La conclusión técnica del sector es clara: ningún sistema de marca de agua por sí solo es suficiente. La fortaleza real viene de combinar enfoques espectrales con firmas criptográficas y metadatos de proveniencia.
Qué significa esto para tu startup
Si tu empresa usa contenido generado por IA — para marketing, producto, legal o comunicación — este caso tiene implicaciones directas que puedes empezar a gestionar hoy:
- No dependas de un solo sistema de autenticación. Si usas SynthID como única capa de verificación para determinar si un contenido es de IA o no, estás construyendo sobre una sola apuesta. Combina con C2PA y registros de proveniencia internos.
- Actualiza tu evaluación de riesgos de deepfakes. Si un actor malicioso puede insertar una marca SynthID en una imagen que no proviene de Google, puede fabricar evidencia falsa de origen. Eso tiene implicaciones en contextos legales, de cumplimiento y de reputación.
- Vigila los detectores públicos como vectores de ataque. Si usas la API pública de SynthID para verificar contenido, entiende que esa misma API puede ser usada para calibrar ataques contra ella. El acceso público tiene un coste de seguridad.
- Sigue el estándar C2PA activamente. Empresas como Adobe, Microsoft, BBC y Sony ya lo implementan. Para 2027, podría convertirse en requisito regulatorio en la UE bajo el AI Act. Mejor adoptarlo ahora que migrarlo bajo presión.
Para startups en sectores donde la autenticidad del contenido es crítica — medios, legaltech, adtech, edtech — este no es un debate académico. Es una señal de que la carrera armamentista entre sistemas de protección y técnicas de evasión ya está en marcha, y que quienes dependan de una sola capa técnica quedarán expuestos antes de lo esperado.
Conclusión
El caso de SynthID y Alosh Denny ilustra una tensión estructural en la autenticación de contenido IA: los sistemas de seguridad basados en detección propietaria son solo tan fuertes como la opacidad que los rodea. Google puede tener razón en que su detector interno no fue derrotado — pero el hecho de que un desarrollador individual haya llegado al 90% de precisión con herramientas públicas es, en sí mismo, la señal de alerta.
Para el ecosistema de startups, la lección es pragmática: la autenticación de contenido IA no es un problema resuelto. Las capas múltiples, los estándares abiertos como C2PA y los procesos internos de verificación son la única defensa realista en un entorno donde las herramientas de evasión se publican en GitHub un lunes por la mañana.
Fuentes
- https://www.theverge.com/ai-artificial-intelligence/911579/google-synthid-ai-watermarking-system-reverse-engineered (fuente original)
- https://github.com/aloshdenny/reverse-SynthID (repositorio GitHub del desarrollador)
- https://news.ycombinator.com/item?id=47709130 (discusión técnica en Hacker News)
- https://www.netizen.net/news/post/5341/googles-synthid-a-deeper-look-into-watermarking-for-ai-generated-content (análisis técnico de SynthID)
- https://fyx.me/articles/attempting-model-extraction-of-google-deepmind-synthid-image-watermark-detector-and-exploring-adversarial-machine-learning-attacks-against-synthid/ (ataques adversariales a SynthID, febrero 2026)
- https://arxiv.org/html/2510.09263v1 (paper oficial SynthID-Image, DeepMind, octubre 2025)
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad














