Una abuela, 108 días presa y un algoritmo equivocado
En marzo de 2026, el caso de Angela Lipps, abuela de Tennessee, sacudió el debate global sobre el uso de la inteligencia artificial en la justicia. La policía de Fargo, Dakota del Norte, la identificó como sospechosa de fraude bancario mediante un sistema de reconocimiento facial basado en IA. El problema: el software estaba equivocado. Lipps pasó 108 días en prisión, divididos entre Tennessee y Dakota del Norte, antes de poder demostrar su inocencia. Su historia no es un caso aislado; es el reflejo de una crisis sistémica en la forma en que las instituciones adoptan tecnología sin los controles adecuados.
Para los founders que construyen productos con IA o que evalúan integrar estas tecnologías en sus stacks, este caso ofrece lecciones críticas sobre responsabilidad, sesgo algorítmico y diseño ético desde el día uno.
Cómo falla el reconocimiento facial: los problemas técnicos detrás del error
El reconocimiento facial no es infalible, aunque muchas instituciones lo tratan como si lo fuera. Los sistemas actuales presentan errores estructurales bien documentados:
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad- Sesgos en los datos de entrenamiento: Los modelos están entrenados mayoritariamente con rostros de hombres blancos. Según pruebas del NIST (Instituto Nacional de Estándares y Tecnología de EE. UU.), las tasas de falsos positivos para personas de raza negra o asiática pueden ser hasta 100 veces más altas que para hombres blancos. Las mujeres enfrentan un error compuesto aún mayor.
- Imágenes de baja calidad como insumo: Fotografías granuladas de cámaras de vigilancia, documentos caducados o imágenes recortadas generan coincidencias erróneas que el sistema no puede distinguir con precisión.
- Sobredependencia sin verificación: El error más peligroso no es técnico sino humano: asumir que una coincidencia algorítmica es evidencia suficiente para detener a alguien, sin investigación adicional ni corroboración.
- Ausencia de umbrales de confianza estandarizados: No existe un estándar universal para definir qué nivel de similitud constituye una identificación válida, lo que deja espacio para interpretaciones arbitrarias.
No es el primer caso: el patrón de arrestos injustos por IA
La ACLU y el Innocence Project han documentado al menos siete arrestos injustos confirmados en Estados Unidos atribuibles a errores de sistemas de reconocimiento facial, seis de los cuales involucraron a personas negras. Estos son algunos de los más emblemáticos:
- Robert Williams (Detroit, 2020): Primer caso documentado en EE. UU. Fue arrestado por el robo de relojes de la marca Shinola gracias a una coincidencia falsa entre material de vigilancia granulado y su foto de licencia de conducir vencida. El caso fue desestimado tras demostrar su inocencia.
- Nijeer Parks (Nueva Jersey, 2019): La policía de Woodbridge usó reconocimiento facial sobre una foto recortada de una licencia falsa de Tennessee. Parks fue arrestado y detenido 10 días a pesar de contar con coartada y de que la evidencia no concordaba con su perfil físico.
- Porcha Woodruff (Detroit): Arrestada únicamente con base en una identificación facial errónea reforzada por una rueda de reconocimiento construida alrededor del falso resultado del algoritmo.
- Randal Quran Reid (Luisiana): Detenido durante casi una semana gracias a una coincidencia errónea de Clearview AI, a pesar de no haber visitado jamás el estado donde supuestamente cometió el delito.
En todos estos casos, el patrón es el mismo: el sistema arroja un candidato, los investigadores lo tratan como evidencia, y la presunción de inocencia queda en segundo plano.
El marco regulatorio: vacíos que cuestan libertades
En Estados Unidos no existe una ley federal que regule o limite el uso del reconocimiento facial en contextos policiales. El panorama es fragmentado y depende de regulaciones locales:
- El NYPD afirma tener normas internas que prohíben realizar arrestos basados exclusivamente en coincidencias de reconocimiento facial, exigiendo corroboración adicional. Sin embargo, organizaciones como la Legal Aid Society acusan a la institución de evadir estos controles de forma sistemática.
- Tras el caso de Robert Williams, el departamento de policía de Detroit alcanzó un acuerdo judicial que obliga a implementar salvaguardas: no se puede arrestar a nadie sin investigación complementaria, y todos los casos con reconocimiento facial desde 2017 deben ser auditados.
- Los contratos con proveedores como Clearview AI suelen incluir cláusulas que exigen verificar los resultados antes de actuar, cláusulas que en la práctica son ignoradas con frecuencia.
En América Latina, la regulación es aún más incipiente. Varios países están adoptando herramientas de vigilancia con IA sin marcos legales claros ni mecanismos de auditoría independiente.
Qué significa esto para founders que construyen con IA
Si estás desarrollando un producto que involucra reconocimiento facial, biometría, toma de decisiones automatizada o cualquier sistema que afecte los derechos o la libertad de personas, este caso tiene implicaciones directas para tu roadmap:
- Diseña para el error: Todo sistema de IA falla. Construye mecanismos de revisión humana obligatoria antes de que cualquier resultado algorítmico tenga consecuencias en la vida real de un usuario o ciudadano.
- Audita tus datos de entrenamiento: Los sesgos no se eliminan solos. Si tu modelo fue entrenado con datos no representativos, su comportamiento en producción reproducirá y amplificará esas desigualdades.
- Define umbrales de confianza explícitos: No dejes que el sistema decida cuándo una coincidencia es suficientemente buena. Establece criterios claros, documentados y revisados por expertos en ética y dominio.
- Responsabilidad desde el diseño (Responsible AI by design): La ética en IA no es un checkbox de compliance. Es una ventaja competitiva, especialmente en mercados regulados o en proceso de regulación.
- Documenta y comunica las limitaciones: Los clientes, socios e instituciones que adopten tu tecnología deben entender qué puede y qué no puede hacer el sistema. La opacidad genera los escenarios de sobredependencia que terminan en casos como el de Angela Lipps.
El costo humano del hype tecnológico sin supervisión
El caso de Angela Lipps es un recordatorio brutal de que la tecnología sin gobernanza puede destruir vidas. 108 días de libertad arrebatados por un falso positivo que ningún humano se molestó en cuestionar a tiempo. No hubo un sistema de alertas tempranas. No hubo un protocolo de revisión. No hubo responsabilidad clara sobre quién valida la salida del algoritmo antes de que se convierta en una orden de arresto.
El hype en torno a la IA es real, y gran parte de él está justificado. Pero la velocidad de adopción no puede superar la capacidad de entender los límites de estas herramientas. Las instituciones que usan IA sin comprenderla bien no solo cometen errores técnicos; cometen injusticias.
Como ecosistema de startups tecnológicas, tenemos la responsabilidad —y la oportunidad— de liderar con el ejemplo: construir tecnología poderosa que también sea justa, auditable y humana.
Conclusión
El reconocimiento facial puede ser una herramienta valiosa cuando se usa con rigor técnico, supervisión humana y marcos éticos sólidos. Sin esos elementos, como demuestra el caso de Angela Lipps, se convierte en un sistema de consecuencias irreversibles para personas inocentes. Para los founders del ecosistema tech, la lección es clara: construir con IA implica construir con responsabilidad. La ética no es opcional; es infraestructura.
Profundiza estos temas con nuestra comunidad de founders y expertos en IA etica y responsable.
Fuentes
- https://www.theguardian.com/us-news/2026/mar/12/tennessee-grandmother-ai-fraud (fuente original)
- https://boingboing.net/2026/03/12/grandmother-jailed-108-days-after-facial-recognition-got-it-wrong.html (fuente adicional)
- https://www.democraticunderground.com/10143631227 (fuente adicional)
- https://www.aclu.org/news/privacy-technology/police-say-a-simple-warning-will-prevent-face-recognition-wrongful-arrests-thats-just-not-true (ACLU – arrestos por reconocimiento facial)
- https://innocenceproject.org/news/artificial-intelligence-is-putting-innocent-people-at-risk-of-being-incarcerated/ (Innocence Project – IA y encarcelamiento injusto)
- https://quadrangle.michigan.law.umich.edu/issues/winter-2024-2025/flawed-facial-recognition-technology-leads-wrongful-arrest-and-historic (Michigan Law – tecnologia de reconocimiento facial y arresto injusto)
- https://www.aclu-nj.org/news/how-face-recognition-technology-landed-one-innocent-man-new-jersey-jail-ten-days/ (ACLU New Jersey – caso Nijeer Parks)













