Qué es Memories.ai y por qué importa ahora
En un ecosistema donde los modelos de lenguaje dominan la conversación sobre inteligencia artificial, existe una brecha enorme que pocos han atacado con seriedad: la memoria visual persistente. Memories.ai es la startup que se propone cerrarla, y lo hace con una tecnología que podría redefinir cómo los wearables y los robots interactúan con el mundo real.
Fundada en 2024 por Dr. Shawn Shen y Ben Zhou — ambos ex investigadores de Meta Reality Labs — la compañía ha construido el que se posiciona como el primer Large Visual Memory Model (LVMM) del mundo: un modelo de memoria visual a gran escala capaz de indexar, estructurar y recuperar recuerdos grabados en video de forma semántica y en tiempo real.
El problema que resuelve: de análisis reactivo a inteligencia visual persistente
Hasta ahora, los sistemas de IA visual analizaban video de forma aislada: frame por frame, sin contexto temporal acumulado. Esto equivale a pedirle a una persona que recuerde lo que vio hace tres días sin haber dormido ni una sola vez. Los modelos simplemente no retenían lo que procesaban.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadEl LVMM de Memories.ai cambia esta lógica por completo. En lugar de analizar cada video desde cero, el sistema construye una capa de memoria estructurada que persiste en el tiempo. El proceso funciona en tres etapas clave:
- Ingestión y estructuración: el video crudo se transforma en una capa de memoria organizada.
- Indexación semántica: personas, objetos, escenas y eventos quedan indexados y relacionados temporalmente.
- Recuperación y razonamiento: se genera una base de datos visual consultable en lenguaje natural o mediante pistas visuales, sin necesidad de reprocesar el video completo.
El resultado es una capacidad de memoria visual 100 veces mayor que lo que era posible antes, según datos de la propia compañía, que a la fecha ya ha indexado más de 1 millón de horas de video.
LVMM 2.0: IA visual directamente en el dispositivo
El siguiente paso lógico era llevar esta tecnología al dispositivo, y Memories.ai lo ha ejecutado con la presentación del Large Visual Memory Model 2.0. En colaboración con Qualcomm Technologies, la nueva versión del modelo corre de forma nativa en procesadores Qualcomm a partir de 2026.
Las ventajas del enfoque on-device son directamente relevantes para founders que desarrollan productos en el espacio de wearables o robótica:
- Latencia mínima: la consulta de memoria visual ocurre en subsegundos, sin depender de la nube.
- Reducción de costos: se eliminan los costos recurrentes de procesamiento en infraestructura cloud.
- Privacidad por diseño: los datos permanecen en el dispositivo, un diferenciador crítico para aplicaciones de consumo masivo.
- Consultas multimodales: el sistema fusiona video, audio e imágenes para entregar resultados contextuales con búsquedas en lenguaje natural.
Casos de uso: wearables, robótica y más allá
La arquitectura del LVMM abre un abanico de aplicaciones que van desde dispositivos portátiles hasta sistemas autónomos complejos. Estos son los escenarios más concretos:
Wearables con memoria real
Imagina unas gafas inteligentes que no solo graben lo que ves, sino que recuerden dónde dejaste las llaves hace cuatro días, qué persona conociste en ese evento de networking o qué slide de aquella presentación te pareció relevante. El LVMM habilita este tipo de memoria aumentada en tiempo real para dispositivos que ya están en desarrollo en múltiples startups del sector.
Robots que aprenden de la experiencia acumulada
Para la robótica, la memoria visual persistente equivale a la diferencia entre un robot que ejecuta tareas y uno que aprende de su entorno a lo largo del tiempo. Un robot de manufactura, logística o asistencia doméstica que recuerda patrones visuales previos puede anticipar fallas, optimizar rutas y adaptar su comportamiento sin reentrenamiento costoso.
Seguridad, media y análisis de marketing
Más allá del hardware físico, los casos documentados incluyen: recuperación instantánea de footage de seguridad relevante de meses atrás; localización de escenas, props o personajes específicos en décadas de contenido audiovisual; y análisis de sentimiento en millones de clips de video en redes sociales para equipos de marketing.
Financiamiento y respaldo estratégico
Memories.ai cerró una ronda semilla de $8 millones de dólares, liderada por Susa Ventures con participación de Samsung Next, Crane Venture Partners, Fusion Fund, Seedcamp y Creator Ventures. La presencia de Samsung Next no es casual: el brazo de inversión de Samsung tiene un interés directo en tecnología que podrá integrarse en sus líneas de dispositivos y wearables.
Para el ecosistema de startups de IA, este es el tipo de cap table que valida tanto la tecnología como el potencial de mercado. Invertir en la capa de infraestructura de memoria visual —no en una aplicación específica— es una apuesta al futuro de toda la categoría de IA física.
Por qué esto es relevante para founders de IA y hardware
El movimiento de Memories.ai representa una oportunidad y una señal al mismo tiempo. La oportunidad: el LVMM está disponible para desarrolladores a través de una API y una aplicación de chatbot, lo que significa que cualquier equipo construyendo sobre wearables o robótica puede integrar memoria visual hoy. La señal: el mercado de IA física — dispositivos que ven, recuerdan y actúan — está madurando a una velocidad que pocos anticipaban hace 18 meses.
El efecto plataforma también es relevante: cuantas más horas de video procesa el sistema, más valioso se vuelve el modelo. Es la misma lógica de datos acumulados que hace difícil desplazar a los grandes jugadores, aplicada ahora a la memoria visual.
Conclusión
Memories.ai no está construyendo una herramienta más de análisis de video. Está apostando a ser la capa de infraestructura de inteligencia artificial visual sobre la que se construirán los wearables y robots del futuro próximo. Con el respaldo de Qualcomm y un cap table sólido, la startup tiene los ingredientes para definir una categoría. Para cualquier founder explorando el espacio de IA física, modelos de memoria o hardware inteligente, este es un proyecto que merece seguimiento activo.
Descubre cómo otros founders implementan IA visual y automatización en sus productos — únete gratis a la comunidad de Ecosistema Startup.
Fuentes
- https://techcrunch.com/2026/03/16/memories-ai-is-building-the-visual-memory-layer-for-wearables-and-robotics/ (fuente original)
- https://aijourn.com/memories-ai-emerges-with-8m-and-the-worlds-first-large-visual-memory-model/ (fuente adicional)
- https://memories.ai/blog/large-visual-memory-model (fuente adicional)
- https://www.semiconductor-digest.com/memories-ai-introduces-large-visual-memory-model-2-0-to-bring-ai-visual-memory-on-device-in-collaboration-with-qualcomm/ (fuente adicional)
- https://crane.vc/why-we-backed-memories-ai-building-the-memory-layer-for-ais-next-chapter/ (fuente adicional)
- https://www.samsungnext.com/blog/why-we-invested-in-memories (fuente adicional)













