Memories AI Colabora con Nvidia para Revolucionar la Memoria Visual en IA
En un movimiento estratégico, Memories.ai ha anunciado una colaboración con el gigante de semiconductores Nvidia durante la conferencia GTC de este lunes. Esta alianza busca desarrollar la infraestructura necesaria para que wearables y robots puedan recordar y recuperar memorias visuales, un paso crucial para la inteligencia artificial en el mundo físico.

El Origen de la Idea: De los Lentes de Meta a la Memoria Visual
Shawn Shen (cofundador y CEO) y Ben Zhou (cofundador y CTO) concibieron la empresa mientras construían el sistema de IA detrás de los lentes Ray-Ban de Meta. Se dieron cuenta de que, para que los usuarios aprovecharan la tecnología, necesitaban poder recordar los datos visuales grabados.
Al no encontrar soluciones existentes, decidieron salir de Meta y fundar Memories.ai en 2024. Shen cree que “la IA ya lo está haciendo muy bien en el mundo digital. ¿Qué pasa con el mundo físico? Los wearables y robots de IA también necesitan memorias. Finalmente, necesitas que la IA tenga memorias visuales. Creemos en ese futuro.”
Herramientas de Nvidia: Cosmos-Reason 2 y Metropolis
La colaboración utiliza Cosmos-Reason 2, un modelo de lenguaje de visión razonada, y Nvidia Metropolis, una aplicación para búsqueda y resumen de video. Estas herramientas permiten a Memories.ai avanzar en su tecnología de memoria visual, que se basa en un diseño modular para indexar y recuperar videos de manera eficiente.
Memoria Visual vs. Memoria de Texto: Un Desafío Único
Shen señala que los avances recientes en memoria de IA, como los de OpenAI ChatGPT, xAI de Elon Musk y Google Gemini, se han centrado en texto. La memoria basada en texto es más estructurada y fácil de indexar, pero no es suficiente para aplicaciones físicas que interactúan principalmente a través de la vista.
Financiamiento y Desarrollo Tecnológico
Memories.ai ha recaudado $16 millones hasta ahora, incluyendo una ronda semilla de $8 millones en julio de 2025 y una extensión de $8 millones. La ronda fue liderada por Susa Ventures y contó con Seedcamp, Fusion Fund y Crane Venture Partners, entre otros.
La empresa lanzó su Large Visual Memory Model (LVMM) en julio de 2025, comparable a una versión más pequeña de Gemini Embedding 2. Para entrenar el modelo, crearon LUCI, un dispositivo hardware usado por “colectores de datos” para grabar video. Shen aclara que no planean vender hardware, sino que construyeron LUCI por insatisfacción con grabadoras comerciales.
Partnership con Qualcomm y Futuro Comercial
Recientemente, Memories.ai lanzó la segunda generación de LVMM y firmó un partnership con Qualcomm para ejecutarse en sus procesadores a partir de finales de este año. Shen menciona que ya trabajan con grandes compañías de wearables, pero no revela nombres.
El enfoque comercial está en el modelo y la infraestructura, anticipando que el mercado de wearables y robótica despegará en el futuro. “En términos de comercialización, nos centramos más en el modelo y la infraestructura, porque creemos que el mercado de wearables y robótica llegará, pero probablemente no ahora,” dijo Shen.

Conclusión: Un Paso Hacia la IA con Memoria Visual
La colaboración entre Memories.ai y Nvidia marca un hito en la búsqueda de IA con memoria visual, esencial para wearables y robots. Con un sólido respaldo financiero y alianzas clave, la empresa está construyendo los cimientos para un futuro donde la IA pueda recordar lo que ve.