Google presenta Project Astra: el futuro multimodal de la inteligencia artificial
Durante el Google I/O 2025, la compañía reveló cómo Project Astra, su sistema de IA multimodal de baja latencia, impulsará nuevas funcionalidades en Google Search, la aplicación Gemini y productos de desarrolladores externos.

Search Live: interactúa con el mundo en tiempo real
El botón «Live» en el modo IA de Google Search permitirá:
- Analizar en directo lo que captura la cámara del smartphone
- Obtener respuestas instantáneas mediante procesamiento de vídeo y audio en streaming
- Integrar capacidades de Google Lens con análisis contextual avanzado
De DeepMind a tus gafas inteligentes
Desarrollado originalmente por Google DeepMind, el proyecto incluye:
- Colaboración con Samsung y Warby Parker para gafas inteligentes
- API Live actualizada para desarrolladores con:
- Entrada audiovisual multimodal
- Detección mejorada de emociones
- Capacidades de razonamiento de Gemini
Gemini para todos los usuarios
Las funciones premium de vídeo en tiempo real y uso compartido de pantalla llegarán a toda la base de usuarios de la aplicación Gemini, eliminando restricciones de suscripción.
«Project Astra representa un cambio paradigmático en cómo interactuamos con la información»
Aunque Google no ha revelado fechas exactas para el lanzamiento de las gafas inteligentes, el ecosistema alrededor de esta tecnología ya está transformando productos existentes mediante su diseño modular y tipografía digital adaptativa.