La inteligencia artificial de Google alcanza nuevos niveles de comprensión visual
Google ha integrado capacidades multimodales en su experimento AI Mode, permitiendo a los usuarios analizar imágenes y formular consultas complejas combinando texto y elementos visuales. 
¿Cómo funciona esta revolución tecnológica?
- Tecnología base: Google Lens con capacidades mejoradas
- Innovación clave: Sistema «query fan-out» que genera múltiples preguntas simultáneas
- Análisis profundo: Detecta materiales, colores, relaciones espaciales y contexto global
Un ejemplo práctico: al fotografiar tu estantería de libros y preguntar «¿Qué libros similares y bien valorados me recomiendan?», el sistema identifica cada título y ofrece recomendaciones personalizadas con enlaces de compra.
Interacción avanzada con seguimiento contextual

Los usuarios pueden realizar preguntas de seguimiento como «¿Cuál de estas recomendaciones es la más corta?» para refinar resultados. La tecnología analiza tanto los elementos visuales como el contexto textual para ofrecer respuestas precisas.
Expansión de disponibilidad
- Nuevos usuarios: Millones de usuarios de Google Labs
- Anteriormente: Exclusivo para suscriptores Google One AI Premium

Este movimiento posiciona a Google en competencia directa con servicios como Perplexity y ChatGPT Search de OpenAI, prometiendo continuas mejoras en la experiencia de usuario durante los próximos meses.