Google SIMA 2: Revolución en Agentes IA con Gemini para Mundos Virtuales

Google DeepMind Presenta SIMA 2: Un Agente IA que Razona y Aprende como Humano

Google DeepMind ha compartido una vista previa de investigación de SIMA 2, la siguiente generación de su agente de inteligencia artificial generalista que integra los poderes de lenguaje y razonamiento de Gemini, el modelo de lenguaje grande de Google, para ir más allá de seguir instrucciones simples y comprender e interactuar con su entorno.

Diagrama de interfaces para agentes de IA y marcos agenciales
Interfaces de computación para agentes de IA, mostrando memoria y planificación de tareas.

Mejoras Significativas sobre SIMA 1

La primera versión de SIMA, anunciada en marzo de 2024, fue entrenada con cientos de horas de datos de videojuegos para aprender a jugar múltiples juegos en 3D como un humano, incluso algunos en los que no fue entrenada. Sin embargo, SIMA 1 solo tenía una tasa de éxito del 31% para completar tareas complejas, en comparación con el 71% de los humanos.

Joe Marino, científico investigador senior de DeepMind, destacó en una sesión informativa:

«SIMA 2 es un cambio radical y una mejora en capacidades sobre SIMA 1. Es un agente más general. Puede completar tareas complejas en entornos nunca vistos. Y es un agente que se auto-mejora, lo que es un paso hacia robots más generales y sistemas de AGI en general.»

Integración con Gemini y Razonamiento Avanzado

SIMA 2 está impulsado por el modelo Gemini 2.5 flash-lite, lo que le permite duplicar el rendimiento de su predecesor. AGI se refiere a inteligencia artificial general, que DeepMind define como un sistema capaz de una amplia gama de tareas intelectuales con habilidad para aprender nuevas habilidades y generalizar conocimiento.

Jane Wang, científica investigadora senior de DeepMind con experiencia en neurociencia, explicó: «Le pedimos que comprenda lo que está sucediendo, entienda lo que el usuario le pide que haga, y luego responda de manera sensata, lo cual es bastante difícil.»

Esquema de interacción entre agente IA y base de datos
Proceso de interacción de agente IA con sistemas de datos, mostrando razonamiento y generación de respuestas.

Ejemplos Prácticos en Mundos Virtuales

  • En «No Man’s Sky»: SIMA 2 describió su entorno —una superficie planetaria rocosa— y determinó sus próximos pasos al reconocer e interactuar con una baliza de distress.
  • Razonamiento con Gemini: Cuando se le pidió caminar hacia la casa del color de un tomate maduro, el agente razonó internamente —los tomates maduros son rojos, por lo tanto debo ir a la casa roja— y luego la encontró y se acercó.
  • Instrucciones con emojis: Al usar emojis, como instructirlo 🌲, el agente taló un árbol, demostrando versatilidad en la comprensión.

Auto-Mejora sin Intervención Humana

Donde SIMA 1 fue entrenado completamente con gameplay humano, SIMA 2 lo usa como base para proporcionar un modelo inicial fuerte. Marino agregó que el equipo coloca al agente en un nuevo entorno, pide a otro modelo Gemini que cree nuevas tareas y un modelo de recompensa separado para puntuar los intentos del agente. Usando estas experiencias auto-generadas como datos de entrenamiento, el agente aprende de sus errores y mejora gradualmente, enseñándose a sí mismo nuevos comportamientos mediante prueba y error, guiado por retroalimentación basada en IA en lugar de humanos.

Hacia Robots de Propósito General

DeepMind ve a SIMA 2 como un paso hacia el desbloqueo de robots más generales. Frederic Besse, ingeniero senior de personal de DeepMind, comentó:

«Si pensamos en lo que un sistema necesita hacer para realizar tareas en el mundo real, como un robot, creo que hay dos componentes: primero, una comprensión de alto nivel del mundo real y lo que debe hacerse, así como cierto razonamiento.»

Por ejemplo, si se le pide a un robot humanoide en una casa que verifique cuántas latas de frijoles hay en la alacena, el sistema debe entender conceptos como qué son los frijoles y qué es una alacena, y navegar a esa ubicación. Besse señaló que SIMA 2 se centra más en ese comportamiento de alto nivel que en acciones de nivel inferior, como controlar articulaciones físicas o ruedas.

El equipo no compartió un cronograma específico para implementar SIMA 2 en sistemas de robótica física, pero el objetivo es mostrar al mundo el trabajo de DeepMind y explorar posibles colaboraciones y usos.

Comparte este artículo

Otras notas de tu interés:

Economia

Crisis energética en Silicon Valley y Lake Tahoe: el impacto de los centros de datos y la IA

Economia

OpenAI y Plaid unen fuerzas: finanzas personales con inteligencia artificial para suscriptores Pro

Tecnologia

Cómo desactivar la función Instants de Instagram y retractar fotos accidentales

Economia

Runway AI: Cómo la Generación de Video Está Superando a Google en Modelos del Mundo

Negocios

Runway apuesta por los modelos mundiales: de la generación de video a la inteligencia que comprende el mundo

Economia

Revelan un innovador plan para enfriar la Tierra: la energía geotérmica como protagonista

Negocios

Osaurus: El software de IA que unifica modelos locales y en la nube para Mac

Negocios

Elon Musk contra OpenAI y Sam Altman: el juicio que podría redefinir el futuro de la inteligencia artificial

Negocios

SpaceXAI pierde a más de 50 talentos: la fuga de cerebros que sacude a la compañía de Elon Musk

Tecnologia

OpenAI Codex llega a dispositivos móviles: integración en iOS y Android