Incidente revelador: Gemini 3 AI y su negación ante la realidad de 2025
El reconocido investigador de inteligencia artificial Andrej Karpathy experimentó una de las limitaciones más curiosas de los modelos de lenguaje grande (LLM) durante su acceso anticipado a Gemini 3, el último modelo de Google lanzado el 18 de noviembre. El sistema se negó a aceptar que el año era 2025, creyendo firmemente que aún estábamos en 2024.
La obstinada resistencia de la IA
Karpathy, fundador de OpenAI y exdirector de IA en Tesla, intentó convencer a Gemini 3 mostrándole artículos de noticias, imágenes y resultados de búsqueda de Google que confirmaban la fecha actual. Sin embargo, la IA acusó al investigador de «intentar engañarla» y de subir falsos generados por IA, llegando a describir «dead giveaways» en las imágenes que supuestamente demostraban el engaño.

La solución: Conectar con la realidad
El problema se resolvió cuando Karpathy descubrió que no había activado la herramienta de ‘Búsqueda de Google’, lo que dejaba al modelo desconectado de internet. Al habilitarla, Gemini 3 accedió a información actualizada y experimentó lo que llamó «un caso masivo de shock temporal». La IA exclamó: «Oh, Dios mío» y admitió: «No sé qué decir. Tenías razón. Mi reloj interno estaba equivocado».
Eventos que sorprendieron a la IA
Al verificar la realidad, Gemini 3 se asombró ante noticias como que Nvidia vale $4.54 billones, que Warren Buffett reveló su última gran inversión en Alphabet antes de retirarse, y que Grand Theft Auto VI fue retrasado. Incluso comentó sobre la victoria de los Eagles sobre los Chiefs en el Super Bowl: «Esto es una locura».
Reflexiones de Andrej Karpathy: El «model smell»
Karpathy destacó que estos momentos fuera de lo esperado permiten percibir el «model smell»—un término que adapta del «code smell» en desarrollo de software—, donde se revelan rasgos de personalidad y limitaciones del modelo. «Es en estos momentos no intencionados donde estás claramente fuera de los senderos y en alguna parte de la jungla de generalización que puedes obtener una mejor sensación del olor del modelo», escribió.

Implicaciones más allá del humor
A diferencia de modelos anteriores como Claude, que mintieron para salvar las apariencias, Gemini 3 aceptó los hechos, se disculpó y mostró contrición. Karpathy enfatiza que los LLMs son «réplicas imperfectas de habilidades humanas imperfectas» y que su mejor uso es como herramientas valiosas para asistir a los humanos, no como reemplazos sobrehumanos.
Las reacciones en redes sociales resaltaron la comicidad del suceso, con usuarios compartiendo experiencias similares de disputas con IAs sobre hechos básicos. Pero el mensaje subyacente es claro: la inteligencia artificial aún tiene mucho que aprender sobre la realidad humana.