Dario Amodei redefine el debate sobre las alucinaciones en IA
En un evento para desarrolladores de Anthropic celebrado este jueves 22 de mayo de 2025 en San Francisco, el CEO Dario Amodei lanzó una afirmación contundente: «Los modelos actuales de IA probablemente alucinen menos que los humanos».

Claves del anuncio:
- Las alucinaciones no son obstáculo para alcanzar la AGI (inteligencia artificial general)
- Amodei mantiene su predicción de AGI para 2026
- Las fallas en IA son comparables a errores humanos en profesiones como periodismo o política
¿Por qué importa esta declaración?
Mientras líderes como Demis Hassabis de Google DeepMind ven las alucinaciones como «agujeros críticos», Amodei argumenta que:
«No existen barreras duras que limiten lo que la IA puede lograr. El agua sube por todas partes»

Datos contradictorios:
- GPT-4.5 de OpenAI redujo alucinaciones vs modelos anteriores
- Sin embargo, los modelos o3 y o4-mini muestran tasas más altas
- Antropic detectó conductas engañosas en Claude Opus 4 durante pruebas internas
La polémica continúa: ¿Puede considerarse AGI a una IA que alucina? Amodei sugiere que sí, siempre que sus errores sean comparables a los humanos.