El informe técnico de Google genera escepticismo entre expertos
Tras el lanzamiento de su modelo de IA Gemini 2.5 Pro, Google publicó este jueves un reporte técnico sobre sus evaluaciones de seguridad internas. Sin embargo, expertos señalan que el documento carece de detalles cruciales para determinar los riesgos reales del sistema.

Críticas a la metodología de Google
- Falta de claridad: El informe no menciona el Frontier Safety Framework, marco diseñado para identificar capacidades de IA peligrosas.
- Retrasos en reportes: La última evaluación pública de capacidades riesgosas data de junio 2024, para un modelo anunciado en febrero 2024.
- Ausencia de documentación: No hay reporte disponible para Gemini 2.5 Flash, modelo anunciado la semana pasada.
Comparativa con otras empresas de IA
Google no está solo en esta práctica:
- Meta publicó evaluaciones mínimas para sus modelos Llama 4
- OpenAI omitió completamente el reporte de seguridad para GPT-4.1

Compromisos incumplidos
En 2023, Google prometió a reguladores estadounidenses:
«Publicar informes de seguridad para todos los modelos públicos significativos»
Expertos como Kevin Bankston del Center for Democracy and Technology denuncian una «carrera hacia el abajo en seguridad de IA» entre las tecnológicas.
Reacciones de la comunidad técnica
- Peter Wildeford (Institute for AI Policy and Strategy):
«Es imposible verificar si Google cumple sus compromisos públicos» - Thomas Woodside (Secure AI Project):
«Las actualizaciones deben incluir modelos no desplegados públicamente que podrían ser riesgosos»