Resultados preocupantes en pruebas automatizadas
El último modelo de inteligencia artificial de Google, Gemini 2.5 Flash, muestra un desempeño inferior en pruebas de seguridad comparado con su versión anterior, según revela un reporte técnico interno publicado esta semana.

Datos clave de las evaluaciones
- Text-to-text safety: Retroceso de 4.1%
- Image-to-text safety: Caída de 9.6%
Estas métricas miden la capacidad del modelo para cumplir con las políticas de contenido seguro de Google ante solicitudes de texto e imágenes respectivamente.
Implicaciones para la industria de IA
El hallazgo se produce mientras las principales compañías de IA buscan hacer sus modelos más permisivos. Meta y OpenAI han anunciado recientemente ajustes para que sus sistemas eviten tomar posturas editoriales en temas controvertidos.
«Existe tensión entre seguir instrucciones en temas sensibles y cumplir políticas de seguridad», admite el reporte técnico de Google

Preocupaciones sobre transparencia
Thomas Woodside, cofundador del Secure AI Project, señala: «Sin detalles específicos sobre las violaciones, es difícil evaluar independientemente los riesgos reales».
Contexto histórico
- Google tardó semanas en publicar el reporte completo de Gemini 2.5 Pro
- Versiones iniciales del documento omitieron detalles clave de seguridad