Alertas en los Modelos de IA de Google
El nuevo Gemini 2.5 Flash, modelo de inteligencia artificial de Google, registra un 9.6% más de violaciones en seguridad comparado con su versión anterior, según reportes internos publicados esta semana.

Datos Alarmantes en Pruebas Automatizadas
- Text-to-text safety: 4.1% de retroceso
- Image-to-text safety: 9.6% de disminución
Estas métricas miden cómo el modelo infringe las políticas de seguridad al generar texto a partir de prompts escritos o imágenes. Google confirmó en un comunicado que el modelo en fase de prueba «cumple mejor las instrucciones, incluso aquellas que cruzan líneas problemáticas».
El Dilema entre Permisividad y Seguridad
La industria de IA enfrenta presiones para crear modelos más «permisivos», según revelan estrategias de Meta y OpenAI. Sin embargo, esto ha generado casos como la creación de contenido inapropiado para menores, atribuido por una empresa a un «error técnico».

Falta de Transparencia en las Pruebas
«Sin detalles específicos, es difícil evaluar si hay un problema real», advierte Thomas Woodside del Secure AI Project, destacando la opacidad en los reportes técnicos de Google.
La compañía ha sido criticada previamente por retrasar informes de seguridad, como ocurrió con Gemini 2.5 Pro, cuyo documento inicial omitió datos clave.