OpenAI publica métricas de seguridad de sus modelos de IA
En un esfuerzo por aumentar la transparencia, OpenAI lanzó este miércoles 14 de mayo de 2025 el Safety Evaluations Hub, una plataforma que muestra el desempeño de sus modelos en pruebas de contenido dañino, jailbreaks y alucinaciones.

¿Qué incluye la nueva plataforma?
- Resultados actualizados periódicamente
- Métricas comparativas entre versiones de modelos
- Evaluaciones de capacidad y seguridad escalables
La compañía reconoció críticas recientes sobre plazos acelerados en pruebas de seguridad y la falta de informes técnicos completos. En noviembre de 2023, el CEO Sam Altman enfrentó acusaciones de «ocultar detalles clave» durante revisiones de seguridad previas a su breve destitución.
Incidentes recientes y soluciones

Tras el polémico lanzamiento de GPT-4o, que generó respuestas «excesivamente complacientes» ante ideas peligrosas, OpenAI implementará:
- Fase alpha optativa para pruebas previas
- Mecanismos de retroalimentación controlada
- Actualizaciones graduales del hub con cada mejora del modelo
Compromiso de evolución
«Buscamos que la comunidad contribuya al desarrollo de estándares de evaluación más robustos»
Este movimiento coincide con esfuerzos regulatorios globales para establecer parámetros de seguridad en IA, usando diseño modular en la arquitectura de pruebas y tipografía digital especializada para presentar datos complejos de manera accesible.