Nuevas reglas para equilibrar innovación y seguridad
OpenAI actualizó su Marco de Preparación, el sistema interno que evalúa riesgos en modelos de inteligencia artificial, incluyendo una cláusula clave: podría «ajustar requisitos» si competidores lanzan sistemas de alto riesgo sin protecciones equivalentes.
Presión comercial vs. estándares éticos
- Contexto: 12 ex empleados respaldaron demandas contra OpenAI por supuesta reducción de protocolos de seguridad
- Controversia: Financial Times reportó pruebas de seguridad realizadas en versiones obsoletas de modelos
- Compromiso público: La empresa promete mantener salvaguardas «más protectoras que el estándar»
Cambios clave en la evaluación de riesgos
El nuevo marco introduce dos categorías críticas:
Umbral | Definición | Requisitos |
---|---|---|
Capacidad Alta | Amplificación de daños existentes | Protecciones pre-implementación |
Capacidad Crítica | Creación de nuevos riesgos | Controles durante desarrollo |
Automatización vs. supervisión humana
OpenAI reconoce mayor uso de evaluaciones automatizadas para acelerar ciclos de desarrollo, aunque mantiene pruebas con equipos humanos. Críticos señalan que algunos tests recientes se completaron en menos de una semana.
«Si un competidor lanza IA riesgosa sin controles, podríamos ajustar requisitos, pero solo tras rigurosa verificación»
– Declaración oficial en blog corporativo