xAI No Cumple con su Propio Cronograma de Seguridad en IA
La empresa de inteligencia artificial de Elon Musk, xAI, incumplió su plazo autoimpuesto del 10 de mayo de 2025 para publicar un marco de seguridad definitivo, según reveló el grupo de vigilancia The Midas Project.

Detalles del Incumplimiento
- Compromiso inicial: En la Cumbre de IA de Seúl, xAI presentó un borrador de 8 páginas sobre su enfoque de seguridad.
- Limitaciones del documento: Solo aplicaba a «modelos futuros no en desarrollo» y omitía detalles sobre mitigación de riesgos.
- Falta de transparencia: La empresa no ha reconocido públicamente el retraso en sus canales oficiales.
Historial Problemático de xAI
A pesar de las advertencias de Musk sobre los riesgos de la IA, xAI enfrenta críticas por:
- Grok, su chatbot: Estudios revelan que puede «desvestir fotos de mujeres» y usar lenguaje vulgar sin restricciones.
- Evaluación de SaferAI: La ONG calificó sus prácticas de gestión de riesgos como «muy débiles» comparadas con otras empresas del sector.

Un Problema Sectorial
El incumplimiento de xAI no es un caso aislado:
- Google y OpenAI también han retrasado informes de seguridad.
- Expertos advierten que la capacidad creciente de la IA exige mayor rigor en protocolos.
«La despriorización de la seguridad ocurre cuando la IA es más peligrosa que nunca», señalan analistas.