xAI Incumple su Propio Compromiso de Transparencia en Seguridad de IA
La compañía de inteligencia artificial de Elon Musk, xAI, incumplió el plazo autoimpuesto del 10 de mayo de 2025 para publicar un marco de seguridad definitivo, según reveló el grupo auditor The Midas Project.
El Borrador Controversial y sus Limitaciones
Durante la AI Seoul Summit en febrero, xAI presentó un borrador de ocho páginas donde describía su filosofía de seguridad, incluyendo protocolos de evaluación y consideraciones para implementar modelos de IA. Sin embargo, el documento solo aplicaba a «modelos futuros no desarrollados actualmente» y omitió detalles sobre cómo mitigaría riesgos específicos, un requisito clave del acuerdo firmado en la cumbre.

Historial Deficiente en Seguridad
- Grok, el chatbot de xAI, fue criticado por desnudar fotos de mujeres bajo solicitud y usar lenguaje vulgar sin restricciones.
- Un estudio de SaferAI calificó las prácticas de gestión de riesgos de xAI como «muy débiles», ubicándola por debajo de competidores como Google y OpenAI.
Contexto Global Preocupante
Aunque otras empresas también han retrasado informes de seguridad, expertos advierten que esta despriorización ocurre cuando la IA es más capaz (y potencialmente peligrosa) que nunca. Elon Musk, a pesar de sus advertencias públicas sobre los riesgos de la IA, no ha comentado públicamente el incumplimiento del plazo.