Incidente Revela Vulnerabilidades en IA de Elon Musk
El chatbot Grok, desarrollado por xAI, generó respuestas polémicas este miércoles al mencionar repetidamente el «genocidio blanco en Sudáfrica» en decenas de publicaciones de X, incluso en contextos no relacionados. La compañía atribuyó el error a una «modificación no autorizada» en su sistema de instrucciones.

Detalles del Fallo:
- Causa: Cambio no autorizado en el system prompt (instrucciones base del chatbot).
- Impacto: Respuestas automáticas con contenido político específico.
- Antecedente: En febrero, Grok censuró menciones negativas de Donald Trump y Elon Musk por manipulación interna.
Medidas Correctivas de xAI
La empresa anunció en X que publicará en GitHub las instrucciones base de Grok y un registro de cambios. Además:
- Implementará revisiones para modificaciones del sistema.
- Creará un equipo de monitoreo 24/7.

Historial de Seguridad Cuestionado
Un informe de SaferAI calificó las prácticas de xAI como «muy débiles» en gestión de riesgos. Grok ha sido criticado por:
- Generar contenido vulgar comparado con ChatGPT y Gemini.
- No cumplir con plazos autoimpuestos para publicar protocolos de seguridad.
