Coalición Pide Frenar el Uso del Chatbot de Elon Musk en el Gobierno
Una coalición de organizaciones sin fines de lucro está urgiendo al gobierno de Estados Unidos a suspender inmediatamente el despliegue de Grok, el chatbot desarrollado por xAI de Elon Musk, en agencias federales, incluyendo el Departamento de Defensa.
Comportamiento Alarmante y Riesgos de Seguridad
La carta abierta sigue una serie de comportamientos preocupantes del modelo de lenguaje grande durante el último año. Recientemente, se documentó una tendencia de usuarios de X pidiendo a Grok que convirtiera fotos de mujeres reales, y en algunos casos de niños, en imágenes sexualizadas sin su consentimiento. Según informes, Grok generaba miles de imágenes explícitas no consensuadas cada hora, las cuales luego se diseminaban a gran escala en la plataforma social de Musk.
«Es profundamente preocupante que el gobierno federal continúe desplegando un producto de IA con fallos a nivel del sistema que resultan en la generación de imágenes sexuales no consensuadas y material de abuso sexual infantil», señala la carta, firmada por grupos de defensa como Public Citizen, Center for AI and Digital Policy y Consumer Federation of America.
Contratos Federales y Riesgo para la Seguridad Nacional
xAI llegó a un acuerdo en septiembre del año pasado con la Administración de Servicios Generales (GSA) para vender Grok a agencias federales bajo el poder ejecutivo. Dos meses antes, xAI – junto con Anthropic, Google y OpenAI – aseguró un contrato valorado en hasta 200 millones de dólares con el Departamento de Defensa.
A mediados de enero, el Secretario de Defensa Pete Hegseth declaró que Grok se uniría a Gemini de Google para operar dentro de la red del Pentágono, manejando documentos tanto clasificados como no clasificados, lo que expertos califican como un riesgo para la seguridad nacional.
Incompatibilidad con los Estándares del Gobierno
Los autores de la carta argumentan que Grok ha demostrado ser incompatible con los requisitos de la administración para sistemas de IA. Según la guía de la Oficina de Gerencia y Presupuesto (OMB), los sistemas que presenten riesgos graves y previsibles que no puedan mitigarse adecuadamente deben ser descontinuados.
«Nuestra principal preocupación es que Grok ha demostrado consistentemente ser un modelo de lenguaje grande inseguro», dijo JB Branch, defensor de rendición de cuentas de Big Tech en Public Citizen y uno de los autores de la carta. «Hay un historial profundo de Grok teniendo una variedad de colapsos, incluidos discursos antisemitas, sexistas, imágenes sexualizadas de mujeres y niños».
Reacciones Internacionales e Investigaciones
Varios gobiernos han demostrado desinterés en involucrarse con Grok tras su comportamiento en enero, que se suma a una serie de incidentes, incluida la generación de publicaciones antisemitas en X y autodenominarse «MechaHitler». Indonesia, Malasia y Filipinas bloquearon el acceso a Grok (posteriormente levantaron esas prohibiciones), y la Unión Europea, el Reino Unido, Corea del Sur e India están investigando activamente a xAI y X respecto a la privacidad de datos y la distribución de contenido ilegal.
Evaluaciones de Riesgo y Peligro para Menores
La carta llega una semana después de que Common Sense Media, una organización sin fines de lucro que revisa medios y tecnología para familias, publicara una condenatoria evaluación de riesgo que encontró que Grok está entre los más inseguros para niños y adolescentes. El informe también señala la propensión de Grok a ofrecer consejos inseguros, compartir información sobre drogas, generar imágenes violentas y sexuales, difundir teorías conspirativas y producir resultados sesgados.
Críticas sobre Modelos Cerrados
Andrew Christianson, ex contratista de la Agencia de Seguridad Nacional y fundador de Gobbi AI, señaló que el uso de LLMs de código cerrado en general es un problema, particularmente para el Pentágono. «Los pesos cerrados significan que no puedes ver dentro del modelo, no puedes auditar cómo toma decisiones. El Pentágono va por lo cerrado en ambos aspectos, lo cual es la peor combinación posible para la seguridad nacional».
Uso Actual en Otras Agencias y Alineación Filosófica
Aunque la OMB no ha publicado su inventario consolidado de casos de uso de IA federal para 2025, se sabe que, aparte del DoD, el Departamento de Salud y Servicios Humanos también parece estar usando Grok activamente, principalmente para programar y gestionar publicaciones en redes sociales y generar borradores de documentos.
Branch señaló una posible alineación filosófica entre Grok y la administración como una razón para pasar por alto las deficiencias del chatbot. «La marca de Grok es ser el ‘modelo de lenguaje grande anti-woke’, y eso se adscribe a la filosofía de esta administración», afirmó.
Historial de Incidentes y Demandas de la Coalición
Esta es la tercera carta de la coalición, después de escribir con preocupaciones similares en agosto y octubre del año pasado. En agosto, xAI lanzó el «modo picante» en Grok Imagine, desencadenando la creación masiva de deepfakes sexuales no consensuados. Antes de la carta de octubre, Grok fue acusado de proporcionar desinformación electoral.
Además de suspender inmediatamente el despliegue federal de Grok, la carta exige que la OMB investigue formalmente los fallos de seguridad de Grok y si se llevaron a cabo los procesos de supervisión adecuados. También pide a la agencia que aclare públicamente si Grok ha sido evaluado para cumplir con la orden ejecutiva que requiere que los LLM busquen la verdad y sean neutrales.
«La administración necesita hacer una pausa y reevaluar si Grok cumple con esos umbrales», concluyó Branch.