Enfrentamiento por el Futuro de la IA Militar
Las últimas dos semanas han estado definidas por un choque entre Dario Amodei, CEO de Anthropic, y el secretario de Defensa, Pete Hegseth, en una batalla por el uso militar de la inteligencia artificial.
Postura de Anthropic: Líneas Rojas Innegociables
Anthropic se niega a permitir que sus modelos de IA se utilicen para vigilancia masiva de estadounidenses o para armas totalmente autónomas que realicen ataques sin intervención humana. La empresa argumenta que la tecnología de IA plantea riesgos únicos y requiere salvaguardias únicas.
La Demanda del Pentágono: Uso Legal Sin Restricciones
Por otro lado, el secretario Hegseth ha argumentado que el Departamento de Defensa no debería estar limitado por las reglas de un proveedor, insistiendo en que cualquier uso «legal» de la tecnología debería ser permitido. Sean Parnell, portavoz principal del Pentágono, afirmó en un post de X el jueves que el departamento no tiene interés en realizar vigilancia doméstica masiva o desplegar armas autónomas, pero pidió que se les permita usar el modelo de Anthropic para todos los fines legales.

Plazo Crítico: 5:01 p.m. ET del Viernes
Parnell añadió que Anthropic tiene hasta las 5:01 p.m. ET del viernes 27 de febrero de 2026 para decidir. De lo contrario, el Pentágono terminará su asociación con Anthropic y la considerará un riesgo para la cadena de suministro del Departamento de Defensa.
Amenazas y Posibles Consecuencias
El Pentágono ha amenazado con declarar a Anthropic un «riesgo de cadena de suministro» —lo que efectivamente la incluiría en una lista negra para negocios con el gobierno— o invocar la Ley de Producción de Defensa (DPA) para forzar a la empresa a adaptar su modelo a las necesidades militares.
Implicaciones de Seguridad Nacional
Sachin Seth, capitalista de riesgo en Trousdale Ventures, señala que una etiqueta de riesgo de cadena de suministro para Anthropic podría significar el fin de la empresa. Sin embargo, si Anthropic es excluida del Departamento de Defensa, podría convertirse en un problema de seguridad nacional, ya que el departamento tendría que esperar seis a doce meses para que OpenAI o xAI alcancen el nivel de Anthropic.
«[El Departamento] tendría que esperar seis a 12 meses para que OpenAI o xAI alcancen el nivel. Eso deja una ventana de hasta un año donde podrían estar trabajando no con el mejor modelo, sino con el segundo o tercer mejor», dijo Seth.
Contexto Cultural: La Crítica a la «IA Woke»
Las preocupaciones de Hegseth sobre Anthropic a veces han parecido conectadas con un descontento cultural. En un discurso en las oficinas de SpaceX y xAI en enero, Hegseth arremetió contra la «IA woke», diciendo: «La IA del Departamento de Guerra no será woke. Estamos construyendo armas y sistemas listos para la guerra, no chatbots para una sala de profesores de la Ivy League».
¿Quién Controla la IA Poderosa?
En esencia, esta lucha se trata de quién controla los sistemas de IA poderosos: las empresas que los construyen o el gobierno que quiere desplegarlos. Con el plazo acercándose, está por verse si el Pentágono cumplirá su amenaza o si se llegará a un acuerdo.
El resultado de este conflicto podría definir el futuro de la ética en la inteligencia artificial y su aplicación en ámbitos militares.