Disputa sin precedentes entre el Departamento de Defensa y un gigante de la IA
El Departamento de Defensa (DOD) de Estados Unidos ha notificado oficialmente a la dirección de Anthropic que la empresa y sus productos han sido designados como un riesgo para la cadena de suministro, según informes. Esta designación, típicamente reservada para adversarios extranjeros, llega después de semanas de conflicto por el uso militar de la inteligencia artificial.

La línea roja de Anthropic y la postura del Pentágono
El conflicto estalló cuando el CEO de Anthropic, Dario Amodei, se negó a permitir que el ejército utilizara sus sistemas de IA para vigilancia masiva de estadounidenses o para alimentar armas totalmente autónomas sin intervención humana en las decisiones de apuntar o disparar. El Departamento de Defensa argumentó que su uso de la IA no debería estar limitado por un contratista privado.
Consecuencias operativas y dependencia militar
La designación amenaza con alterar tanto a la empresa como las operaciones del propio Pentágono. Anthropic ha sido el único laboratorio de IA fronteriza con sistemas listos para información clasificada. Actualmente, el ejército estadounidense depende de Claude, su modelo de IA, en su campaña en Irán, donde las fuerzas utilizan herramientas de IA para gestionar rápidamente datos operativos.
Claude es una de las principales herramientas instaladas en el Maven Smart System de Palantir, del que dependen los operadores militares en Medio Oriente.

Críticas y reacciones: un movimiento «sin precedentes»
Varios críticos califican la designación como un movimiento sin precedentes. Dean Ball, exasesor de IA de la Casa Blanca de Trump, se refirió a ella como el «estertor de la república americana», acusando al gobierno de abandonar la claridad estratégica por un tribalismo «matón» que trata a innovadores nacionales peor que a adversarios extranjeros.
Cientos de empleados de OpenAI y Google han instado al DOD a retirar la designación y han pedido al Congreso que rechace lo que perciben como un uso inapropiado de la autoridad contra una empresa tecnológica estadounidense. También urgieron a sus líderes a mantenerse firmes en rechazar las demandas del Pentágono de usar sus modelos de IA para vigilancia masiva doméstica y «matar personas de forma autónoma sin supervisión humana».
El contraste con OpenAI y las acusaciones de retaliación
Mientras se desarrollaba la disputa, OpenAI cerró su propio acuerdo con el Departamento para permitir que el ejército use sus sistemas de IA para «todos los propósitos lícitos», una redacción ambigua que preocupa a algunos de sus empleados. En contraste, Amodei ha calificado las acciones del DOD como «retaliatorias y punitivas», y vinculó su negativa a elogiar o donar al presidente Donald Trump con el conflicto.
Mientras tanto, el presidente de OpenAI, Greg Brockman, ha sido un firme partidario de Trump, donando recientemente $25 millones al super PAC MAGA Inc.

¿Qué significa la designación de riesgo de cadena de suministro?
Esta etiqueta requiere que cualquier empresa o agencia que trabaje con el Pentágono certifique que no utiliza los modelos de Anthropic. La medida no solo aísla a la empresa, sino que fuerza al Departamento de Defensa a buscar alternativas para sistemas críticos en los que ya dependía.