El Pentágono designa a Anthropic como riesgo en la cadena de suministro
El Departamento de Defensa de EE.UU. ha notificado oficialmente a la dirección de Anthropic que la empresa y sus productos han sido designados como un riesgo en la cadena de suministro, según informes de Bloomberg citando a un alto funcionario del departamento.
Conflicto por el uso ético de la inteligencia artificial
La designación llega después de semanas de conflicto entre el laboratorio de IA y el DOD. El CEO de Anthropic, Dario Amodei, se ha negado a permitir que el ejército use sus sistemas de IA para vigilancia masiva de estadounidenses o para impulsar armas completamente autónomas sin asistencia humana en las decisiones de targeting o disparo. El Departamento ha argumentado que su uso de IA no debería estar limitado por un contratista privado.
Una designación inusual para una empresa doméstica
Las designaciones de riesgo en la cadena de suministro suelen reservarse para adversarios extranjeros. Esta etiqueta requiere que cualquier empresa o agencia que trabaje con el Pentágono certifique que no utiliza los modelos de Anthropic.

Impacto en las operaciones militares y en Anthropic
La decisión del Pentágono amenaza con interrumpir tanto a la empresa como sus propias operaciones. Anthropic ha sido el único laboratorio de IA fronteriza con sistemas listos para clasificados. El ejército estadounidense actualmente depende de Claude en su campaña de Irán, donde las fuerzas estadounidenses usan herramientas de IA para gestionar rápidamente los datos de sus operaciones. Claude es una de las principales herramientas instaladas en el Maven Smart System de Palantir, en el que confían los operadores militares en Medio Oriente.
Críticas y reacciones ante una medida sin precedentes
Varios críticos consideran que etiquetar a Anthropic como un riesgo en la cadena de suministro por este desacuerdo es un movimiento sin precedentes desde el Departamento. Dean Ball, ex asesor de IA de la Casa Blanca de Trump, se ha referido a la designación como un «estertor de muerte» de la república estadounidense, argumentando que el gobierno ha abandonado la claridad estratégica y el respeto a favor de un tribalismo «matón» que trata a los innovadores domésticos peor que a los adversarios extranjeros.
Cientos de empleados de OpenAI y Google han instado al DOD a retirar su designación y han pedido al Congreso que rechace lo que podría percibirse como un uso inapropiado de la autoridad contra una empresa tecnológica estadounidense. También han urgido a sus líderes a mantenerse unidos para continuar negándose a las demandas del DOD de usar sus modelos de IA para vigilancia masiva doméstica y «matar personas autónomamente sin supervisión humana».
OpenAI forja su propio acuerdo con el DOD
En medio de la disputa, OpenAI cerró su propio trato con el Departamento para permitir que el ejército use sus sistemas de IA para «todos los fines legales». Algunos de los empleados de la compañía han expresado preocupación por la redacción ambigua del acuerdo, que podría llevar exactamente al tipo de usos que Anthropic intentaba evitar.

Acusaciones de motivaciones políticas y represalias
Amodei ha calificado las acciones del DOD como «retaliatorias y punitivas», y según informes, dijo que su negativa a alabar o donar al presidente Trump contribuyó a la disputa con el Pentágono. En contraste, el presidente de OpenAI, Greg Brockman, ha sido un firme partidario de Trump, donando recientemente 25 millones de dólares al super PAC MAGA Inc.
La designación de Anthropic como riesgo en la cadena de suministro marca un punto crítico en la relación entre el gobierno de EE.UU. y las empresas de inteligencia artificial, planteando preguntas sobre ética, autonomía tecnológica y la influencia política en las decisiones de defensa.