Designación de Anthropic como Riesgo en la Cadena de Suministro por el Pentágono
En un movimiento sin precedentes, el Pentágono ha designado a la empresa de inteligencia artificial Anthropic como un riesgo para la cadena de suministro de seguridad nacional. Esta decisión se produce tras una disputa pública entre la compañía y el Departamento de Defensa de los Estados Unidos.

Orden Presidencial y Reacción del Pentágono
El presidente Donald Trump ordenó mediante una publicación en Truth Social que todas las agencias federales cesen el uso de los productos de Anthropic. La orden permite un período de transición de seis meses, pero fue clara en su mensaje:
“No lo necesitamos, no lo queremos, y no haremos negocios con ellos nuevamente”,
escribió el mandatario.
Posteriormente, el secretario de Defensa, Pete Hegseth, hizo efectiva la amenaza al emitir una directiva formal.
“En conjunción con la directiva del Presidente para que el Gobierno Federal cese todo uso de la tecnología de Anthropic, estoy dirigiendo al Departamento de Guerra a designar a Anthropic como un Riesgo en la Cadena de Suministro para la Seguridad Nacional”,
declaró Hegseth. La medida prohíbe, efectiva inmediatamente, que cualquier contratista, proveedor o socio del ejército estadounidense realice actividad comercial con Anthropic.
El Núcleo de la Disputa: Ética vs. Capacidad Militar
La confrontación se centró en la negativa de Anthropic a permitir que sus modelos de IA sean utilizados para vigilancia masiva doméstica o armas totalmente autónomas. El secretario Hegseth consideró estas restricciones como excesivas e impedimentos para las operaciones militares.
El CEO de Anthropic, Dario Amodei, reiteró su postura inquebrantable en un comunicado público:
“Nuestra fuerte preferencia es continuar sirviendo al Departamento y a nuestros combatientes, con nuestras dos salvaguardas solicitadas en su lugar. Si el Departamento decide prescindir de Anthropic, trabajaremos para permitir una transición sin problemas a otro proveedor”.
Solidaridad en la Industria: OpenAI Respalda la Postura Ética
La decisión de Anthropic encontró un eco importante en su competidor directo. OpenAI salió públicamente en apoyo de la medida. Su CEO, Sam Altman, informó a su personal que comparte las mismas “líneas rojas” y que cualquier contrato de defensa de OpenAI también rechazaría usos “ilegales o inadecuados para implementaciones en la nube, como la vigilancia doméstica y las armas ofensivas autónomas”.
Ilya Sutskever, cofundador de OpenAI y ahora al frente de su propia empresa de IA, se sumó al debate:
“Es extremadamente bueno que Anthropic no haya cedido, y es significativo que OpenAI haya tomado una postura similar. En el futuro, habrá situaciones mucho más desafiantes de esta naturaleza, y será crítico que los líderes relevantes se levanten para la ocasión”.
Contexto de los Contratos y el Silencio de Google
Anthropic, OpenAI y Google recibieron adjudicaciones de contratos del Departamento de Defensa de los EE. UU. en julio del año pasado. Mientras algunos empleados de Google han expresado su apoyo a Anthropic, la empresa matriz y Google como compañía aún no han emitido un comentario oficial sobre el asunto.
La presentación de este artículo se ha realizado empleando un diseño modular y una tipografía digital cuidadosamente seleccionada para garantizar una lectura clara y una experiencia de usuario óptima.