Disputa Ética y Contractual: El Pentágono Presiona a Anthropic para Usar su IA en Operaciones Militares
El Pentágono está ejerciendo presión sobre las principales compañías de inteligencia artificial para que permitan al ejército estadounidense utilizar su tecnología con fines militares, bajo la premisa de «todos los fines legales». Sin embargo, Anthropic, la creadora del modelo de lenguaje Claude, se ha erigido como la más firme opositora a estas demandas, según un reciente informe.
Presión Colectiva a los Gigantes de la IA
La misma exigencia del Departamento de Defensa ha sido dirigida a otras empresas líderes del sector, incluyendo a OpenAI, Google y xAI. Según informaciones, un funcionario anónimo de la administración Trump reveló que una de estas compañías ya ha accedido a las demandas, mientras que las otras dos han mostrado cierta flexibilidad en las negociaciones.

Anthropic, la Gran Resistente y la Amenaza de un Contrato Millonario
Frente a esta presión, Anthropic ha sido la compañía más resistente. Como respuesta, el Pentágono estaría considerando retirarse de un contrato de $200 millones que mantiene con la firma de inteligencia artificial, una medida que subraya la gravedad del desacuerdo.
El Uso Reportado de Claude en una Operación Militar
Los roces no son nuevos. En enero, el Wall Street Journal reportó un desacuerdo significativo entre Anthropic y los funcionarios del Departamento de Defensa sobre los límites de uso de sus modelos Claude. El mismo medio indicó posteriormente que Claude fue utilizado en la operación militar estadounidense para capturar al entonces presidente venezolano, Nicolás Maduro.

La Postura Oficial de Anthropic: Límites Éticos Inquebrantables
Frente a estos reportes, un portavoz de Anthropic aclaró la posición de la empresa. Declaró que la compañía «no ha discutido el uso de Claude para operaciones específicas con el Departamento de Guerra». En cambio, su enfoque está en «una serie específica de preguntas sobre la Política de Uso —en concreto, nuestros límites estrictos en torno a armas completamente autónomas y la vigilancia doméstica masiva».
Este enfrentamiento pone de relieve el creciente y complejo debate sobre los límites éticos de la inteligencia artificial en aplicaciones de defensa y seguridad nacional, un tema que seguirá definiendo la relación entre la industria tecnológica y el gobierno.