Anthropic se enfrenta al Pentágono por el uso militar de su IA Claude

Disputa Ética y Contractual: El Pentágono Presiona a Anthropic para Usar su IA en Operaciones Militares

El Pentágono está ejerciendo presión sobre las principales compañías de inteligencia artificial para que permitan al ejército estadounidense utilizar su tecnología con fines militares, bajo la premisa de «todos los fines legales». Sin embargo, Anthropic, la creadora del modelo de lenguaje Claude, se ha erigido como la más firme opositora a estas demandas, según un reciente informe.

Presión Colectiva a los Gigantes de la IA

La misma exigencia del Departamento de Defensa ha sido dirigida a otras empresas líderes del sector, incluyendo a OpenAI, Google y xAI. Según informaciones, un funcionario anónimo de la administración Trump reveló que una de estas compañías ya ha accedido a las demandas, mientras que las otras dos han mostrado cierta flexibilidad en las negociaciones.

Soldado caminando junto a un robot cuadrúpedo en una zona de operaciones militares
La integración de robots y tecnología de IA en el campo militar es un punto central del debate ético. (Imagen ilustrativa)

Anthropic, la Gran Resistente y la Amenaza de un Contrato Millonario

Frente a esta presión, Anthropic ha sido la compañía más resistente. Como respuesta, el Pentágono estaría considerando retirarse de un contrato de $200 millones que mantiene con la firma de inteligencia artificial, una medida que subraya la gravedad del desacuerdo.

El Uso Reportado de Claude en una Operación Militar

Los roces no son nuevos. En enero, el Wall Street Journal reportó un desacuerdo significativo entre Anthropic y los funcionarios del Departamento de Defensa sobre los límites de uso de sus modelos Claude. El mismo medio indicó posteriormente que Claude fue utilizado en la operación militar estadounidense para capturar al entonces presidente venezolano, Nicolás Maduro.

Sala de control con múltiples pantallas que muestran mapas y datos, representando un centro de operaciones militar
Los centros de mando modernos dependen de tecnología avanzada para la vigilancia y la toma de decisiones, un área donde la IA es cada vez más crítica.

La Postura Oficial de Anthropic: Límites Éticos Inquebrantables

Frente a estos reportes, un portavoz de Anthropic aclaró la posición de la empresa. Declaró que la compañía «no ha discutido el uso de Claude para operaciones específicas con el Departamento de Guerra». En cambio, su enfoque está en «una serie específica de preguntas sobre la Política de Uso —en concreto, nuestros límites estrictos en torno a armas completamente autónomas y la vigilancia doméstica masiva».

Este enfrentamiento pone de relieve el creciente y complejo debate sobre los límites éticos de la inteligencia artificial en aplicaciones de defensa y seguridad nacional, un tema que seguirá definiendo la relación entre la industria tecnológica y el gobierno.

Comparte este artículo

Otras notas de tu interés:

Espectáculos y Entretenimiento

ElevenLabs lanza ElevenMusic, una app de IA para crear música y competir con Suno y Udio

Negocios

Flipboard Lanza ‘Social Websites’: Un Nuevo Paradigma para Creadores y Editores

Economia

Gateway Capital Partners Anuncia Primer Cierre de su Fondo II para Impulsar Tecnología en Milwaukee

Negocios

Artemis II: NASA apuesta por SpaceX y Blue Origin para el futuro lunar

Negocios

Hims & Hers Confirma Violación de Datos: Hackeadores Roban Información de Soporte al Cliente en California

Economia

Amazon Impone Recargo por Combustible del 3.5% ante la Crisis Energética por la Guerra en Irán

Sociedad y Cultura

Artemis II: Astronautas NASA Rumbo a la Luna en Misión Histórica

Politica

Trump destituye a Pam Bondi por su manejo del caso Epstein y otras investigaciones clave

Politica

Cuba Anuncia Liberación de Más de 2,010 Prisioneros en Gesto por Semana Santa

Politica

Trump ajusta su gabinete tras la partida de Bondi