Anthropic se enfrenta al Pentágono por el uso militar de su IA Claude

Disputa Ética y Contractual: El Pentágono Presiona a Anthropic para Usar su IA en Operaciones Militares

El Pentágono está ejerciendo presión sobre las principales compañías de inteligencia artificial para que permitan al ejército estadounidense utilizar su tecnología con fines militares, bajo la premisa de «todos los fines legales». Sin embargo, Anthropic, la creadora del modelo de lenguaje Claude, se ha erigido como la más firme opositora a estas demandas, según un reciente informe.

Presión Colectiva a los Gigantes de la IA

La misma exigencia del Departamento de Defensa ha sido dirigida a otras empresas líderes del sector, incluyendo a OpenAI, Google y xAI. Según informaciones, un funcionario anónimo de la administración Trump reveló que una de estas compañías ya ha accedido a las demandas, mientras que las otras dos han mostrado cierta flexibilidad en las negociaciones.

Soldado caminando junto a un robot cuadrúpedo en una zona de operaciones militares
La integración de robots y tecnología de IA en el campo militar es un punto central del debate ético. (Imagen ilustrativa)

Anthropic, la Gran Resistente y la Amenaza de un Contrato Millonario

Frente a esta presión, Anthropic ha sido la compañía más resistente. Como respuesta, el Pentágono estaría considerando retirarse de un contrato de $200 millones que mantiene con la firma de inteligencia artificial, una medida que subraya la gravedad del desacuerdo.

El Uso Reportado de Claude en una Operación Militar

Los roces no son nuevos. En enero, el Wall Street Journal reportó un desacuerdo significativo entre Anthropic y los funcionarios del Departamento de Defensa sobre los límites de uso de sus modelos Claude. El mismo medio indicó posteriormente que Claude fue utilizado en la operación militar estadounidense para capturar al entonces presidente venezolano, Nicolás Maduro.

Sala de control con múltiples pantallas que muestran mapas y datos, representando un centro de operaciones militar
Los centros de mando modernos dependen de tecnología avanzada para la vigilancia y la toma de decisiones, un área donde la IA es cada vez más crítica.

La Postura Oficial de Anthropic: Límites Éticos Inquebrantables

Frente a estos reportes, un portavoz de Anthropic aclaró la posición de la empresa. Declaró que la compañía «no ha discutido el uso de Claude para operaciones específicas con el Departamento de Guerra». En cambio, su enfoque está en «una serie específica de preguntas sobre la Política de Uso —en concreto, nuestros límites estrictos en torno a armas completamente autónomas y la vigilancia doméstica masiva».

Este enfrentamiento pone de relieve el creciente y complejo debate sobre los límites éticos de la inteligencia artificial en aplicaciones de defensa y seguridad nacional, un tema que seguirá definiendo la relación entre la industria tecnológica y el gobierno.

Comparte este artículo

Otras notas de tu interés:

Deportes

Aficionados izan la bandera de Groenlandia en partido de hockey EE.UU. vs Dinamarca en gesto pro-europeo

Politica Internacional

Manifestaciones Masivas Desafían al Gobierno Iraní en las Calles

Negocios

Glean: La Capa de Inteligencia Artificial que Revoluciona la Empresa

Politica

Indonesia Moviliza 8000 Soldados para Posible Misión de Paz en Gaza

Espectáculos y Entretenimiento

David Greene demanda a Google por supuesto uso de su voz en la herramienta de IA NotebookLM

Negocios

Peter Steinberger se une a OpenAI para impulsar la nueva era de asistentes personales de IA

Economia

Blackstone invierte hasta $600 millones en Neysa, la startup india de infraestructura para IA

Negocios

C2i Semiconductors: La startup india que enfrenta el límite de potencia en centros de datos de IA

Politica

Los desafíos de edad en el Partido Demócrata a la luz de los comentarios de Obama

Negocios

Caída Histórica en Inscripciones de Ciencias de la Computación en EE.UU. Mientras los Programas de IA se Disparan