Anthropic se enfrenta al Pentágono por restricciones en el uso de inteligencia artificial
La empresa de inteligencia artificial Anthropic ha llegado a un punto muerto con el Departamento de Guerra de Estados Unidos (comúnmente conocido como el Pentágono) debido a la solicitud militar de acceso sin restricciones a su tecnología. Con el plazo del viernes por la tarde del Pentágono para que Anthropic acceda a sus demandas acercándose, más de 300 empleados de Google y más de 60 empleados de OpenAI han firmado una carta abierta instando a los líderes de sus compañías a apoyar a Anthropic y rechazar este uso unilateral.
Carta abierta: un llamado a la unidad frente a las presiones militares
La carta, firmada por cientos de trabajadores, busca alentar a sus empleadores a «dejar de lado sus diferencias y mantenerse unidos» para defender los límites que Anthropic ha establecido.
«Intentan dividir a cada empresa con el temor de que la otra ceda», dice la carta. «Esa estrategia solo funciona si ninguno de nosotros sabe dónde se paran los demás».
Líneas rojas: vigilancia masiva y armamento autónomo
La carta específicamente llama a los ejecutivos de Google y OpenAI a mantener las líneas rojas de Anthropic contra la vigilancia masiva doméstica y el armamento completamente autónomo. «Esperamos que nuestros líderes dejen de lado sus diferencias y se mantengan unidos para continuar rechazando las demandas actuales del Departamento de Guerra», señala el texto.

Reacciones de los líderes: simpatía hacia la postura de Anthropic
Los líderes de Google y OpenAI no han respondido formalmente a la carta, pero declaraciones informales sugieren que ambas compañías son simpatizantes de la posición de Anthropic. Sam Altman, CEO de OpenAI, dijo en una entrevista que no cree «personalmente que el Pentágono deba estar amenazando con la Ley de Producción de Defensa (DPA) contra estas empresas». Un portavoz de OpenAI confirmó que la compañía comparte las líneas rojas de Anthropic contra las armas autónomas y la vigilancia masiva.
Por su parte, Jeff Dean, científico jefe de Google DeepMind, expresó en redes sociales su oposición a la vigilancia masiva gubernamental:
«La vigilancia masiva viola la Cuarta Enmienda y tiene un efecto escalofriante en la libertad de expresión. Los sistemas de vigilancia son propensos a un uso indebido con fines políticos o discriminatorios».
Contexto: el uso militar actual de IA y las negociaciones
Según reportes, el ejército estadounidense actualmente puede utilizar Grok de X, Gemini de Google y ChatGPT de OpenAI para tareas no clasificadas, y ha estado negociando con Google y OpenAI para llevar su tecnología a trabajos clasificados. A pesar de que Anthropic tiene una asociación existente con el Pentágono, la empresa de IA se ha mantenido firme en mantener el límite de que su tecnología no se use para vigilancia masiva doméstica ni para armamento completamente autónomo.
Amenazas del Pentágono y la firme postura de Anthropic
El Secretario de Defensa Pete Hegseth advirtió al CEO de Anthropic, Dario Amodei, que si su empresa no concede, el Pentágono declarará a Anthropic un «riesgo de cadena de suministro» o invocará la Ley de Producción de Defensa (DPA) para forzar el cumplimiento de las demandas militares. En una declaración, Amodei mantuvo la posición de su compañía:
«Estas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional. Independientemente, estas amenazas no cambian nuestra posición: no podemos en conciencia acceder a su solicitud».
¿Qué sigue en el conflicto entre IA y seguridad nacional?
El enfrentamiento entre Anthropic y el Pentágono destaca la creciente tensión entre el desarrollo de inteligencia artificial y su aplicación en el ámbito militar. Con el apoyo público de empleados de gigantes tecnológicos, la discusión sobre los límites éticos de la IA se intensifica, marcando un precedente para la industria y la política de defensa estadounidense.