Conflicto entre Anthropic y el Pentágono por el uso militar de IA
La empresa de inteligencia artificial Anthropic se encuentra en un punto muerto con el Departamento de Guerra de Estados Unidos por la solicitud militar de acceso sin restricciones a su tecnología. Con el plazo del viernes por la tarde para que Anthropic cumpla, más de 300 empleados de Google y 60 de OpenAI han firmado una carta abierta instando a los líderes de sus compañías a apoyar a Anthropic y rechazar este uso unilateral.
La carta abierta: un llamado a la unidad ética
La carta, firmada por cientos de trabajadores, se opone específicamente al uso de IA para vigilancia masiva doméstica y armamento autónomo. Los signatarios buscan alentar a sus empleadores a “dejar de lado sus diferencias y mantenerse unidos” para defender los límites que Anthropic ha afirmado.
“Intentan dividir a cada empresa con el temor de que la otra ceda”, dice la carta. “Esa estrategia solo funciona si ninguno de nosotros sabe dónde están los demás”.
Postura de los líderes de OpenAI y Google
Los líderes de las compañías no han respondido formalmente a la carta. Sin embargo, declaraciones informales sugieren que ambas empresas son simpatizantes de la postura de Anthropic.
En una entrevista con CNBC el viernes por la mañana, el CEO de OpenAI, Sam Altman, dijo que “personalmente no cree que el Pentágono deba estar amenazando con la DPA contra estas empresas”. Un portavoz de OpenAI confirmó que la compañía comparte las líneas rojas de Anthropic contra las armas autónomas y la vigilancia masiva.
Por su parte, Google DeepMind no se ha pronunciado formalmente, pero su científico jefe, Jeff Dean, expresó su oposición a la vigilancia masiva gubernamental en una publicación en X: “La vigilancia masiva viola la Cuarta Enmienda y tiene un efecto escalofriante en la libertad de expresión. Los sistemas de vigilancia son propensos a mal uso con fines políticos o discriminatorios”.

Negociaciones y amenazas del Pentágono
Según un reporte de Axios, el ejército actualmente puede usar Grok de X, Gemini de Google y ChatGPT de OpenAI para tareas no clasificadas, y ha estado negociando con Google y OpenAI para llevar su tecnología a trabajos clasificados.
Anthropic tiene una asociación existente con el Pentágono, pero se ha mantenido firme en que su IA no se use para vigilancia masiva doméstica ni armamento totalmente autónomo.
El Secretario de Defensa, Pete Hegseth, le dijo al CEO de Anthropic, Dario Amodei, que si su compañía no cede, el Pentágono declarará a Anthropic un “riesgo de cadena de suministro” o invocará la Ley de Producción de Defensa (DPA) para forzar el cumplimiento.
Firmeza de Anthropic
En una declaración el jueves, Amodei mantuvo la posición de su empresa: “Estas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional. Independientemente, estas amenazas no cambian nuestra posición: no podemos en conciencia acceder a su solicitud”.
¿Qué sigue?
Con el plazo acercándose, la comunidad tecnológica observa de cerca si Google y OpenAI apoyarán públicamente a Anthropic, marcando un precedente para la ética en la inteligencia artificial aplicada a fines militares.