La industria de la IA se une contra una designación gubernamental «arbitraria»
Este lunes, 9 de marzo de 2026, más de 30 empleados de OpenAI y Google DeepMind presentaron una declaración judicial apoyando la demanda de la empresa de inteligencia artificial Anthropic contra el Departamento de Defensa de los Estados Unidos (DOD). El movimiento surge después de que el Pentágono etiquetara a Anthropic como un riesgo para la cadena de suministro, una designación típicamente reservada para adversarios extranjeros.

¿Por qué el Pentágono sancionó a Anthropic?
La designación como riesgo llegó la semana pasada después de que Anthropic se negara a permitir que el DOD utilizara su tecnología para vigilancia masiva de ciudadanos estadounidenses o para el disparo autónomo de armas. El Departamento de Defensa argumentó que debería poder usar la IA para cualquier propósito «legal» y no estar limitado por las restricciones de un contratista privado.
«La designación gubernamental de Anthropic como un riesgo de cadena de suministro fue un uso improcedente y arbitrario del poder que tiene serias ramificaciones para nuestra industria», se lee en el escrito legal, cuyos firmantes incluyen al científico jefe de Google DeepMind, Jeff Dean.
Un apoyo que marca precedente
El amicus brief (documento de apoyo) se presentó horas después de que Anthropic, creadora del modelo Claude, interpusiera dos demandas contra el DOD y otras agencias federales. Los empleados de Google y OpenAI argumentan en el escrito que si el Pentágono «ya no estaba satisfecho con los términos acordados de su contrato con Anthropic», la agencia pudo haber «simplemente cancelado el contrato y comprado los servicios de otra compañía líder en IA».
Sin embargo, en un giro significativo, el DOD firmó un acuerdo con OpenAI casi inmediatamente después de designar a Anthropic como riesgo, un movimiento que muchos empleados de la creadora de ChatGPT protestaron.

Consecuencias para la competitividad y la ética en IA
Los empleados advierten sobre las graves repercusiones de esta acción gubernamental.
«Si se permite proceder, este esfuerzo por castigar a una de las principales empresas de IA de EE. UU. sin duda tendrá consecuencias para la competitividad industrial y científica de los Estados Unidos en el campo de la inteligencia artificial y más allá», afirma el escrito. «Y frenará la deliberación abierta en nuestro campo sobre los riesgos y beneficios de los sistemas de IA actuales».
La presentación judicial también afirma que las «líneas rojas» establecidas por Anthropic son preocupaciones legítimas que requieren salvaguardas sólidas. Subraya que, sin una ley pública que regule el uso de la IA, las restricciones contractuales y técnicas que los desarrolladores imponen a sus sistemas son una protección crítica contra un uso catastrófico.
Un movimiento coordinado de la comunidad tecnológica
Muchos de los empleados que firmaron esta declaración también habían suscrito cartas abiertas en las últimas semanas, instando al DOD a retirar la designación y pidiendo a los líderes de sus empresas que apoyaran a Anthropic y se negaran a un uso unilateral de sus sistemas de IA.
Este caso marca un punto de inflexión en la relación entre el gobierno de los EE. UU., las grandes tecnológicas y los principios éticos en el desarrollo y despliegue de la inteligencia artificial.