Acuerdo pionero permite al Departamento de Defensa usar modelos de OpenAI en redes clasificadas
Sam Altman, CEO de OpenAI, anunció este viernes que su empresa ha llegado a un acuerdo con el Departamento de Defensa de EE.UU. para permitir el uso de sus modelos de inteligencia artificial en la red clasificada del Pentágono.

El trasfondo: el choque con Anthropic y las líneas rojas
Este acuerdo se produce después de un enfrentamiento de alto perfil entre el Pentágono y Anthropic, rival de OpenAI. El Departamento de Defensa presionó a las empresas de IA, incluyendo a Anthropic, para permitir que sus modelos se usaran para «todos los fines legales», mientras que Anthropic buscaba establecer límites claros contra la vigilancia masiva doméstica y las armas totalmente autónomas.
En una extensa declaración, Dario Amodei, CEO de Anthropic, argumentó que «en un conjunto estrecho de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos». Más de 60 empleados de OpenAI y 300 de Google firmaron una carta abierta pidiendo a sus empleadores que apoyaran la posición de Anthropic.
Reacciones políticas y medidas drásticas
Tras el fracaso de las negociaciones entre Anthropic y el Pentágono, el presidente Donald Trump criticó a los «locos de izquierda en Anthropic» en una publicación en redes sociales, ordenando a las agencias federales dejar de usar los productos de la empresa después de un período de transición de seis meses.

Por su parte, el secretario de Defensa, Pete Hegseth, afirmó que Anthropic intentaba «tomar el poder de veto sobre las decisiones operativas del ejército de los Estados Unidos» y designó a la empresa como un riesgo para la cadena de suministro, prohibiendo a cualquier contratista, proveedor o socio que trabaje con el ejército estadounidense realizar actividades comerciales con Anthropic.
Anthropic respondió que «aún no ha recibido comunicación directa del Departamento de Defensa o de la Casa Blanca sobre el estado de nuestras negociaciones», pero insistió en que «impugnará cualquier designación de riesgo de cadena de suministro en los tribunales».
Las salvaguardas clave del acuerdo de OpenAI
Sorprendentemente, Sam Altman declaró que el nuevo contrato de defensa de OpenAI incluye protecciones que abordan los mismos puntos que fueron conflictivos con Anthropic. «Dos de nuestros principios de seguridad más importantes son las prohibiciones de la vigilancia masiva doméstica y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomas», dijo Altman. «El Departamento de Defensa está de acuerdo con estos principios, los refleja en la ley y la política, y los pusimos en nuestro acuerdo».

Altman añadió que OpenAI «construirá salvaguardas técnicas para asegurar que nuestros modelos se comporten como deberían, lo que el Departamento de Defensa también quería», y desplegará ingenieros con el Pentágono «para ayudar con nuestros modelos y garantizar su seguridad».
Un llamado a la industria y detalles internos
El CEO de OpenAI hizo un llamado público: «Le estamos pidiendo al Departamento de Defensa que ofrezca estos mismos términos a todas las empresas de IA, que en nuestra opinión creemos que todos deberían estar dispuestos a aceptar». También expresó el deseo de que la situación «se desescalara lejos de acciones legales y gubernamentales y hacia acuerdos razonables».
Según informes internos, Altman dijo a los empleados de OpenAI en una reunión general que el gobierno permitirá a la empresa construir su propia ‘pila de seguridad’ para prevenir el mal uso, y que «si el modelo se niega a realizar una tarea, entonces el gobierno no obligaría a OpenAI a hacer que la realice».
Contexto geopolítico inmediato
El anuncio de Altman se produjo poco antes de que se conociera la noticia de que los gobiernos de EE.UU. e Israel han comenzado a bombardear Irán, con el presidente Trump pidiendo el derrocamiento del gobierno iraní, marcando un escenario internacional de alta tensión donde la tecnología de IA podría jugar un papel crucial.