OpenAI y el Pentágono sellan acuerdo histórico para uso de IA con estrictas salvaguardas de seguridad

Acuerdo pionero permite al Departamento de Defensa usar modelos de OpenAI en redes clasificadas

Sam Altman, CEO de OpenAI, anunció este viernes que su empresa ha llegado a un acuerdo con el Departamento de Defensa de EE.UU. para permitir el uso de sus modelos de inteligencia artificial en la red clasificada del Pentágono.

Hombre hablando con el logo de OpenAI de fondo, posiblemente Sam Altman en un evento
Contexto visual de un evento relacionado con OpenAI y sus tecnologías.

El trasfondo: el choque con Anthropic y las líneas rojas

Este acuerdo se produce después de un enfrentamiento de alto perfil entre el Pentágono y Anthropic, rival de OpenAI. El Departamento de Defensa presionó a las empresas de IA, incluyendo a Anthropic, para permitir que sus modelos se usaran para «todos los fines legales», mientras que Anthropic buscaba establecer límites claros contra la vigilancia masiva doméstica y las armas totalmente autónomas.

En una extensa declaración, Dario Amodei, CEO de Anthropic, argumentó que «en un conjunto estrecho de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos». Más de 60 empleados de OpenAI y 300 de Google firmaron una carta abierta pidiendo a sus empleadores que apoyaran la posición de Anthropic.

Reacciones políticas y medidas drásticas

Tras el fracaso de las negociaciones entre Anthropic y el Pentágono, el presidente Donald Trump criticó a los «locos de izquierda en Anthropic» en una publicación en redes sociales, ordenando a las agencias federales dejar de usar los productos de la empresa después de un período de transición de seis meses.

Hombre hablando frente a un micrófono con bandera estadounidense de fondo, ilustrando noticias sobre el Pentágono y OpenAI
El Pentágono aprueba las líneas rojas de seguridad de OpenAI tras romper con Anthropic.

Por su parte, el secretario de Defensa, Pete Hegseth, afirmó que Anthropic intentaba «tomar el poder de veto sobre las decisiones operativas del ejército de los Estados Unidos» y designó a la empresa como un riesgo para la cadena de suministro, prohibiendo a cualquier contratista, proveedor o socio que trabaje con el ejército estadounidense realizar actividades comerciales con Anthropic.

Anthropic respondió que «aún no ha recibido comunicación directa del Departamento de Defensa o de la Casa Blanca sobre el estado de nuestras negociaciones», pero insistió en que «impugnará cualquier designación de riesgo de cadena de suministro en los tribunales».

Las salvaguardas clave del acuerdo de OpenAI

Sorprendentemente, Sam Altman declaró que el nuevo contrato de defensa de OpenAI incluye protecciones que abordan los mismos puntos que fueron conflictivos con Anthropic. «Dos de nuestros principios de seguridad más importantes son las prohibiciones de la vigilancia masiva doméstica y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomas», dijo Altman. «El Departamento de Defensa está de acuerdo con estos principios, los refleja en la ley y la política, y los pusimos en nuestro acuerdo».

Individuo dando un discurso en un evento con fondo colorido, relacionado con anuncios de OpenAI
Momento de un anuncio o discurso clave sobre los acuerdos de OpenAI.

Altman añadió que OpenAI «construirá salvaguardas técnicas para asegurar que nuestros modelos se comporten como deberían, lo que el Departamento de Defensa también quería», y desplegará ingenieros con el Pentágono «para ayudar con nuestros modelos y garantizar su seguridad».

Un llamado a la industria y detalles internos

El CEO de OpenAI hizo un llamado público: «Le estamos pidiendo al Departamento de Defensa que ofrezca estos mismos términos a todas las empresas de IA, que en nuestra opinión creemos que todos deberían estar dispuestos a aceptar». También expresó el deseo de que la situación «se desescalara lejos de acciones legales y gubernamentales y hacia acuerdos razonables».

Según informes internos, Altman dijo a los empleados de OpenAI en una reunión general que el gobierno permitirá a la empresa construir su propia ‘pila de seguridad’ para prevenir el mal uso, y que «si el modelo se niega a realizar una tarea, entonces el gobierno no obligaría a OpenAI a hacer que la realice».

Contexto geopolítico inmediato

El anuncio de Altman se produjo poco antes de que se conociera la noticia de que los gobiernos de EE.UU. e Israel han comenzado a bombardear Irán, con el presidente Trump pidiendo el derrocamiento del gobierno iraní, marcando un escenario internacional de alta tensión donde la tecnología de IA podría jugar un papel crucial.

Comparte este artículo

Otras notas de tu interés:

Politica Internacional

Incursiones de Irán: Lo que revelan las imágenes sobre los ataques

Economia

Irán desafía la coalición de Trump en medio de elecciones y debate económico

Politica

EE.UU. e Israel, con Poco Apoyo Aliado en Posibles Ataques Iniciales contra Irán

Politica

Canadá apoya acciones de Estados Unidos en Irán

Economia

Ataque de EE.UU. a Irán Amenaza el Mercado Energético y Aumenta Riesgos para Venezuela

Noticia Local

Cuba Desbarata Ataque Armado desde Florida: Presentan Arsenal de Rifles y 13,000 Balas

Noticia Local

Deepfakes en Iglesias: Una Nueva Amenaza de Estafas Digitales para la Fe

Politica

Estados Unidos e Israel Inician Ataques Aéreos Contra Irán

Politica

Controversia en el Mandato del Zar Cibernético de Noem: Contratos Cancelados y Disputas de Polígrafo

Politica

Trump arremete contra ataques a Irán sin autorización del Congreso