OpenAI y el Pentágono sellan acuerdo histórico para uso de IA con estrictas salvaguardas de seguridad

Acuerdo pionero permite al Departamento de Defensa usar modelos de OpenAI en redes clasificadas

Sam Altman, CEO de OpenAI, anunció este viernes que su empresa ha llegado a un acuerdo con el Departamento de Defensa de EE.UU. para permitir el uso de sus modelos de inteligencia artificial en la red clasificada del Pentágono.

Hombre hablando con el logo de OpenAI de fondo, posiblemente Sam Altman en un evento
Contexto visual de un evento relacionado con OpenAI y sus tecnologías.

El trasfondo: el choque con Anthropic y las líneas rojas

Este acuerdo se produce después de un enfrentamiento de alto perfil entre el Pentágono y Anthropic, rival de OpenAI. El Departamento de Defensa presionó a las empresas de IA, incluyendo a Anthropic, para permitir que sus modelos se usaran para «todos los fines legales», mientras que Anthropic buscaba establecer límites claros contra la vigilancia masiva doméstica y las armas totalmente autónomas.

En una extensa declaración, Dario Amodei, CEO de Anthropic, argumentó que «en un conjunto estrecho de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos». Más de 60 empleados de OpenAI y 300 de Google firmaron una carta abierta pidiendo a sus empleadores que apoyaran la posición de Anthropic.

Reacciones políticas y medidas drásticas

Tras el fracaso de las negociaciones entre Anthropic y el Pentágono, el presidente Donald Trump criticó a los «locos de izquierda en Anthropic» en una publicación en redes sociales, ordenando a las agencias federales dejar de usar los productos de la empresa después de un período de transición de seis meses.

Hombre hablando frente a un micrófono con bandera estadounidense de fondo, ilustrando noticias sobre el Pentágono y OpenAI
El Pentágono aprueba las líneas rojas de seguridad de OpenAI tras romper con Anthropic.

Por su parte, el secretario de Defensa, Pete Hegseth, afirmó que Anthropic intentaba «tomar el poder de veto sobre las decisiones operativas del ejército de los Estados Unidos» y designó a la empresa como un riesgo para la cadena de suministro, prohibiendo a cualquier contratista, proveedor o socio que trabaje con el ejército estadounidense realizar actividades comerciales con Anthropic.

Anthropic respondió que «aún no ha recibido comunicación directa del Departamento de Defensa o de la Casa Blanca sobre el estado de nuestras negociaciones», pero insistió en que «impugnará cualquier designación de riesgo de cadena de suministro en los tribunales».

Las salvaguardas clave del acuerdo de OpenAI

Sorprendentemente, Sam Altman declaró que el nuevo contrato de defensa de OpenAI incluye protecciones que abordan los mismos puntos que fueron conflictivos con Anthropic. «Dos de nuestros principios de seguridad más importantes son las prohibiciones de la vigilancia masiva doméstica y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomas», dijo Altman. «El Departamento de Defensa está de acuerdo con estos principios, los refleja en la ley y la política, y los pusimos en nuestro acuerdo».

Individuo dando un discurso en un evento con fondo colorido, relacionado con anuncios de OpenAI
Momento de un anuncio o discurso clave sobre los acuerdos de OpenAI.

Altman añadió que OpenAI «construirá salvaguardas técnicas para asegurar que nuestros modelos se comporten como deberían, lo que el Departamento de Defensa también quería», y desplegará ingenieros con el Pentágono «para ayudar con nuestros modelos y garantizar su seguridad».

Un llamado a la industria y detalles internos

El CEO de OpenAI hizo un llamado público: «Le estamos pidiendo al Departamento de Defensa que ofrezca estos mismos términos a todas las empresas de IA, que en nuestra opinión creemos que todos deberían estar dispuestos a aceptar». También expresó el deseo de que la situación «se desescalara lejos de acciones legales y gubernamentales y hacia acuerdos razonables».

Según informes internos, Altman dijo a los empleados de OpenAI en una reunión general que el gobierno permitirá a la empresa construir su propia ‘pila de seguridad’ para prevenir el mal uso, y que «si el modelo se niega a realizar una tarea, entonces el gobierno no obligaría a OpenAI a hacer que la realice».

Contexto geopolítico inmediato

El anuncio de Altman se produjo poco antes de que se conociera la noticia de que los gobiernos de EE.UU. e Israel han comenzado a bombardear Irán, con el presidente Trump pidiendo el derrocamiento del gobierno iraní, marcando un escenario internacional de alta tensión donde la tecnología de IA podría jugar un papel crucial.

Comparte este artículo

Otras notas de tu interés:

Politica

Escepticismo de los Votantes del GOP hacia la IA y Donald Trump

Economia

Spirit Airlines Cierra Operaciones: ¿Cuál es el Impacto para los Viajeros?

Economia

Trump expande sanciones contra Cuba: bancos y empresas extranjeras en la mira

Negocios

Caffe Vialetto renace en Coral Gables: ahora es Casa Vialetto

Economia

Spirit Airlines Cierra Operaciones: Cancelaciones Masivas y Reembolsos Automáticos

Politica

CMS expone números de Seguro Social de doctores en violación de datos

Politica

Legisladores de Massachusetts expresan rechazo a las charlas sobre inteligencia artificial

Politica

Trump respalda a Andy Barr en la carrera al Senado por Kentucky

Politica Internacional

Hegseth ordena retiro de 5000 tropas estadounidenses en Alemania

Economia

Replit y su CEO Amjad Masad: Ingresos millonarios, competencia con Cursor y batalla legal con Apple