Administración Trump corta lazos con Anthropic tras negativa a usar IA para vigilancia masiva y drones letales

La Ruptura: Un Contrato de $200 Millones y una Ley de Seguridad Nacional

El Pentágono, bajo la administración del presidente Donald Trump, ha roto relaciones con la empresa de inteligencia artificial Anthropic invocando una ley de seguridad nacional diseñada para contrarrestar amenazas en la cadena de suministro extranjera. La medida llega después de que el fundador de Anthropic, Dario Amodei, se negara a permitir que la tecnología de la compañía se utilizara para la vigilancia masiva de ciudadanos estadounidenses o para drones armados autónomos capaces de seleccionar y eliminar objetivos sin intervención humana.

Montaje gráfico sobre el conflicto entre Anthropic y la administración Trump

Representación visual del ultimátum a Anthropic por parte del gobierno de EE.UU.

Como resultado, Anthropic perderá un contrato valorado en hasta $200 millones y quedará excluida de trabajar con otras agencias federales, tras una orden directa de Trump en Truth Social. La empresa ha anunciado que impugnará la decisión en los tribunales, calificando la designación de riesgo para la cadena de suministro como «legalmente insostenible» y sin precedentes para una compañía estadounidense.

La Crítica de Max Tegmark: «El camino al infierno está pavimentado con buenas intenciones»

El físico del MIT y fundador del Future of Life Institute, Max Tegmark, ofrece un análisis contundente. Según Tegmark, Anthropic y sus rivales (OpenAI, Google DeepMind, xAI) han sembrado las semillas de su propio predicamento al resistirse persistentemente a una regulación vinculante mientras prometían autorregularse de manera responsable.

«Todos estos han hablado mucho sobre lo mucho que les importa la seguridad. Ninguno ha salido a apoyar una regulación de seguridad vinculante como la que tenemos en otras industrias», afirma Tegmark. «Y las cuatro empresas han roto sus propias promesas».

Tegmark señala que, en la última semana, Anthropic abandonó el principio central de su compromiso de seguridad: la promesa de no lanzar sistemas de IA cada vez más potentes hasta no estar seguros de que no causarían daño.

El Vacío Regulatorio: Menos control que para un sándwich

El experto utiliza una analogía poderosa: «En este momento tenemos menos regulación sobre los sistemas de IA en Estados Unidos que sobre los sándwiches». Subraya que, a diferencia de un inspector de salud que puede cerrar un local con ratas, no hay ley que impida desarrollar una IA que pueda amenazar la seguridad nacional.

«No hay ley en este momento contra construir una IA para matar estadounidenses», advierte Tegmark. «Si las propias empresas hubieran dicho antes ‘queremos esta ley’, no estarían en este aprieto. Realmente se han disparado en el pie».

La Carrera con China: ¿Argumento válido o cortina de humo?

Tegmark desmonta el argumento habitual de la industria sobre la competencia con Beijing. Señala que China está considerando prohibir las «IA novia» antropomórficas por considerarlas dañinas para su juventud. Además, cuestiona la lógica de una carrera hacia la superinteligencia incontrolable.

«¿Quién en su sano juicio piensa que Xi Jinping va a tolerar que alguna empresa china construya algo que derroque al gobierno chino?», se pregunta. La superinteligencia, argumenta, es una amenaza para la seguridad nacional, no un activo.

El Futuro Inminente: ¿A qué distancia está la superinteligencia?

Según un estudio reciente coescrito por Tegmark y otros investigadores líderes, GPT-5 ya está en el 57% del camino hacia la AGI (Inteligencia General Artificial), una métrica que sugiere que el avance es rápido y potencialmente disruptivo en pocos años.

Reacciones en la Industria: Un momento para mostrar los colores reales

Tras la exclusión de Anthropic, Sam Altman de OpenAI declaró su apoyo y estableció las mismas líneas rojas. Por su parte, Google guardó silencio al momento de los hechos, lo que, según Tegmark, resulta «increíblemente embarazoso» para la compañía. La industria observa si otras empresas como xAI aprovecharán el vacío o se unirán al principio ético.

El desenlace de este conflicto podría forzar un cambio de rumbo hacia una regulación sólida o profundizar la actual carrera sin freno, donde la seguridad nacional y los límites éticos de la IA están en juego.

Comparte este artículo

Otras notas de tu interés:

Para Inmigrantes

Diáspora Iraní en EE.UU. Encuentra Esperanza en el Símbolo del Muro de Berlín

Economia

Irán brinda a los Demócratas una nueva apertura sobre los precios de la energía

Politica

Ataque Aéreo en Irán: Muerte del Líder Supremo y Vacío de Poder

Politica

Los Demócratas Responden a los Ataques de Trump contra Irán

Politica

Trump y los días previos a los ataques a Irán: Revelaciones de la Operación Epic Fury

Noticia Local

Conflicto EE.UU.-Israel-Irán Desata Apoyo y Temor en Comunidades de Florida

Politica Internacional

Aliados del Golfo no apoyarán a EE.UU. en ataques contra Irán, según informes

Para Inmigrantes

Enfrentamiento Armado en Costas Cubanas: Incertidumbre y Silencio de EE.UU.

Negocios

Claude de Anthropic escala al segundo puesto en App Store tras polémica con el Pentágono

Economia

La Carrera Billonaria: Inversiones en Infraestructura de IA por Microsoft, Google, Nvidia y Más