Administración Trump corta lazos con Anthropic tras negativa a usar IA para vigilancia masiva y drones letales

La Ruptura: Un Contrato de $200 Millones y una Ley de Seguridad Nacional

El Pentágono, bajo la administración del presidente Donald Trump, ha roto relaciones con la empresa de inteligencia artificial Anthropic invocando una ley de seguridad nacional diseñada para contrarrestar amenazas en la cadena de suministro extranjera. La medida llega después de que el fundador de Anthropic, Dario Amodei, se negara a permitir que la tecnología de la compañía se utilizara para la vigilancia masiva de ciudadanos estadounidenses o para drones armados autónomos capaces de seleccionar y eliminar objetivos sin intervención humana.

Montaje gráfico sobre el conflicto entre Anthropic y la administración Trump

Representación visual del ultimátum a Anthropic por parte del gobierno de EE.UU.

Como resultado, Anthropic perderá un contrato valorado en hasta $200 millones y quedará excluida de trabajar con otras agencias federales, tras una orden directa de Trump en Truth Social. La empresa ha anunciado que impugnará la decisión en los tribunales, calificando la designación de riesgo para la cadena de suministro como «legalmente insostenible» y sin precedentes para una compañía estadounidense.

La Crítica de Max Tegmark: «El camino al infierno está pavimentado con buenas intenciones»

El físico del MIT y fundador del Future of Life Institute, Max Tegmark, ofrece un análisis contundente. Según Tegmark, Anthropic y sus rivales (OpenAI, Google DeepMind, xAI) han sembrado las semillas de su propio predicamento al resistirse persistentemente a una regulación vinculante mientras prometían autorregularse de manera responsable.

«Todos estos han hablado mucho sobre lo mucho que les importa la seguridad. Ninguno ha salido a apoyar una regulación de seguridad vinculante como la que tenemos en otras industrias», afirma Tegmark. «Y las cuatro empresas han roto sus propias promesas».

Tegmark señala que, en la última semana, Anthropic abandonó el principio central de su compromiso de seguridad: la promesa de no lanzar sistemas de IA cada vez más potentes hasta no estar seguros de que no causarían daño.

El Vacío Regulatorio: Menos control que para un sándwich

El experto utiliza una analogía poderosa: «En este momento tenemos menos regulación sobre los sistemas de IA en Estados Unidos que sobre los sándwiches». Subraya que, a diferencia de un inspector de salud que puede cerrar un local con ratas, no hay ley que impida desarrollar una IA que pueda amenazar la seguridad nacional.

«No hay ley en este momento contra construir una IA para matar estadounidenses», advierte Tegmark. «Si las propias empresas hubieran dicho antes ‘queremos esta ley’, no estarían en este aprieto. Realmente se han disparado en el pie».

La Carrera con China: ¿Argumento válido o cortina de humo?

Tegmark desmonta el argumento habitual de la industria sobre la competencia con Beijing. Señala que China está considerando prohibir las «IA novia» antropomórficas por considerarlas dañinas para su juventud. Además, cuestiona la lógica de una carrera hacia la superinteligencia incontrolable.

«¿Quién en su sano juicio piensa que Xi Jinping va a tolerar que alguna empresa china construya algo que derroque al gobierno chino?», se pregunta. La superinteligencia, argumenta, es una amenaza para la seguridad nacional, no un activo.

El Futuro Inminente: ¿A qué distancia está la superinteligencia?

Según un estudio reciente coescrito por Tegmark y otros investigadores líderes, GPT-5 ya está en el 57% del camino hacia la AGI (Inteligencia General Artificial), una métrica que sugiere que el avance es rápido y potencialmente disruptivo en pocos años.

Reacciones en la Industria: Un momento para mostrar los colores reales

Tras la exclusión de Anthropic, Sam Altman de OpenAI declaró su apoyo y estableció las mismas líneas rojas. Por su parte, Google guardó silencio al momento de los hechos, lo que, según Tegmark, resulta «increíblemente embarazoso» para la compañía. La industria observa si otras empresas como xAI aprovecharán el vacío o se unirán al principio ético.

El desenlace de este conflicto podría forzar un cambio de rumbo hacia una regulación sólida o profundizar la actual carrera sin freno, donde la seguridad nacional y los límites éticos de la IA están en juego.

Comparte este artículo

Otras notas de tu interés:

Tecnologia

ChatGPT Images 2.0: India Lidera con 5 Millones de Descargas en el Lanzamiento Global

Negocios

Casa Blanca respalda a empresas tecnológicas de IA con compromisos voluntarios de ciberseguridad

Politica

Nominación de Casey Means Murkowski

Politica

Críticas a Schumer se intensifican tras el ‘meltdown’ de Janet Mills

Para Inmigrantes

Departamento de Justicia demanda a Nueva Jersey por leyes de matrícula universitaria para inmigrantes

Economia

Anthropic busca 50 mil millones de dólares en su última ronda previa a la OPI con una valoración de hasta 900 mil millones

Politica

Informe de la administración Trump acusa a Biden de sesgo anticristiano en EE.UU.

Economia

Apple Mac supera expectativas impulsado por la demanda de cargas de trabajo de IA

Economia

Gillibrand y McCormick unen fuerzas para regular los mercados de predicción en EE.UU.

Economia

Trump apuesta por un rápido colapso petrolero de Irán, pero los expertos prevén un dolor prolongado y costos crecientes