La Ruptura: Un Contrato de $200 Millones y una Ley de Seguridad Nacional
El Pentágono, bajo la administración del presidente Donald Trump, ha roto relaciones con la empresa de inteligencia artificial Anthropic invocando una ley de seguridad nacional diseñada para contrarrestar amenazas en la cadena de suministro extranjera. La medida llega después de que el fundador de Anthropic, Dario Amodei, se negara a permitir que la tecnología de la compañía se utilizara para la vigilancia masiva de ciudadanos estadounidenses o para drones armados autónomos capaces de seleccionar y eliminar objetivos sin intervención humana.

Como resultado, Anthropic perderá un contrato valorado en hasta $200 millones y quedará excluida de trabajar con otras agencias federales, tras una orden directa de Trump en Truth Social. La empresa ha anunciado que impugnará la decisión en los tribunales, calificando la designación de riesgo para la cadena de suministro como «legalmente insostenible» y sin precedentes para una compañía estadounidense.
La Crítica de Max Tegmark: «El camino al infierno está pavimentado con buenas intenciones»
El físico del MIT y fundador del Future of Life Institute, Max Tegmark, ofrece un análisis contundente. Según Tegmark, Anthropic y sus rivales (OpenAI, Google DeepMind, xAI) han sembrado las semillas de su propio predicamento al resistirse persistentemente a una regulación vinculante mientras prometían autorregularse de manera responsable.
«Todos estos han hablado mucho sobre lo mucho que les importa la seguridad. Ninguno ha salido a apoyar una regulación de seguridad vinculante como la que tenemos en otras industrias», afirma Tegmark. «Y las cuatro empresas han roto sus propias promesas».
Tegmark señala que, en la última semana, Anthropic abandonó el principio central de su compromiso de seguridad: la promesa de no lanzar sistemas de IA cada vez más potentes hasta no estar seguros de que no causarían daño.
El Vacío Regulatorio: Menos control que para un sándwich
El experto utiliza una analogía poderosa: «En este momento tenemos menos regulación sobre los sistemas de IA en Estados Unidos que sobre los sándwiches». Subraya que, a diferencia de un inspector de salud que puede cerrar un local con ratas, no hay ley que impida desarrollar una IA que pueda amenazar la seguridad nacional.
«No hay ley en este momento contra construir una IA para matar estadounidenses», advierte Tegmark. «Si las propias empresas hubieran dicho antes ‘queremos esta ley’, no estarían en este aprieto. Realmente se han disparado en el pie».
La Carrera con China: ¿Argumento válido o cortina de humo?
Tegmark desmonta el argumento habitual de la industria sobre la competencia con Beijing. Señala que China está considerando prohibir las «IA novia» antropomórficas por considerarlas dañinas para su juventud. Además, cuestiona la lógica de una carrera hacia la superinteligencia incontrolable.
«¿Quién en su sano juicio piensa que Xi Jinping va a tolerar que alguna empresa china construya algo que derroque al gobierno chino?», se pregunta. La superinteligencia, argumenta, es una amenaza para la seguridad nacional, no un activo.
El Futuro Inminente: ¿A qué distancia está la superinteligencia?
Según un estudio reciente coescrito por Tegmark y otros investigadores líderes, GPT-5 ya está en el 57% del camino hacia la AGI (Inteligencia General Artificial), una métrica que sugiere que el avance es rápido y potencialmente disruptivo en pocos años.
Reacciones en la Industria: Un momento para mostrar los colores reales
Tras la exclusión de Anthropic, Sam Altman de OpenAI declaró su apoyo y estableció las mismas líneas rojas. Por su parte, Google guardó silencio al momento de los hechos, lo que, según Tegmark, resulta «increíblemente embarazoso» para la compañía. La industria observa si otras empresas como xAI aprovecharán el vacío o se unirán al principio ético.
El desenlace de este conflicto podría forzar un cambio de rumbo hacia una regulación sólida o profundizar la actual carrera sin freno, donde la seguridad nacional y los límites éticos de la IA están en juego.