Grandes tecnológicas garantizan la continuidad de Claude para empresas y startups
Las empresas y startups que utilizan el modelo de inteligencia artificial Claude, de Anthropic, a través de los productos de Microsoft y Google pueden estar tranquilas: el acceso a esta tecnología no será retirado. Así lo confirmaron ambas compañías, asegurando que sus clientes pueden seguir usando el modelo para cargas de trabajo no asociadas a la defensa.

El conflicto con el Departamento de Defensa
La tranquilidad llega después de que el Departamento de Defensa de la administración Trump designara a Anthropic como un riesgo de cadena de suministro. Esta decisión, tomada después de que la empresa de IA se negara a proporcionar acceso ilimitado a su tecnología para aplicaciones como vigilancia masiva y armas totalmente autónomas, implica que el Pentágono no podrá usar los productos de Anthropic una vez que se complete la transición de Claude fuera de sus sistemas.
Además, la designación requiere que cualquier empresa o agencia que trabaje con el Pentágono certifique que no utiliza los modelos de Anthropic. La startup ha prometido luchar contra esta designación en los tribunales.
Microsoft lidera las garantías para sus clientes
Microsoft fue la primera gran empresa tecnológica en ofrecer garantías. Un portavoz de la compañía declaró que, tras estudiar la designación, sus abogados concluyeron que los productos de Anthropic, incluido Claude, pueden seguir disponibles para sus clientes —excepto para el Departamento de Defensa— a través de plataformas como M365, GitHub y Microsoft AI Foundry.

Google y Amazon se suman al compromiso
Google, que también vende herramientas de computación en la nube, IA y productividad a agencias federales, confirmó una postura similar. Un portavoz de Google afirmó que la determinación no les impide trabajar con Anthropic en proyectos no relacionados con la defensa, y que sus productos permanecerán disponibles a través de Google Cloud.
Por su parte, se informó que los clientes y partners de AWS (Amazon Web Services) también pueden continuar usando Claude para sus cargas de trabajo no asociadas a la defensa, según reportes de CNBC.
La clarificación del CEO de Anthropic
«Con respecto a nuestros clientes, [la designación] claramente se aplica solo al uso de Claude por parte de clientes como una parte directa de contratos con el Departamento de Defensa, no a todo uso de Claude por clientes que tengan tales contratos», explicó Dario Amodei, CEO de Anthropic.
Amodei añadió que, incluso para los contratistas del Departamento de Defensa, la designación de riesgo de cadena de suministro no limita los usos de Claude o las relaciones comerciales con Anthropic si estos no están relacionados con sus contratos específicos de defensa.

¿Qué significa para el futuro de la IA empresarial?
Este episodio subraya la creciente intersección entre la tecnología de vanguardia y la regulación gubernamental. Mientras Anthropic se prepara para una batalla legal, gigantes como Microsoft, Google y Amazon envían un mensaje claro a sus ecosistemas: el acceso a herramientas de IA potentes como Claude se mantendrá para impulsar la innovación en el sector civil y comercial.
La situación refuerza la importancia de que las empresas tecnológicas y las startups de IA naveguen cuidadosamente las demandas de seguridad nacional mientras protegen sus principios y sirven a su base de clientes más amplia.