Anthropic revela briefing a Trump sobre modelo de IA Mythos, considerado demasiado peligroso
Jack Clark, cofundador de Anthropic y director de Beneficio Público de Anthropic PBC, confirmó que la empresa de inteligencia artificial informó a la administración de Donald Trump sobre su nuevo modelo Mythos, cuyas capacidades de ciberseguridad son tan potentes que no será lanzado al público.

Una relación tensa con el gobierno
En una entrevista en la cumbre de la economía mundial de Semafor esta semana, Clark explicó por qué la compañía sigue colaborando con el gobierno de EE.UU. mientras simultáneamente los demanda. En marzo, Anthropic presentó una demanda contra el Departamento de Defensa (DOD) de Trump después de que la agencia etiquetara a la empresa como un riesgo para la cadena de suministro.
El conflicto surgió por el acceso militar a los sistemas de IA de Anthropic para casos de uso que incluían vigilancia masiva de estadounidenses y armas totalmente autónomas. Finalmente, OpenAI ganó el contrato.
“Nuestra posición es que el gobierno tiene que saber sobre estas cosas, y tenemos que encontrar nuevas formas para que el gobierno se asocie con el sector privado que está haciendo cosas que están revolucionando la economía, pero que van a tener aspectos que afecten la Seguridad Nacional y otros”, dijo Clark.
Mythos y los bancos: pruebas impulsadas por Trump
La confirmación de Clark llega después de los informes de la semana pasada de que funcionarios de Trump estaban alentando a bancos como JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America y Morgan Stanley a probar el modelo Mythos.

Impacto de la IA en el empleo y la educación
Clark también abordó otros aspectos del impacto de la IA en la sociedad, como el desempleo y la educación superior. Anteriormente, el CEO de Anthropic, Dario Amodei, advirtió que los avances de la IA podrían llevar el desempleo a números de la era de la Depresión, pero Clark discrepa ligeramente.
Clark, que lidera un equipo de economistas en Anthropic, dijo que hasta ahora solo están viendo “alguna debilidad potencial en el empleo de graduados recientes” en industrias selectas. Sin embargo, señaló que Anthropic está preparada en caso de que haya cambios importantes en el empleo.
Al preguntarle qué carreras deberían seguir o evitar los estudiantes universitarios debido a los impactos de la IA, Clark sugirió que las más importantes son aquellas que “involucran síntesis a través de una variedad de temas y pensamiento analítico sobre eso”.

Conclusión: Un equilibrio delicado
La postura de Anthropic refleja el equilibrio delicado que las empresas de IA deben mantener entre la innovación, la seguridad nacional y las consideraciones éticas. A pesar de las disputas legales, la compañía insiste en que el gobierno debe estar informado sobre los avances en IA que podrían tener implicaciones significativas.