Problemas de seguridad y filtraciones en Anthropic: ¿La empresa ‘cuidadosa’ de IA pierde su toque?
Anthropic ha construido su identidad pública en torno a la idea de ser la empresa cuidadosa de la inteligencia artificial. Publica investigaciones detalladas sobre riesgos de IA, emplea a algunos de los mejores investigadores y ha sido vocal sobre las responsabilidades que conlleva construir tecnología tan poderosa. Sin embargo, en la última semana, ha sufrido dos incidentes de seguridad que ponen en duda esa reputación.
Primera filtración: archivos internos expuestos
El jueves pasado, según reportó Fortune, Anthropic accidentalmente hizo públicos casi 3,000 archivos internos, incluyendo un borrador de una publicación de blog que describía un nuevo y potente modelo que la compañía aún no había anunciado.
Segunda filtración: el código fuente de Claude Code expuesto
Este martes 31 de marzo de 2026, al lanzar la versión 2.1.88 de su paquete de software Claude Code, Anthropic incluyó accidentalmente un archivo que expuso casi 2,000 archivos de código fuente y más de 512,000 líneas de código. Esto esencialmente reveló el plano arquitectónico completo de uno de sus productos más importantes.
Un investigador de seguridad llamado Chaofan Shou lo notó casi inmediatamente y publicó sobre ello en X. La declaración de Anthropic a varios medios fue:
«Esto fue un problema de empaquetamiento de lanzamiento causado por error humano, no una brecha de seguridad.»
¿Qué es Claude Code y por qué es importante?
Claude Code no es un producto menor. Es una herramienta de línea de comandos que permite a los desarrolladores usar la IA de Anthropic para escribir y editar código, y se ha vuelto lo suficientemente formidable como para inquietar a los rivales. Según el WSJ, OpenAI canceló su producto de generación de video Sora solo seis meses después de lanzarlo al público para reenfocar sus esfuerzos en desarrolladores y empresas, en parte como respuesta al creciente impulso de Claude Code.

¿Qué se filtró exactamente?
Lo que se filtró no fue el modelo de IA en sí, sino el andamiaje de software que lo rodea: las instrucciones que le dicen al modelo cómo comportarse, qué herramientas usar y cuáles son sus límites. Los desarrolladores comenzaron a publicar análisis detallados casi de inmediato, con uno describiendo el producto como
«una experiencia de desarrollador de grado de producción, no solo un envoltorio alrededor de una API».
Si esto tendrá consecuencias duraderas es una pregunta que queda para los desarrolladores. Los competidores pueden encontrar la arquitectura instructiva, pero el campo se mueve rápido.
Mientras tanto, en Anthropic, se puede imaginar que un ingeniero muy talentoso ha pasado el resto del día preguntándose silenciosamente si todavía tiene un trabajo. Y solo se puede esperar que no sea el mismo ingeniero, o equipo de ingeniería, de la semana pasada.