Anthropic Denuncia Ataques de Distillation por Parte de Empresas Chinas de IA
La empresa de inteligencia artificial Anthropic ha acusado a tres compañías chinas de IA —DeepSeek, Moonshot AI y MiniMax— de establecer más de 24,000 cuentas falsas con su modelo Claude para mejorar sus propios modelos mediante una técnica llamada distillation.

Según Anthropic, estos laboratorios generaron más de 16 millones de intercambios con Claude, apuntando específicamente a sus capacidades más diferenciadas: razonamiento agéntico, uso de herramientas y codificación.
Detalles de los Ataques por Empresa
- DeepSeek: Más de 150,000 intercambios enfocados en mejorar la lógica fundacional y la alineación, especialmente en alternativas seguras a consultas sensibles a políticas.
- Moonshot AI: Más de 3.4 millones de intercambios dirigidos a razonamiento agéntico, uso de herramientas, codificación, análisis de datos, desarrollo de agentes de uso informático y visión por computadora.
- MiniMax: Unos 13 millones de intercambios centrados en codificación agéntica, uso de herramientas y orquestación. Anthropic observó que MiniMax redirigió casi la mitad de su tráfico para extraer capacidades del último modelo Claude al ser lanzado.
La Técnica de Distillation y su Impacto
La distillation es un método común de entrenamiento que los laboratorios de IA usan en sus propios modelos para crear versiones más pequeñas y económicas. Sin embargo, competidores pueden utilizarlo para copiar efectivamente el trabajo de otros.
OpenAI ya había acusado a DeepSeek de usar distillation para imitar sus productos, según un memo enviado a legisladores de la Cámara de Representantes a principios de este mes.

Debate sobre Exportaciones de Chips de IA
Estas acusaciones surgen en medio de un intenso debate sobre la aplicación de controles de exportación de chips de IA avanzados desde Estados Unidos hacia China. La administración Trump permitió formalmente el mes pasado que empresas como Nvidia exporten chips avanzados de IA (como el H200) a China.
Críticos argumentan que este relajamiento aumenta la capacidad computacional de China en IA en un momento crítico de la carrera global por la dominancia en IA.
Anthropic señala que la escala de extracción realizada por DeepSeek, MiniMax y Moonshot requiere acceso a chips avanzados.
«Los ataques de distillation refuerzan la lógica de los controles de exportación: el acceso restringido a chips limita tanto el entrenamiento directo de modelos como la escala de la distillation ilícita,» según el blog de Anthropic.

Riesgos para la Seguridad Nacional
Anthropic advierte que la distillation no solo amenaza la dominancia estadounidense en IA, sino que también podría crear riesgos de seguridad nacional. «Los modelos construidos mediante distillation ilícita es poco probable que retengan esas salvaguardas, lo que significa que capacidades peligrosas pueden proliferar con muchas protecciones eliminadas por completo,» se lee en la publicación.
La empresa apunta a gobiernos autoritarios que despliegan IA fronteriza para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva, un riesgo que se multiplica si esos modelos son de código abierto.
Respuesta de la Industria
Dmitri Alperovitch, presidente del think-tank Silverado Policy Accelerator y cofundador de CrowdStrike, expresó que no le sorprenden estos ataques. «Ha estado claro durante un tiempo que parte de la razón del rápido progreso de los modelos chinos de IA ha sido el robo mediante distillation de los modelos fronterizos de EE.UU. Ahora sabemos esto como un hecho,» dijo Alperovitch. «Esto debería darnos razones aún más convincentes para negarnos a vender cualquier chip de IA a cualquiera de estas [empresas], lo que solo las advantajaría más.»
Anthropic afirma que continuará invirtiendo en defensas para hacer que los ataques de distillation sean más difíciles de ejecutar y más fáciles de identificar, pero hace un llamado a una respuesta coordinada en toda la industria de IA, proveedores de nube y formuladores de políticas.
Este caso subraya la tensión entre la competencia tecnológica y la seguridad nacional en el desarrollo de la inteligencia artificial.