Anthropic, una de las empresas referentes en los que va de 2026, denunció que tres empresas chinas de inteligencia artificial realizaron ataques de destilación contra su modelo Claude, con el objetivo de aprovechar sus capacidades y acelerar el desarrollo de sus propios sistemas.
La compañía acusó directamente a DeepSeek, Moonshot y MiniMax de ser responsables de estas prácticas.
La técnica de destilación consiste en transferir el conocimiento de un modelo más avanzado hacia otro más pequeño, que actúa como "alumno".
En este caso, Anthropic sostiene que los laboratorios chinos usaron Claude como "profesor" para entrenar sus redes neuronales, imitando sus predicciones y resultados.
Según la denuncia, las compañías involucradas habrían creado alrededor de 24.000 cuentas falsas para interactuar con Claude y lanzar más de 16 millones de solicitudes. Anthropic pudo determinar las siguientes operaciones:
- DeepSeek: buscaba que Claude detallara el proceso lógico detrás de respuestas complejas. Con esa información, generaba insumos de entrenamiento que luego aplicaba en el desarrollo de sus propios modelos.
- MiniMax: Acumuló más de 13 millones de interacciones para comprender cómo se codifica el comportamiento de agentes y cómo se organizan distintas herramientas dentro del sistema, con el fin de replicar esas dinámicas.
- Moonshot AI: Concretó más de 3,4 millones de intercambios. El foco fue explorar el razonamiento de agentes, el uso de herramientas, el análisis de datos y la creación de agentes orientados a tareas informáticas específicas.
Anthropic denunció riesgos de seguridad nacional
Esta operación masiva, calificada como "campaña industrial", violó los términos de servicio y las restricciones de acceso regional impuestas por Anthropic.
"El volumen, la estructura y el enfoque de las solicitudes diferían de los patrones de uso habituales, lo que refleja una extracción deliberada de capacidades en lugar de un uso legítimo", explicó la compañía.
Además, Anthropic advirtió que este tipo de ataques no solo representan un perjuicio económico, al permitir que competidores se salten años de investigación, sino que también implican riesgos de seguridad nacional.
OpenAI y Google también denunciaron intentos de extracción de datos de sus sistemas por parte de actores extranjeros, prácticas que encendieron las alarmas en Estados Unidos, donde legisladores y expertos advierten sobre la necesidad de reforzar la protección de los modelos de inteligencia artificial frente a ataques coordinados.