Anthropic acusa a DeepSeek de robar la tecnología de Claude con cuentas falsas

Anthropic acusa a DeepSeek, MiniMax y Moonshot AI de usar 24,000 cuentas falsas para clonar la tecnología de Claude mediante destilación.

Por Jonathan Paz el 23 febrero, 2026

💡 Resumen (TL;DR):

  • Anthropic denunció a DeepSeek, MiniMax y Moonshot AI por extraer las capacidades de su modelo de lenguaje.
  • Las compañías asiáticas utilizaron 24,000 cuentas fraudulentas para lanzar más de 16 millones de peticiones.
  • Google y OpenAI reportaron incidentes similares, advirtiendo graves riesgos de seguridad nacional.

Anthropic denunció que tres compañías chinas de inteligencia artificial utilizaron aproximadamente 24,000 cuentas falsas para extraer las capacidades de su chatbot Claude. La operación coordinada busca entrenar modelos rivales y saltarse años de investigación, un movimiento que encendió las alertas de seguridad en Estados Unidos.

El reporte señala directamente a MiniMax, Moonshot AI y DeepSeek. Según los datos obtenidos por The Wall Street Journal y Fox News Digital, las firmas asiáticas ejecutaron más de 16 millones de interacciones contra el sistema de Anthropic. MiniMax acaparó más de 13 millones de peticiones, Moonshot AI superó los 3.4 millones, mientras que DeepSeek registró 150,000.

El equipo de seguridad detectó estas campañas rastreando elementos que se desviaban del tráfico normal de los usuarios. Los indicadores de la ofensiva incluyeron:

  • Correlaciones de direcciones IP.
  • Metadatos de las peticiones.
  • Indicadores de infraestructura.

Los atacantes ignoraron las consultas casuales de los consumidores para apuntar a las funciones más avanzadas del software, como el razonamiento complejo, la programación y el uso de herramientas.

“Tenemos una gran confianza en que estos laboratorios estaban llevando a cabo ataques de destilación a escala”, declaró Jacob Klein, jefe de inteligencia de amenazas de Anthropic.

La destilación es una técnica de machine learning que utiliza los resultados de un modelo más potente para entrenar a un sistema menos capaz. Los laboratorios de frontera emplean este método internamente, pero Anthropic acusa que estas campañas externas no estaban autorizadas.

La industria bajo asedio

La compañía advirtió que los modelos clonados mediante estas tácticas pierden sus barreras de seguridad originales, lo que representa una amenaza a nivel federal.

“Los laboratorios extranjeros que destilan modelos estadounidenses pueden luego incorporar estas capacidades sin protección en sistemas militares, de inteligencia y de vigilancia, permitiendo a gobiernos autoritarios desplegar IA de frontera para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva”, advirtió Anthropic en su comunicado.

El incidente forma parte de una ofensiva masiva contra el sector tech estadounidense. A principios de mes, OpenAI envió un memorando a la Cámara de Representantes acusando a DeepSeek de emplear métodos sofisticados de destilación.

El mismo día del anuncio de Anthropic, el Grupo de Inteligencia de Amenazas de Google confirmó que detectó más de 100,000 peticiones dirigidas contra Gemini para replicar sus capacidades de razonamiento. Google atribuyó la actividad tanto a empresas del sector privado como a actores alineados con el Estado.

“Vamos a ser el canario en la mina de carbón para muchos más incidentes”, alertó John Hultquist, analista jefe del Grupo de Inteligencia de Amenazas de Google.

El robo sistemático de datos subraya que el dominio en el mercado de la IA ya no depende exclusivamente del hardware o los procesadores más potentes. El frente principal ahora es defender el código y la propiedad intelectual contra competidores dispuestos a forzar el sistema para cerrar la brecha tecnológica.

Contenido recomendado