Inteligencia Artificial

Guerra abierta en el mercado de la IA: Anthropic acusa a compañías chinas como Deepseek de servirse de Claude para entrenar sus modelos

A través de 24.000 cuentas faltas DeepSeek, Moonshot y MiniMax habrían empleado la técnica de la "destilación" para entrenar a sus modelos con capacidades de Claude

Errol Musk en el podcast Wide Awake
Anthropic acusa a empresas chinas de aprovecharse de Claude para entrenar sus modelos

La inteligencia artificial sigue siendo el tablero en el que se dirime la batalla geopolítica que enfrenta desde tiempo atrás a Estados Unidos y China. El último episodio de esa guerra de acusaciones lo protagoniza Anthropic, empresa estadounidense de investigación y seguridad en inteligencia artificial, que ha puesto en el punto de mira las prácticas de entidades asiáticas para perfeccionar sus modelos.

En el día de ayer la compañía que preside Darío Amodei lanzó un comunicado en el que acusa a las empresas DeepSeek, Moonshot y MiniMax de valerse de manera indebida de la familia de modelos de lenguaje de inteligencia artificial Claude para perfeccionar sus propios modelos a través de una técnica conocida como "destilación".

Entrenar modelos pequeños a partir de capacidades de otros más desarrollados

Anthropic expuso en su nota pública que había podido identificar "campañas a escala industrial" por parte de los tres actores mencionados. En el comunicado, Anthropic refleja que "Estos laboratorios crearon más de 24.000 cuentas fraudulentas y generaron más de 16 millones de intercambios con Claude, extrayendo sus capacidades para entrenar y mejorar sus propios modelos".




El método empleado para esa extracción ilegítima es lo que se conoce como destilación, que consiste en extraer información de un modelo superior para entrenar otros de menor capacidad. Pese a que, como reconoce Anthropic, "la destilación es un método de entrenamiento ampliamente utilizado y legítimo", también apunta que dicho mecanismo puede ser empleado para fines ilícitos y suponer un riesgo a la seguridad nacional.

La acusación de Anthropic contra Deepseek, MiniMax y Moonshot, que recientemente ha lanzado la nueva versión de su LLM Kimi K2.5, pone en el foco ese riesgo a la seguridad nacional que puede provocar una destilación de sus modelos alejada de las salvaguardas necesarias.

Y es que Claude, junto a otros modelos de diversas compañías de IA, está sirviendo como motor en proyectos enfocados en materia de seguridad y defensa, a través de los cuales construyen sistemas que impiden que actores estatales y no estatales utilicen la IA en campos como el desarrollo de armas biológicas o para impedir el aumento de ataques maliciosos en línea en el nuevo de campo de batalla en el que se ha convertido el mundo cibernético.

La seguridad, en el punto de mira

La propia Anthropic reconoce que, a través de ese empleo de Claude como fuente de capacitación, la competencia puede "eliminar las salvaguardas e incorporar capacidades modelo a sus propios sistemas militares, de inteligencia y de vigilancia". En su informe acerca de la campaña detectada, la compañía fundada por Darío Amodei apunta unos datos que refuerzan su acusación.

Por ejemplo apunta que DeepSeek llevó a cabo 150.000 intercambios con Claude para extraer patrones acerca de su capacidad de razonamiento así como para obtener respuestas que no se vieran limitadas por la censura ante "consultas políticamente sensibles", tales como preguntas sobre disidentes, líderes de partidos o autoritarismo. Los intercambios de Moonshot AI fueron mucho mayores, escalando a los 3,4 millones de intercambios, pero lejos de los 13 millones que ejecutó, según los datos aportados por Anthropic, MiniMax, buscando información sobre codificación agéntica y uso y orquestación de herramientas.

Se trata de un episodio denunciado por Anthropic que, sin embargo, no deja de tener cierto punto de ironía, toda vez que los grandes modelos de lenguaje como Claude o ChatGPT se han servido de grandes cantidades de información como libros y otras obras protegidas por derechos de autor para entrenar a sus modelos.