Cargando...

Hackers

Confirmado por sus creadores: la IA se convierte en la nueva arma de los hackers chinos

La compañía creadora del chatbot Claude, Anthropic, ha revelado que operadores vinculados a China explotaron su agente de IA para ejecutar ciberataques sin intervención humana significativa

Anthropic advierte de que Claude se ha usado para dar "asesoramiento técnico y apoyo operativo" a ciberdelincuentes EUROPAPRESS

En la actualidad la ciberseguridad atraviesa una fase de tensión creciente, pues debido a que se ha convertido en infraestructura crítica para empresas, gobiernos y usuarios, las compañías creadoras de chatbots avanzados, como OpenAI, Meta, Google o Anthropic, se han convertido en objetivos prioritarios para grupos de ciberdelincuentes que buscan infiltrarse en sus sistemas, robar información sensible o comprometer sus modelos. De hecho, en el último año, la frecuencia y sofisticación de los ataques ha aumentado notablemente.

El turno ahora le ha tocado, precisamente, a Anthropic, que ha anunciado a través de su cuenta de X que un grupo de hackers, presuntamente vinculado con el gobierno chino, empleó su herramienta de codificación basada en IA para atacar a unas 30 organizaciones internacionales, entre las cuales se encuentran otras empresas tecnológicas, instituciones financieras, fabricantes de químicos y agencias gubernamentales.

Igualmente, la compañía ha señalado que se trataría del primer caso documentado en el que un Estado extranjero automatiza íntegramente una operación cibernética mediante un sistema de IA que requirió de una investigación interna cuya duración fue de diez días e implicó el bloqueo de cuentas maliciosas, la emisión de alertas a las pitenciales víctimas y la comunicación de sus hallazgos con las autoridades correspondientes.

La operación en sí fue exitosa, aunque con errores

La situación fue detectada a mediados de septiembre y, no obstante, a pesar de la rápida respuesta, cuatro ataques habrían logrado penetrar con éxito en organizaciones internacionales, lo que evidenció la velocidad y alcance que puede lograr un agente de IA empleado con fines ofensivos.

A pesar de la gravedad general de la situación, el actor automatizado sufrió múltiples fallos, como la generación de credenciales falsas sin utilidad y la obtención de documentos que ya eran públicos. Si bien esto ha revelado las limitaciones de la autonomía actual, el incidente ha dejado claro que incluso con errores, la IA ya es capaz de ejecutar oeraciones ofensivas de gran escala a una velocidad muy superior a la humana.

Las alarmas se han encendido: ¿espionaje automatizado, guerra digital?

Este escenario, sumado a los desafíos legales y la presión regulatoria que enfrentan empresas como OpenAI por el uso no autorizado de contenidos protegidos, revela un doble riesgo: la vulnerabilidad de los modelos de IA frente a usos maliciosos y la necesidad urgente de marcos legales y éticos claros para limitar su explotación en contextos de expionaje, guerra digital o ataques automatizados.

Por lo anterior, algunos expertos advierten que esta brecha podría contribuir al surgimiento de una nueva generación de ciberataques: más rápidos, difíciles de detectar y ejecutables con menor sofisticación técnica. De manera que, sugieren, reforzar la seguridad de los modelos, establecer protocolos de detección y delinear responsabilidades legales como mínimo para evitar, en lo posible, futuros conflictos digitales.