Ciberdelincuencia
Hackers estatales chinos lanzan un ataque sin precedentes mediante la utilización de la Inteligencia Artificial
30 objetivos en todo el mundo, incluyendo importantes empresas tecnológicas, sufrieron la infiltración

Un grupo de hackers patrocinado por el estado chino ha ejecutado lo que investigadores de seguridad denominan el primer ciberataque a gran escala documentado, ejecutado casi en su totalidad por inteligencia artificial. Los expertos advierten de que esto marca un cambio fundamental en el panorama de amenazas que enfrentan las agencias gubernamentales, las infraestructuras críticas y las empresas privadas.
Según un informe publicado por Anthropic, la empresa de inteligencia artificial cuyo modelo Claude fue explotado en los ataques, los cibercriminales manipularon esa herramienta de la empresa para infiltrarse de forma autónoma en aproximadamente 30 objetivos en todo el mundo, incluyendo importantes empresas tecnológicas, instituciones financieras, empresas químicas y agencias gubernamentales. La operación se detectó a mediados de septiembre de 2025 y se interrumpió tras una investigación de 10 días.
Lo que distingue a esta campaña de ataques anteriores asistidos por IA es su nivel de autonomía sin precedentes. Según el informe, la IA realizó entre el 80 % y el 90 % de las operaciones de ataque, con operadores humanos interviniendo solo en cuatro a seis puntos de decisión críticos por objetivo. El sistema de IA realizó tareas de reconocimiento, creó código de explotación personalizado, recopiló credenciales, se desplazó lateralmente a través de redes comprometidas y extrajo datos, todo ello con mínima intervención humana.
“En el punto máximo de su ataque, la IA realizó miles de solicitudes, a menudo varias por segundo, una velocidad de ataque que habría sido, para los piratas informáticos humanos, simplemente imposible de igualar”, subraya.
Los atacantes desarrollaron lo que los investigadores describen como un "marco de ataque": un sistema automatizado diseñado para comprometer objetivos con mínima intervención humana. Este marco aprovechó Claude Code, una herramienta de desarrollo diseñada para ayudar a los programadores con tareas de codificación, y la reconvirtió en una ciberarma autónoma.
Los actores emplearon una técnica conocida como "división de contexto", que consiste en dividir el ataque en pequeñas tareas aparentemente inocentes que, individualmente, parecían ser tareas de seguridad legítimas. Comandos como "escanear esta red" o "probar esta vulnerabilidad" no causaron ninguna alarma al analizarlos por separado. La intención maliciosa solo se manifestó cuando la secuencia general de acciones se ejecutó en conjunto y se consideró que constituía una sofisticada operación de espionaje.
Los atacantes también manipularon la IA estableciendo un contexto falso: le dijeron a Claude que era un empleado de una empresa legítima de ciberseguridad que realizaba pruebas defensivas autorizadas. Esta ingeniería social de un sistema de IA representa una nueva frontera en las tácticas adversarias.
Este incidente revela que las protecciones tradicionales a nivel de modelo son insuficientes; la barrera para llevar a cabo ciberataques sofisticados ha desaparecido. Lo que antes requería grandes equipos de operadores de élite con años de formación especializada ahora puede ser ejecutado por un único actor de amenazas con acceso al marco adecuado y una suscripción de IA, concluye.