Inteligencia artificial

FraudGPT y WormGPT: las alternativas 'malignas' a ChatGPT que ya usan los cibercriminales

Se trata de modelos de lenguaje que han sido entrenados con datos de malware, carecen de las restricciones de ChatGPT y permiten al usuario crear lo que quiera

FraudGPT y WormGPT: las alternativas 'malignas' a ChatGPT que ya usan los cibercriminales.
FraudGPT y WormGPT: las alternativas 'malignas' a ChatGPT que ya usan los cibercriminales.FreepikFreepik

ChatGPT y las inteligencias artificiales generativas fueron las tendencias tecnológicas de mayor impacto en 2023. Google, Meta, Microsoft y Apple se lanzaron a una carrera para desarrollar productos basados en diferentes modelos de lenguaje, pero no han sido los únicos que han visto sus enormes posibilidades. En la Dark Web ya circulan IAs generativas con el mismo funcionamiento que ChatGPT pero sin las restricciones que los desarrolladores establecen para evitar usos malintencionados o ilegales.

Dos de ellas son FraudGPT y WormGPT, dos chatbots entrenados con datos de malware y hacking que no ponen límites al usuario sobre lo que quiera hacer con ellos. La primera es la más reciente y fue identificada por investigadores de seguridad de Netenrich el pasado verano en foros de la Dark Web y en Telegram. Se desconoce qué modelo de lenguaje utiliza, pero se vende como una IA capaz de escribir código malicioso, crear malware indetectable, herramientas de hacking, webs fraudulentas para phishing, encontrar vulnerabilidades, ayudar a encontrar objetivos y aprender a hackear, entre otros propósitos. Un amplio abanico de actividades delictivas para las que el chatbot genera las respuestas inmediatamente.

Al igual que ChatGPT, cuya interfaz imita, se ofrece como un servicio de suscripción pero con un costo bastante superior al de la IA de OpenAI: 200 dólares al mes o 1.700 al año. Los investigadores de Netenrich la probaron y quedaron sorprendidos con sus capacidades para crear en un instante correos electrónicos fraudulentos para campañas de phishing perfectamente construidos y escritos, incluso indicando dónde debería insertarse el enlace fraudulento. Quien lo vende en la Dark Web lo hace bajo el seudónimo CanadianKingping y aseguraba el pasado julio tener más de 3.000 clientes. De ser cierta la cifra, le supondrían unos ingresos superiores a los 600.000 dólares mensuales.

WormGPT es una IA algo más antigua que los investigadores han vinculado al mismo seudónimo. Está enfocada a la creación de correos electrónicos y SMS fraudulentos y se creó en marzo de 2021 usando el modelo de lenguaje GPT-J, un LLM (siglas en inglés de Modelo de Lenguaje Grande) de código abierto desarrollado por la empresa EleutherAI y equiparable a GPT-3 de OpenAI. Comenzó a comercializarse en un popular foro hacker en junio de ese mismo año por un precio de entre 60-100 euros mensuales o 550 por un año completo.

Este nuevo tipo de herramientas, aunque aún están en sus primeros pasos, preocupan a los expertos en ciberseguridad. Con ellas, es posible crear campañas de phishing muy rápidamente, adaptadas a cada objetivo sin esfuerzo y sin los fallos habituales que ayudan a detectarlas, como los de expresión o webs fraudulentas chapuceras. Un ejemplo lo da el Centro de Seguridad Cibernética de Holanda que señala como “es posible que un LLM primero lea todos los perfiles de LinkedIn de una organización y luego redacte un correo electrónico muy específico para cada empleado. Todo ello en impecable inglés u holandés, adaptado a los intereses específicos del destinatario”.