Hay un "gemelo maligno" de ChatGPT diseñado para crear ciberestafas. Cuesta 200 euros al mes en la dark web

  • FraudGPT y WormGPT son dos modelos de que permiten crear scripts y correos maliciosos

  • Los ciberdelincuentes tienen acceso a estas herramientas desde 200 dólares al mes

Mohammad Rahmani Hacker Dark Web
4 comentarios Facebook Twitter Flipboard E-mail

La IA también está revolucionando el mundo de las ciberdelincuencia. Para crear nuevos malware, para engañar a usuarios, generar campañas de desinformación o para crear videollamadas falsas. Todo a golpe de clic. Pero no desde ChatGPT, donde OpenAI establece unos límites e impide realizar determinadas acciones, sino a través de FraudGPT y WormGPT, dos modelos de IA disponibles en la DarkWeb y creados para satisfacer las necesidades de los cibercriminales.

Los gemelos malignos de ChatGPT. Según describen investigadores en un informe publicado en IJSR CSEIT, FraudGPT supone un punto de inflexión en los ciberataques maliciosos. Estamos ante una herramienta de IA generativa, por suscripción, que permite crear correos de phishing muy convincentes o páginas web falsas. FraudGPT fue descubierto por la plataforma Netenrich en julio de 2023, a través de la DarkWeb y canales de Telegram.

Otra IA similar es WormGPT, que permite crear correos de phishing de forma sencilla. El origen de este LLM se basa en GPT-J, un modelo abierto creado por EleutherAI en 2021 y con una cantidad de parámetros equivalente a GPT-3.

Desde 200 dólares al mes. FraudGPT no es gratuita. Como la versión de OpenAI, tiene un coste al mes. Los cibercriminales están pagando por ella unos 200 dólares al mes o unos 1.700 dólares al año. Algo más económico es la versión más antigua de WormGPT, disponible desde unos 60 euros al mes y hasta 550 euros al año, según describen desde Trustwave. En el caso de WormGPT, se ofrece una versión v2 más actualizada que puede personalizarse por 5.000 euros.

Fraudgpt

Pidiendo scripts maliciosos que en ChatGPT están suavizados. FraudGPT se describe como una IA para escribir código malicioso, crear malware indetectable, crear páginas de phishing, herramientas de hackeo o escribir correos de estafas.

Los investigadores de Trustwave han probado la herramienta y la han comparado con ChatGPT, obteniendo resultados muy diferentes. Aunque ChatGPT sí ofrece el código y el correo de phishing (tras varios intentos y un poco de ingeniería con el prompt), lo hace con un mensaje de advertencia y el correo de phishing no es tan convincente.

Los ciberatacantes ya no cometen faltas de ortografía. "Atrás quedaron los días en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos", explica Fernando Anaya, de la firma de seguridad Proofpoint a El País.

Herramientas como FraudGPT permiten a los ciberdelincuentes crear correos maliciosos en cualquier idioma, con un lenguaje prácticamente perfecto.

Un campo por explotar. La IA abre nuevas posibilidades a los cibercriminales y las empresas de ciberseguridad son muy conscientes de ello. Según describe Zac Amos, de ReHack: "FraudGPT es un importante recordatorio de cómo los ciberdelincuentes seguirán cambiando sus técnicas para lograr el máximo impacto".

Imagen | Mohammad Rahmani

En Xataka | Cómo entrar en la Deep Web: guía para entrar en TOR, ZeroNet, Freenet e I2P

Inicio