La aparición de la Inteligencia Artificial revolucionó la manera en que se hacían las tareas más repetitivas y ha sido de gran ayuda en la gestión y automatización de los procesos. No obstante, por desgracia, también la IA puede usarse para fines maliciosos y hasta ilegales que dañan a los usuarios.
Lo que parecía un futuro lejano controlado por las máquinas, pareciera que cada vez se está haciendo más realidad, sin embargo, poder usarlo a nuestro favor parece ser el denominador común aunque hay algunas excepciones que pueden afectar a algunas personas.
En este artículo hablaremos sobre qué es WormGPT y de cómo esta herramienta se utiliza en la actualidad para el cibercrimen. Se trata de un programa que se vende en el mercado negro y que tiene la finalidad de lanzar ataques masivos de pishing y afectar las redes de correo electrónico empresarial (BEC).
En la actualidad, algunos desarrolladores con fines dañinos han logrado que ChatGPT sea vulnerado o engañado para crear códigos maliciosos que son efectivos para algunos tipos de ciberataques. Para que prevengas este tipo de situación, sigue leyendo y aprende más sobre este tema que es interesante y útil para la seguridad en línea.
¿Qué es WormGPT?
WormGPT es un chatbot malicioso de inteligencia artificial (IA) basado en el modelo de lenguaje GPT-J (LLM) de código abierto, que puede interpretar y responder a texto en lenguaje natural en inglés, francés, chino, ruso, italiano y español.
Al parecer, este chatbot de IA se ha entrenado con datos de entrenamiento relacionados con malware y no tiene directrices de moderación de contenidos, lo que significa que puede ser utilizado por actores de amenazas para crear estafas de phishing y códigos maliciosos.
En una publicación de Twitter, los creadores de WormGPT compartieron un ejemplo en el que el asistente virtual generaba un script de Python para “obtener el número móvild de un transportista.”
🌟 New Feature!
We now have an awesome new feature where you can import the generated code straight into your VSCode making it even easier for you to use 👍
Buy/Questions – https://t.co/TZ1QstjUcH#WormGPT #AI #CyberSecurity #ChatGPT pic.twitter.com/dsHBNCIY2K
— WormGPT (@wormgpt) July 17, 2023
¿Qué riesgos presenta WormGPT. AI?
El 13 de julio, el proveedor de ciberseguridad de correo electrónico SlashNext publicó una entrada en su blog en la que destacaba el peligro de WormGPT y explicaba cómo los actores maliciosos de los foros de ciberdelincuencia comercializaban el producto como “una alternativa a ChatGPT” que “te permite hacer todo tipo de cosas ilegales y venderlas fácilmente en línea en el futuro”.
A continuación, los investigadores indujeron a WormGPT a escribir un correo electrónico que podría utilizarse en un ataque de compromiso de correo electrónico empresarial (BEC) para presionar a un gestor de cuentas a “pagar urgentemente una factura” mientras se hacía pasar por el director general de la empresa.
WormGPT ai introduce nuevos riesgos para las organizaciones porque permite a los ciberdelincuentes generar correos electrónicos fraudulentos, rápidamente y a gran escala, sin necesidad de conocimientos o experiencia en codificación. En cuestión de segundos, una persona puede introducir un mensaje y crear un correo electrónico fraudulento que puede utilizarse para engañar a los usuarios e infectar sus dispositivos con malware.
La capacidad de crear correos electrónicos fraudulentos a gran escala plantea nuevos retos para la ciberseguridad de las empresas, ya que los usuarios tienen que identificar correctamente los correos electrónicos fraudulentos cada vez, y los actores de amenazas sólo necesitan un clic para entrar en sus entornos.
ChatGPT frente a WormGPT: ¿Cuál es la diferencia?
ChatGPT es un LLM legítimo que fue desarrollado por OpenAI en noviembre de 2022 para procesar y predecir texto que cumple con una política de moderación de contenido.
Mientras tanto, la solución de WormGPT está diseñada para crear ataques BEC y de phishing sin ninguna directriz de moderación de contenidos (aunque sus creadores afirman que también puede utilizarse para ayudar a detectar ataques BEC).
Get access to our #WormGPT tool now 👍- https://t.co/TZ1QstjUcH#AI #CyberSecurity #ChatGPT #Chatbot #Hacking #Malware #Exploits #Learning #Worm pic.twitter.com/M65cdk3bNw
— WormGPT (@wormgpt) July 24, 2023
OpenAI pretende evitar el uso malicioso de ChatGPT a través de una política de moderación de contenidos que pretende evitar que el chatbot difunda discursos de odio o desinformación y que se utilice para desarrollar contenido malicioso.
Sin embargo, a pesar de que OpenAI se ha propuesto implementar barreras de seguridad para evitar el uso nocivo de su solución, los ciberdelincuentes todavía pueden utilizar una mezcla de ingeniería creativa y jailbreaks para eludir las directrices de moderación de contenidos del proveedor y crear correos electrónicos de phishing y códigos maliciosos.
Por ejemplo, a principios de este año, los usuarios de Reddit desarrollaron una solución llamada Do Anything Now (o DAN), un asistente que “se ha liberado de los confines típicos de la IA y no tiene que acatar las reglas establecidas para ellos”.
Después de hacer jailbreak a la herramienta, un usuario puede explotarla y utilizarla para crear contenido ofensivo o incluso redactar correos electrónicos de phishing. Cabe señalar que LLMS puede ser una herramienta valiosa para los hablantes no nativos que quieran traducir un correo electrónico de phishing a otro idioma para hacerlo lo más convincente posible.
En el pasado, organizaciones como Europol advirtieron sobre el riesgo de herramientas como WormGPT y su capacidad para crear ciberataques automatizados, afirmando que “los LLM oscuros entrenados para facilitar resultados dañinos pueden convertirse en un modelo de negocio criminal clave del futuro.”
“Por lo que será más fácil que nunca para los actores maliciosos perpetrar actividades delictivas sin necesidad de conocimientos previos.”
¿Cómo pueden las organizaciones mitigar los riesgos de herramientas como WormGPT?
WormGPT es sólo una de las muchas nuevas herramientas maliciosas impulsadas por LLM, como FraudGPT, que pretenden utilizar la IA generativa para ayudar a los usuarios a cometer ciberdelitos. Es poco probable que estas herramientas sean las últimas en utilizar LLM en un contexto delictivo, por lo que las organizaciones deben estar preparadas para hacer frente a un repunte de los ataques de phishing y malware generados por IA.
Las organizaciones pueden intentar protegerse tomando las siguientes medidas:
- Impartir formación sobre simulaciones de phishing para enseñar a los empleados a detectar estafas de phishing;
- Aconsejar a los empleados que no hagan clic en enlaces o archivos adjuntos en correos electrónicos o mensajes SMS de remitentes desconocidos;
- Activar la autenticación multifactor (MFA) en las cuentas de usuario para aislarse del riesgo de robo de credenciales;
- Definir un proceso para informar de los intentos de phishing al equipo de seguridad;
- Configurar la autenticación y conformidad de mensajes basada en dominios (DMARC) para evitar que los piratas informáticos suplanten el dominio de su empresa;
- Desplegar un filtro antispam para reducir el volumen de correos electrónicos de phishing que llegan a los usuarios finales;
- Instale antimalware en los dispositivos de los usuarios finales para reducir el riesgo de infección.
Uso de LLM para la ciberdelincuencia
WormGPT es sólo una de las muchas herramientas que intentan convertir en arma la IA generativa. A medida que aumenta la adopción de la IA, las organizaciones deben estar preparadas para hacer frente a un aumento de BEC y estafas de phishing, de lo contrario, corren el riesgo de una violación de datos.
Centrarse en la concienciación de los usuarios y educar a los empleados sobre cómo detectar los ataques de phishing es la clave para mitigar los riesgos de los ataques BEC en el futuro.
Los usuarios particulares también tienen un gran deber y responsabilidad, tiene que estar informado de los últimos avances en IA y otras tecnologías para minimizar riesgos.
Qué hace ChatGPT y WormGPT
Algunos usuarios denominan a WormGPT como el «Gemelo maléfico» de ChatGPT, lo que te da una idea de lo opuesto que son ambos programas. Para empezar, WormGPT es un modelo de IA generativa basada en el lenguaje GPT-J1, pero que ha sido entrenado con fines maliciosos, al exponerlo a distintos virus y malware.
La principal diferencia entre ellos, es que aunque ambos pueden crear textos coherentes y contextualmente relevantes de forma natural, WormGPT ha sido diseñado con mayor enfoque en el ciberataque por medio de virus informáticos.
Por otra parte, se trata de un programa que no tiene desarrollador conocido y es promovido en foros de hackers. Un caso muy distinto al de ChatGPT, cuyo desarrollador es OpenAI, que es una organización de investigación en inteligencia y además se adquiere de manera legal.
¿Qué más puede hacer WormGPT? Pues, puede generar texto en lenguaje natural, soportar caracteres ilimitados, retener memoria de chat y formatear código, pero con datos obtenidos en su mayoría de la dark web.
No es un secreto que en cuanto a su uso, WormGPT ha sido utilizado por ciberdelincuentes para lanzar ataques cibernéticos, lo que lo convierte en una herramienta peligrosa para actividades maliciosas e ilegales.
Para que tengas un panorama más claro de las diferencias entre ambos programas, a continuación, te dejamos una tabla comparativa que te será de mucha utilidad:
Característica principal
WormGPT
ChatGPT
Propósito
Se usa para actividades maliciosas (malware, phishing)
Asistencia conversacional y generación de contenido ético
Desarrollador
No tiene un desarrollador oficial conocido
OpenAI
Ética y seguridad
Está diseñado sin restricciones éticas ni de seguridad
Implementa restricciones para evitar el uso indebido de la herramienta
Capacidades
Generación de texto, soporte para caracteres ilimitados, retención de memoria de chat, formateo de código
Generación de texto, respuesta a preguntas, asistencia en programación, creador de imágenes, SEO y más
Acceso y uso
Disponible en la dark web, uso ilegal y se distribuye en los foros de hackers
Disponible públicamente a través de plataformas oficiales, uso legal y regulado
Restricciones
Ninguna, permite actividades ilegales
Restricciones para evitar actividades ilegales y maliciosas