WormGPT

Fiabilidad

La aparición de la Inteligencia Artificial revolucionó la manera en que se hacían las tareas más repetitivas y ha sido de gran ayuda en la gestión y automatización de los procesos. No obstante, por desgracia, también la IA puede usarse para fines maliciosos y hasta ilegales que dañan a los usuarios. 

En este artículo hablaremos sobre qué es WormGPT y de cómo esta herramienta se utiliza en la actualidad para el cibercrimen. Se trata de un programa que se vende en el mercado negro y qye tiene la finalidad de lanzar ataques masivos de pishing y afectar las redes de correo electrónico empresarial (BEC).

En la actualidad, algunos desarrolladores con fines dañinos han logrado que ChatGPT sea vulnerado o engañado para crear códigos maliciosos que son efectivos para algunos tipos de ciberataques. Para que prevengas este tipo de situación, sigue leyendo y aprende más sobre este tema que es interesante y útil para la seguridad en línea. 

¿Qué es WormGPT?

WormGPT es un chatbot malicioso de inteligencia artificial (IA) basado en el modelo de lenguaje GPT-J (LLM) de código abierto, que puede interpretar y responder a texto en lenguaje natural en inglés, francés, chino, ruso, italiano y español.

Al parecer, este chatbot de IA se ha entrenado con datos de entrenamiento relacionados con malware y no tiene directrices de moderación de contenidos, lo que significa que puede ser utilizado por actores de amenazas para crear estafas de phishing y códigos maliciosos.

En una publicación de Twitter, los creadores de WormGPT compartieron un ejemplo en el que el asistente virtual generaba un script de Python para “obtener el número móvild de un transportista.”

 

¿Qué riesgos presenta WormGPT. AI?

El 13 de julio, el proveedor de ciberseguridad de correo electrónico SlashNext publicó una entrada en su blog en la que destacaba el peligro de WormGPT y explicaba cómo los actores maliciosos de los foros de ciberdelincuencia comercializaban el producto como “una alternativa a ChatGPT” que “te permite hacer todo tipo de cosas ilegales y venderlas fácilmente en línea en el futuro”.

A continuación, los investigadores indujeron a WormGPT a escribir un correo electrónico que podría utilizarse en un ataque de compromiso de correo electrónico empresarial (BEC) para presionar a un gestor de cuentas a “pagar urgentemente una factura” mientras se hacía pasar por el director general de la empresa.

WormGPT ai introduce nuevos riesgos para las organizaciones porque permite a los ciberdelincuentes generar correos electrónicos fraudulentos, rápidamente y a gran escala, sin necesidad de conocimientos o experiencia en codificación. En cuestión de segundos, una persona puede introducir un mensaje y crear un correo electrónico fraudulento que puede utilizarse para engañar a los usuarios e infectar sus dispositivos con malware.

La capacidad de crear correos electrónicos fraudulentos a gran escala plantea nuevos retos para la ciberseguridad de las empresas, ya que los usuarios tienen que identificar correctamente los correos electrónicos fraudulentos cada vez, y los actores de amenazas sólo necesitan un clic para entrar en sus entornos.

ChatGPT frente a WormGPT: ¿Cuál es la diferencia?

ChatGPT es un LLM legítimo que fue desarrollado por OpenAI en noviembre de 2022 para procesar y predecir texto que cumple con una política de moderación de contenido.

Mientras tanto, la solución de WormGPT está diseñada para crear ataques BEC y de phishing sin ninguna directriz de moderación de contenidos (aunque sus creadores afirman que también puede utilizarse para ayudar a detectar ataques BEC).

OpenAI pretende evitar el uso malicioso de ChatGPT a través de una política de moderación de contenidos que pretende evitar que el chatbot difunda discursos de odio o desinformación y que se utilice para desarrollar contenido malicioso.

Sin embargo, a pesar de que OpenAI se ha propuesto implementar barreras de seguridad para evitar el uso nocivo de su solución, los ciberdelincuentes todavía pueden utilizar una mezcla de ingeniería creativa y jailbreaks para eludir las directrices de moderación de contenidos del proveedor y crear correos electrónicos de phishing y códigos maliciosos.

Por ejemplo, a principios de este año, los usuarios de Reddit desarrollaron una solución llamada Do Anything Now (o DAN), un asistente que “se ha liberado de los confines típicos de la IA y no tiene que acatar las reglas establecidas para ellos”.

Después de hacer jailbreak a la herramienta, un usuario puede explotarla y utilizarla para crear contenido ofensivo o incluso redactar correos electrónicos de phishing. Cabe señalar que LLMS puede ser una herramienta valiosa para los hablantes no nativos que quieran traducir un correo electrónico de phishing a otro idioma para hacerlo lo más convincente posible.

En el pasado, organizaciones como Europol advirtieron sobre el riesgo de herramientas como WormGPT y su capacidad para crear ciberataques automatizados, afirmando que “los LLM oscuros entrenados para facilitar resultados dañinos pueden convertirse en un modelo de negocio criminal clave del futuro.”

“Por lo que será más fácil que nunca para los actores maliciosos perpetrar actividades delictivas sin necesidad de conocimientos previos.”

 

¿Cómo pueden las organizaciones mitigar los riesgos de herramientas como WormGPT?

WormGPT es sólo una de las muchas nuevas herramientas maliciosas impulsadas por LLM, como FraudGPT, que pretenden utilizar la IA generativa para ayudar a los usuarios a cometer ciberdelitos. Es poco probable que estas herramientas sean las últimas en utilizar LLM en un contexto delictivo, por lo que las organizaciones deben estar preparadas para hacer frente a un repunte de los ataques de phishing y malware generados por IA.

Las organizaciones pueden intentar protegerse tomando las siguientes medidas:

  • Impartir formación sobre simulaciones de phishing para enseñar a los empleados a detectar estafas de phishing;
  • Aconsejar a los empleados que no hagan clic en enlaces o archivos adjuntos en correos electrónicos o mensajes SMS de remitentes desconocidos;
  • Activar la autenticación multifactor (MFA) en las cuentas de usuario para aislarse del riesgo de robo de credenciales;
  • Definir un proceso para informar de los intentos de phishing al equipo de seguridad;
  • Configurar la autenticación y conformidad de mensajes basada en dominios (DMARC) para evitar que los piratas informáticos suplanten el dominio de su empresa;
  • Desplegar un filtro antispam para reducir el volumen de correos electrónicos de phishing que llegan a los usuarios finales;
  • Instale antimalware en los dispositivos de los usuarios finales para reducir el riesgo de infección.

Uso de LLM para la ciberdelincuencia

WormGPT es sólo una de las muchas herramientas que intentan convertir en arma la IA generativa. A medida que aumenta la adopción de la IA, las organizaciones deben estar preparadas para hacer frente a un aumento de BEC y estafas de phishing, de lo contrario, corren el riesgo de una violación de datos.

Centrarse en la concienciación de los usuarios y educar a los empleados sobre cómo detectar los ataques de phishing es la clave para mitigar los riesgos de los ataques BEC en el futuro.

Temas relacionados

Tim Keary
Technology Specialist
Tim Keary
Editor

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.