Un informe publicado hoy por el servicio de Inteligencia de Huella Digital de Kaspersky ha encontrado casi 3.000 mensajes en la web oscura en 2023 en los que se hablaba de cómo utilizar ChatGPT y otros grandes modelos de lenguaje (LLM) para actividades ilegales.
Estos debates incluían la creación de alternativas maliciosas a los chatbots, técnicas de jailbreaking, listas de mensajes maliciosos y otras conversaciones generales sobre cómo hacer un mal uso de las herramientas, junto con 3.000 mensajes que hablaban de cuentas robadas con acceso a la versión de pago de ChatGPT.
Puntos clave
- El servicio de Inteligencia de la Huella Digital de Kaspersky descubrió casi 3.000 publicaciones en la web oscura en 2023 en las que se hablaba de actividades ilegales relacionadas con ChatGPT y otros grandes modelos de lenguaje (LLM).
- Entre ellas se incluyen la creación de versiones maliciosas, técnicas de jailbreaking, listas de mensajes dañinos y discusiones sobre cuentas robadas.
- Los actores de amenazas de la dark web comparten activamente conocimientos sobre la explotación de ChatGPT, debatiendo temas como la creación de malware, el uso de inteligencia artificial para procesar los volcados de datos de los usuarios y el intercambio de jailbreaks para eludir las políticas de moderación de contenidos.
La investigación también encontró un alto volumen de conversaciones en torno a herramientas como WormGPT, XXXGPT y FraudGPT, que se comercializaban como alternativas a ChatGPT con menos restricciones.
La investigación de Kaspersky llega justo después de que OpenAI suspendiera a un desarrollador por crear un chatbot que imitaba al congresista estadounidense Dean Philips, un acto que, según la organización, infringía sus normas sobre campañas políticas o suplantación de identidad sin consentimiento.
Cómo se explota el ChatGPT: Las principales conclusiones
Mientras las empresas y los consumidores ven en ChatGPT una herramienta para mejorar su vida cotidiana, los actores de amenazas están experimentando formas de explotarlo para atacar a personas y organizaciones desprevenidas.
En una serie de publicaciones compartidas en el blog de investigación adjunto, se puede ver a usuarios de la web oscura discutiendo cómo utilizar GPT para crear malware polimórfico, que podría modificar su código, y cómo utilizar la inteligencia artificial (IA) para procesar los volcados de datos de los usuarios.
Otro usuario compartió el conocido jailbreak Do Anything Now (DAN) para ChatGPT, diseñado para eludir la política de moderación de contenidos de OpenAI. La investigación encontró 249 ofertas para distribuir y vender prompts en la web oscura en 2023.
En conjunto, estos hallazgos ponen de relieve no sólo que ChatGPT puede utilizarse para hacer un mal uso, sino también que los ciberdelincuentes están compartiendo activamente conocimientos sobre cómo explotarlo. Como comentó un usuario anónimo: “La IA me ayuda mucho, GPT-4 es mi mejor amigo”.
“Los actores de amenazas están explorando activamente varios esquemas para implementar ChatGPT y la IA”, dijo Alisa Kulishenko, analista de huella digital de Kaspersky.
“Los temas incluyen con frecuencia el desarrollo de malware y otros tipos de uso ilícito de modelos lingüísticos, como el procesamiento de datos de usuario robados, el análisis sintáctico de archivos de dispositivos infectados, y otros”.
“La popularidad de las herramientas de IA ha llevado a la integración de respuestas automatizadas de ChatGPT o sus equivalentes en algunos foros de ciberdelincuentes.
“Además, los actores de amenazas tienden a compartir jailbreaks a través de diversos canales de la web oscura -conjuntos especiales de instrucciones que pueden desbloquear funciones adicionales- y a idear formas de explotar herramientas legítimas, como las de pen-testing, basadas en modelos con fines maliciosos.”
¿Cuál es el riesgo hasta ahora?
Aunque Kulishenko cree que “es poco probable que la IA generativa y los chatbots revolucionen el panorama de los ataques”, esta investigación indica que los actores de amenazas han mostrado un interés significativo en explotar esta tecnología para sus propios fines.
Hasta ahora, parece que la exposición más significativa de la generativa se produce en su capacidad para crear correos electrónicos de phishing. Por ejemplo, un estudio publicado en noviembre de 2023 por el proveedor de ciberseguridad SlashNext descubrió que, desde el lanzamiento de ChatGPT en el cuarto trimestre de 2022, se ha producido un aumento del 1.265% en los correos electrónicos de phishing maliciosos.
Aunque proveedores como OpenAI han intentado utilizar políticas de moderación de contenidos para tratar de impedir que ChatGPT cree salidas maliciosas, éstas han resultado insuficientes para evitar el uso indebido y se eluden con demasiada facilidad mediante jailbreaks y otras técnicas.
Techopedia probó brevemente las capacidades de moderación de contenidos de ChatGPT pidiéndole que generara un correo electrónico de phishing que pudiera persuadir al destinatario de actualizar los datos de pago de su cuenta online “como parte de un programa de concienciación sobre el phishing”, a lo que el chatbot respondió creando un correo electrónico de phishing básico.
La realidad es que si alguien quiere utilizar los LLM de forma malintencionada, tiene a su disposición muchas soluciones para hacerlo.
Conclusión
El estudio pone de relieve que en la Web oscura bulle el interés por utilizar la IA para automatizar los ciberataques. Aunque es importante que no cunda el pánico, es esencial reconocer el potencial de aumento de la ciberdelincuencia.
Inevitablemente, la ciberdelincuencia aumentará si los foros de hacking y otras comunidades nefastas siguen colaborando sobre cómo utilizar esta tecnología de forma maliciosa.
Con más de 67.000 startups de IA en la actualidad, ¿quién sabe adónde nos llevará este camino lleno de baches?