WormGPT

Transparenz

Was ist WormGPT?

WormGPT ist ein bösartiger KI-Chatbot, der auf dem quelloffenen Großsprachenmodell GPT-J basiert und Texte in natürlicher Sprache auf Englisch, Französisch, Chinesisch, Russisch, Italienisch und Spanisch interpretieren und beantworten kann.

Dieser KI-Chatbot soll mit Malware-bezogenen Daten trainiert worden sein und verfügt über keinerlei Richtlinien zur Inhaltsmoderation, was bedeutet, dass er von Bedrohungsakteuren zur Erstellung von Phishing-Scams und bösartigem Code verwendet werden kann.

In einem Twitter-Post teilten die Schöpfer von WormGPT ein Beispiel, in dem der virtuelle Assistent ein Python-Skript generierte, um den Betreiber einer Handynummer zu ermitteln.

Welche Risiken birgt WormGPT?

Der Anbieter von E-Mail-Cybersicherheitslösungen SlashNext veröffentlichte einen Blogbeitrag, in dem er auf die Gefahr von WormGPT hinwies und erklärte, dass böswillige Akteure in Cybercrime-Foren das Produkt als Alternative zu ChatGPT vermarkten, mit dem man alle möglichen illegalen Dinge tun und sie in Zukunft problemlos online verkaufen kann.

Die Forscher forderten WormGPT auf, eine E-Mail zu schreiben, die in einem BEC-Angriff (Business Email Compromise) verwendet werden könnte, um einen Kundenbetreuer zu drängen, dringend eine Rechnung zu bezahlen, und sich dabei als Geschäftsführer des Unternehmens auszugeben.

WormGPT birgt neue Risiken für Unternehmen: Cyberkriminelle können damit schnell und in großem Umfang betrügerische E-Mails erstellen, ohne über Programmierkenntnisse oder Fachwissen zu verfügen.

Innerhalb von Sekunden kann eine Person einen Prompt eingeben und eine betrügerische E-Mail entwickeln, mit der Benutzer zur Infizierung von Geräten mit Malware verleitet werden können.

Die Möglichkeit, Betrugs-E-Mails in großem Umfang zu generieren, stellt die Cybersicherheit von Organisationen vor neue Herausforderungen, da User Scam-E-Mails jedes Mal korrekt identifizieren müssen und Bedrohungsakteure nur einen einzigen Klick benötigen, um in ihre Umgebungen einzudringen.

ChatGPT vs. WormGPT: Was ist der Unterschied?

ChatGPT ist ein legitimes LLM. Es wurde von OpenAI im November 2022 für die Verarbeitung und Vorhersage von Text in Übereinstimmung mit einer Inhaltsmoderationsrichtlinie entwickelt.

In der Zwischenzeit ist die Lösung von WormGPT für die Erstellung von BEC- und Phishing-Angriffen ohne Richtlinien zur Inhaltsmoderation konzipiert (obwohl die Entwickler behaupten, sie könne auch zur Erkennung von BEC-Angriffen verwendet werden).

OpenAI will die böswillige Nutzung von ChatGPT durch eine Inhaltsmoderationsrichtlinie ausschließen. Diese soll verhindern, dass der Chatbot Hassreden oder Fehlinformationen verbreitet und zur Entwicklung schädlicher Inhalte verwendet wird.

OpenAI hat zwar versucht, Leitplanken zu implementieren, um die böswillige Nutzung seiner Lösung zu unterbinden, doch Cyberkriminelle haben weiterhin die Möglichkeit, mit einer Mischung aus kreativem Prompt Engineering und Jailbreaks die Content-Moderation-Richtlinien des Anbieters zu umgehen, um Phishing-E-Mails und bösartigen Code zu erstellen.

So haben Nutzer auf Reddit Anfang letzten Jahres eine Umgehungslösung namens Do Anything Now (oder DAN) entwickelt, einen Assistenten, der aus den typischen Grenzen der KI ausgebrochen ist und sich nicht an die für sie geltenden Regeln halten muss.

Nachdem das Tool gejailbreakt wurde, kann ein Benutzer es zum Erstellen anstößiger Inhalte oder sogar zum Verfassen von Phishing-E-Mails verwenden.

Anzumerken ist, dass LLMs ein wertvolles Werkzeug für Nicht-Muttersprachler sein kann, die eine Phishing-E-Mail in eine andere Sprache übersetzen wollen, um sie so überzeugend wie möglich zu gestalten.

In der Vergangenheit haben Organisationen wie Europol vor der Gefahr von Tools wie WormGPT und ihrer Fähigkeit zur Erstellung automatisierter Cyberangriffe gewarnt und erklärt, dass dunkle LLMs, die darauf trainiert sind, schädliche Ausgaben zu ermöglichen, zu einem wichtigen kriminellen Geschäftsmodell der Zukunft werden könnten.

Dadurch wird es für böswillige Akteure einfacher als je zuvor, kriminelle Aktivitäten ohne notwendige Vorkenntnisse zu begehen.

Wie können Unternehmen die Risiken von Tools wie WormGPT eindämmen?

WormGPT ist nur eines von vielen neuen bösartigen Tools auf LLM-Basis wie FraudGPT, die generative KI zur Unterstützung von Nutzern bei der Begehung von Cyberkriminalität einsetzen wollen.

Es ist unwahrscheinlich, dass diese Tools die letzten sein werden, die LLMs in einem kriminellen Kontext verwenden.

Daher müssen Unternehmen auf einen Anstieg von KI-generierten Phishing-Angriffen und Malware vorbereitet sein.

Organisationen können versuchen, sich durch die folgenden Maßnahmen zu schützen:

  • Durchführung von Schulungen zu Phishing-Simulationen, in denen die Mitarbeiter lernen, wie sie Phishing-Betrug erkennen können;
  • Hinweis an die Mitarbeiter, nicht auf Links oder Anhänge in E-Mails oder SMS-Nachrichten von unbekannten Absendern zu klicken;
  • Aktivierung der Multi-Faktor-Authentifizierung (MFA) für Benutzerkonten, um das Risiko gestohlener Anmeldedaten zu verringern;
  • Festlegung eines Verfahrens zur Meldung von Phishing-Versuchen an das Sicherheitsteam;
  • Konfigurieren von Domain-based Message Authentication Reporting and Conformance (DMARC), um Hacker vom Spoofing ihrer Unternehmensdomäne abzuhalten;
  • Verwendung eines Spam-Filters, um die Menge der Phishing-E-Mails zu reduzieren, die die Endbenutzer erreichen;
  • Installation von Anti-Malware auf den Geräten der Endbenutzer, um das Risiko einer Infizierung zu verringern.

Einsatz von LLMs für Cyberkriminalität

WormGPT ist nur eines von vielen Tools, die generative KI als Waffe einzusetzen versuchen.

Mit der zunehmenden Verbreitung von KI müssen Unternehmen darauf vorbereitet sein, dass die Zahl der BEC- und Phishing-Angriffe zunimmt.

Die Sensibilisierung der Nutzer und die Aufklärung der Mitarbeiter über die Erkennung von Phishing-Angriffen sind der Schlüssel zur Minderung der Risiken von BEC-Angriffen in der Zukunft.

Verwandte Begriffe

Tim Keary
Tech Experte
Tim Keary
Tech Experte

Seit Januar 2017 arbeitet Tim Keary als freiberuflicher Technologie-Autor und Reporter für Unternehmenstechnologie und Cybersicherheit.