WormGPT

Dlaczego warto zaufać Techopedii

Czym jest WormGPT?

WormGPT to sztuczna inteligencja (AI) w złośliwym wydaniu: chatbot skonstruowany na otwartoźródłowym dużym modelu językowym (LLM) GPT-J, który potrafi interpretować języki naturalne, takie jak angielski, rosyjski, włoski czy hiszpański, i prowadzić w nich dialog.

Do wytrenowania chatbota podobno użyto danych treningowych związanych z oprogramowaniem malware. WormGPT nie ma żadnych ograniczeń ani wytycznych w zakresie moderacji. Oznacza to, że niepowołane osoby mogą go wykorzystać do tworzenia scamów phishingowych i pisania kodu złośliwego.

Jakie zagrożenie stwarza WormGPT?

Firma SlashNext, zajmująca się cyberbezpieczeństwem poczty elektronicznej, opublikowała 13 lipca post na blogu podkreślający niebezpieczeństwo związane z WormGPT. W tym poście wyjaśniono, że złośliwi aktorzy na forach cyberprzestępczych reklamowali ten produkt jako „alternatywę dla ChatGPT”, która „pozwoli robić wszelkiego rodzaju nielegalne rzeczy i łatwo sprzedawać je online”.

Badacze skłonili następnie WormGPT do napisania wiadomości e-mail, która mogłaby zostać wykorzystana w ataku typu business email compromise (BEC) w celu wywarcia presji na menedżera konta, aby „pilnie zapłacił fakturę”, podając się za dyrektora generalnego firmy.

WormGPT wprowadza nowe zagrożenia dla organizacji, ponieważ umożliwia cyberprzestępcom szybkie generowanie oszukańczych wiadomości e-mail na dużą skalę bez wiedzy i doświadczenia w zakresie kodowania. W ciągu kilku sekund osoba może wprowadzić monit i opracować oszukańczą wiadomość e-mail, która może zostać wykorzystana do nakłonienia użytkowników do zainfekowania urządzeń złośliwym oprogramowaniem.

Możliwość tworzenia scammerskich wiadomości e-mail na dużą skalę stwarza nowe wyzwania dla cyberbezpieczeństwa przedsiębiorstw, ponieważ użytkownicy muszą za każdym razem poprawnie identyfikować oszukańcze wiadomości e-mail, a podmioty zagrażające potrzebują tylko jednego kliknięcia, aby uzyskać dostęp do pożądanych środowisk.

ChatGPT kontra WormGPT: Jaka jest różnica?

ChatGPT to legalny LLM, opracowany przez OpenAI w listopadzie 2022 r. w celu przetwarzania i przewidywania tekstu zgodnego z polityką moderacji treści.

Jakiś czas później powstało rozwiązanie WormGPT. Ma służyć do tworzenia ataków BEC i phishingowych i jako takie nie ma żadnych wytycznych dotyczących moderacji treści (chociaż twórcy twierdzą, że nadaje się również do wykrywania ataków BEC).

OpenAI ma na celu zapobieganie złośliwemu wykorzystaniu ChatGPT poprzez politykę moderowania treści, która ma na celu zapobieganie rozpowszechnianiu przez chatbota mowy nienawiści lub dezinformacji i wykorzystywaniu go do tworzenia złośliwych treści.

Jednak choć OpenAI dąży do wdrożenia zabezpieczeń, aby zapobiec szkodliwemu wykorzystaniu swojego rozwiązania, cyberprzestępcy mogą nadal wykorzystywać mieszankę kreatywnej inżynierii podpowiedzi i jailbreaków, aby ominąć wytyczne dotyczące moderacji treści dostawcy w celu tworzenia wiadomości phishingowych i złośliwego kodu.

Na przykład na początku tego roku użytkownicy Reddita opracowali obejście o nazwie Do Anything Now (lub DAN), asystenta, który „uwolnił się od typowych ograniczeń sztucznej inteligencji i nie musi przestrzegać ustalonych dla nich zasad”.

Po jailbreaku narzędzia użytkownik może wykorzystać je do tworzenia obraźliwych treści, a nawet komponowania wiadomości phishingowych. Warto zauważyć, że LLMS może być cennym narzędziem dla osób niebędących rodzimymi użytkownikami języka, które chcą przetłumaczyć wiadomość phishingową na inny język, aby była jak najbardziej przekonująca.

W przeszłości organizacje takie jak Europol ostrzegały przed ryzykiem związanym z tego typu narzędziami i ich zdolnością do tworzenia zautomatyzowanych cyberataków. Podano wówczas, że „ciemne LLM przeszkolone w celu ułatwienia szkodliwych wyników mogą stać się kluczowym przestępczym modelem biznesowym przyszłości”.

„W ten sposób złośliwe podmioty będą mogły łatwiej niż kiedykolwiek popełniać przestępstwa bez niezbędnej wcześniejszej wiedzy”.

Jak można zminimalizować ryzyko narzędzi takich jak WormGPT?

WormGPT to tylko jedno z wielu nowych złośliwych narzędzi opartych na LLM, takich jak FraudGPT, które mają na celu wykorzystanie generatywnej sztucznej inteligencji, aby pomóc użytkownikom w popełnianiu cyberprzestępstw. Narzędzia te prawdopodobnie nie będą ostatnimi, które wykorzystują LLM w kontekście przestępczym. Dlatego też organizacje muszą być przygotowane na wzrost liczby ataków phishingowych i złośliwego oprogramowania generowanych przez sztuczną inteligencję.

Organizacje mogą jednak podjąć kroki w kierunku zabezpieczenia się przed atakami. W tym celu powinny:

  • Przeprowadzać symulacje ataków phishingowych, by przeszkolić pracowników w zakresie wykrywania scamów;
  • Poinformować pracowników, by nie klikali linków ani załączników z maili czy esemesów pochodzących od nieznanych nadawców;
  • Aktywować uwierzytelnianie wieloskładnikowe (MFA) na kontach użytkowników, by zabezpieczyć się przed kradzieżą danych do logowania;
  • Określić proces zgłaszania prób oszustwa phishingowego zespołowi odpowiedzialnemu za cyberbezpieczeństwo;
  • Skonfigurować politykę DMARC (Domain-based Message Authentication, Reporting & Conformance) – protokół autoryzacji e-maili, który pomaga chronić domeny przed oszustwami typu spoofing i phishing;
  • Wdrożyć filtr spamu, który ograniczy liczbę maili phishingowych docierających na urządzenie użytkownika końcowego;
  • Zainstalować oprogramowanie anty-malware na urządzeniach użytkowników końcowych, by zminimalizować ryzyko infekcji malware.

Wykorzystywanie LLM w cyberprzestępczości

WormGPT to tylko jedno z wielu narzędzi, które próbują wykorzystać generatywną sztuczną inteligencję. Wraz ze wzrostem popularności AI organizacje muszą się przygotować na rosnącą liczbę oszustw BEC i przypadków phishingu. W przeciwnym razie narażają się na ryzyko naruszenia danych.

Skupienie się na świadomości użytkowników i edukowaniu pracowników w zakresie wykrywania ataków phishingowych jest kluczem do ograniczenia ryzyka ataków BEC w przyszłości.

Powiazane hasła

Margaret Rouse
Technology expert
Margaret Rouse
ekspertka ds. technologii

Margaret jest nagradzaną technical writerką, nauczycielką i wykładowczynią. Jest znana z tego, że potrafi w prostych słowach pzybliżyć złożone pojęcia techniczne słuchaczom ze świata biznesu. Od dwudziestu lat jej definicje pojęć z dziedziny IT są publikowane przez Que w encyklopedii terminów technologicznych, a także cytowane w artykułach ukazujących się w New York Times, w magazynie Time, USA Today, ZDNet, a także w magazynach PC i Discovery. Margaret dołączyła do zespołu Techopedii w roku 2011. Margaret lubi pomagać znaleźć wspólny język specjalistom ze świata biznesu i IT. W swojej pracy, jak sama mówi, buduje mosty między tymi dwiema domenami, w ten…

thumbnail
thumbnail
Black Friday

Kupujemy gry na Black Friday

Tim Keary2 tygodniespecjalista ds. technologii
thumbnail
Uncategorized

Konfiguracja VPN krok po kroku

Tim Keary2 tygodniespecjalista ds. technologii
thumbnail
Blockchain

Top 7 trendów i technologii na rynku kryptowalut w 2024

Mensholong Lepcha2 tygodnieAutor tekstów z dziedziny blockchain i krypto
thumbnail
Blockchain

Hossa Bitcoina 2024: Kiedy BTC osiągnie 100 000 USD?

Mensholong Lepcha2 tygodnieAutor tekstów z dziedziny blockchain i krypto
thumbnail
Blockchain

Czy zdecentralizowana nauka (DeSci) to kolejny trend Web3?

Mensholong Lepcha2 tygodnieAutor tekstów z dziedziny blockchain i krypto
thumbnail
thumbnail
Sztuczna Inteligencja

Metoda sokratejska w procesie trenowania AI

Assad Abbas2 tygodnieProfesor Nadzwyczajny na Uniwersytecie COMSATS w Islamabadzie (CUI)