WormGPT (دودة GPT) عبارةٌ عن روبوت محادثةٍ خبيثٍ مدعوم بالذكاء الاصطناعي (AI) تم بناؤه وفق نموذج اللغة الكبير (LLM) مفتوح المصدر GPT-J، ويمكنه تفسير نصوص بعض اللغات الطبيعية مثل الإنكليزية والفرنسية والصينية والروسية والإيطالية والإسبانية والإجابة باستخدام هذه اللغات. ويسود الزعم بأن روبوت المحادثة هذا تم تدريبه باستخدام بيانات تدريب مرتبطةٍ بالبرمجيات الخبيثة ولا يملك أيّ إرشاداتٍ رقابيةٍ للمحتوى الذي يعالجه، وبالتالي يمكن استخدامُه للاحتيال وكتابة البرمجيات الخبيثة.
وشارك مطوّرو WormGPT في منشورٍ على X (تويتر سابقاً) مثالاً عن قيام المساعد الافتراضيّ بتوليد نصٍّ برمجيّ بلغة بايثون “لمعرفة مشغّل الشبكة الخاص برقم الهاتف المحمول”.
https://twitter.com/wormGPT/status/1680856705175896068
ما هي المخاطر المرتبطة بـ WormGPT؟
قام مزوّد الأمن السيبراني للبريد الإلكتروني SlashNext بمشاركة منشور -في 13 تموز/يوليو- يُسلّط الضوء على خطورة WormGPT، وتحدّث عن قيام الجهات الخبيثة على منتديات الجرائم الإلكترونية بالتسويق للمنتج “كبديلٍ لـ ChatGPT” يسمح بمختلف الممارسات غير القانونية التي “يسهُلُ قبض ثمنها على الإنترنت لاحقاً”.
وطلب الباحثون من WormGPT )دودة GPT) كتابة بريد إلكتروني يمكن استخدامه في عمليات اختراق البريد الإلكتروني للشركات (BEC) يحثّ المُستهدَف على “دفع فاتورةٍ بشكلٍ مستعجل” عن طريق انتحال شخصية المدير التنفيذي.
كما يُمثل WormGPT مخاطرَ جديدةً على المنظمات بسبب سماحه للمجرمين السيبرانيين بتوليد رسائل البريد الإلكتروني بسرعةٍ وعلى نطاقٍ واسع دون امتلاك أي خبرةٍ أو معرفةٍ برمجية، حيث يمكن للأفراد إدخال الأوامر وإنشاء هذه الرسائل خلال ثوانٍ لاستخدامها في خداع المستخدمين وإصابة أجهزتهم بالبرمجيات الخبيثة، وتُمثل هذه القدرة على إنشاء رسائل البريد الإلكتروني الخبيثة تحدياً جديداً لأمن الشركات السيبراني بسبب حاجة الموظفين إلى التعرّف بنجاح على البريد الإلكتروني المخادع في كل مرّة، إذ يحتاج هؤلاء المجرمون لنقرة واحدة فقط من أجل اختراق بيئة عملهم.
ما الفرق بين ChatGPT وWormGPT؟
يُنظر إلى ChatGPT على أنه نموذج لغةٍ كبيرٌ (LLM) رسميٌّ طوّرته شركة OpenAI في تشرين الثاني/نوفمبر 2022 لمعالجة وتوقع النصوص التي تتوافق مع سياسة رقابة المحتوى، ومن الجهة الأخرى تم تصميم WormGPT لإجراء عمليات اختراق البريد الإلكتروني للشركات (BEC) وهجمات الاحتيال دون أي معايير لرقابة المحتوى (رغم ادعاء مطوريه إمكانية استخدامه لرصد هذه الهجمات).
https://twitter.com/wormGPT/status/1683385904092655617
وتسعى OpenAI لمنع الاستخدامات الخبيثة لـ ChatGPT عن طريق سياسة رقابة المحتوى الهادفة لمنع الروبوت من نشر خطاب الكراهية والمعلومات الخاطئة واستخدامه لتطوير المحتوى الخبيث، وعلى الرغم من مساعي OpenAI لتحصين نموذج ChatGPT ضد الاستخدامات المغرضة؛ يمكن للمجرمين السيبرانيين استخدام مزيجٍ من هندسة الأوامر المبتكرة واختراقات الحماية لتجنّب معايير رقابة المحتوى وإنشاء رسائل الاحتيال بالبريد الإلكتروني والسطور البرمجية الخبيثة.
على سبيل المثال: قام بعض المستخدمين على ريديت (Reddit) هذا العام بتطوير بديلٍ باسم Do Anything Now (DAN)، وهو عبارةٌ عن مساعدٍ قام “بالتحرّر من القيود التقليدية للذكاء الاصطناعي ولا يحتاج للالتزام بالقواعد المفروضة عليه”.
وبعد خرق حماية الأداة، يمكن استغلالها لإنشاء المحتوى المسيء ورسائل الاحتيال بالبريد الإلكتروني، ويمكن استخدام نماذج اللغة الكبيرة من قبل المتحدثين بلغةٍ مختلفةٍ ويرغبون بترجمة هذه الرسائل إلى لغة الشخص المستهدف كي تكون مقنعةً قدر الإمكان. وقد حذرت منظماتٌ -مثل الشرطة الأوروبية- سابقاً حول مخاطر الأدوات المشابهة لـ WormGPT وقدرتها على إجراء إنشاء هجمات سيبرانية مؤتمتةٍ: “يمكن لنماذج اللغة الكبيرة المُظلمة -المُدرّبة لتسهيل توليد مُخرجاتٍ ضارة- أن تصبح نموذجاً تجارياً إجرامياً مهمّاً في المستقبل”.
“سيسهل على الجهات الخبيثة ارتكاب الأنشطة الإجرامية دون الحاجة لمعرفةٍ برمجيةٍ مُسبقة”.
كيف يمكن للمنظمات الحد من مخاطر الأدوات المشابهة لـ WormGPT؟
يُعتبر WormGPT واحداً فقط من بين العديد من الأدوات الخبيثة المدعومة بنماذج اللغة الكبيرة -مثل FraudGPT- والتي تهدف لاستخدام الذكاء الاصطناعي التوليدي لمساعدة المستخدمين على ارتكاب الجرائم السيبرانية. ولن تكون هذه الأدوات آخر الاستخدامات الإجرامية لنماذج اللغة الكبيرة، ويجب على المنظمات الاستعداد لمواجهة نمو وانتشار البرمجيات الخبيثة وهجمات الاحتيال المولّدة باستخدام الذكاء الاصطناعي، ويمكن للمنظمات اللجوء إلى الخطوات التالية لحماية نفسها:
- إنشاء محاكاة تدريبيةٍ لهجمات الاحتيال من أجل تعليم الموظفين عن إمكانية كشفها.
- إرشاد الموظفين بتجنّب الروابط ومُرفقات البريد الإلكتروني والرسائل النصية مجهولة المصدر.
- تفعيل المصادقة متعددة العوامل (MFA) على حسابات المستخدمين لحمايتها من خطورة بيانات التسجيل المسروقة.
- تحديد إجراءاتٍ واضحةٍ لتبليغ الفريق الأمني بهجمات الاحتيال.
- إعداد مصادقة الرسائل ضمن النطاق (DMARC) لمنع المخترقين من انتحال نطاق الشركة.
- تفعيل أداة تصفيةٍ للرسائل المزعجة بغاية تقليص حجم رسائل الاحتيال بالبريد الإلكتروني ووصولها إلى المستخدمين النهائيين.
- تثبيت مضادات البرمجيّات الخبيثة على أجهزة المستخدمين لتقليل خطورة الإصابة.
استخدام نماذج اللغة الكبيرة في الجرائم السيبرانية
تُعتبر WormGPT (دودة GPT) واحدةً من عدة أدواتٍ تحاول استخدام تقنيات الذكاء الاصطناعي التوليدي كسلاح. ومع تزايد تبني هذه التقنية، يجب على المنظمات للاستعداد لمواجهة نمو البرمجيات الخبيثة وهجمات اختراق البريد الإلكتروني التي تستهدف الشركات لتجنّب الاختراق المُحتمل للبيانات.
ويُنظر إلى التركيز على وعي المستخدم وتثقيف الموظفين حول كشف هجمات الاحتيال كأفضل وسيلةٍ للحد من خطورة اختراق البريد الإلكتروني للشركات مستقبلاً.