ما هي هلوسة الذكاء الاصطناعي؟
هلوسة الذكاء الاصطناعي AI Hallucination هي عندما يقوم نموذج لغوي كبير (LLM) مثل OpenAI’s GPT4 أو Google PaLM باختلاق معلومات أو حقائق خاطئة لا تستند إلى بيانات أو أحداث حقيقية.
تشرح أفيفا ليتان، نائبة رئيس المحللين في جارتنر:
الهلوسة هي مخرجات ملفقة بالكامل من نماذج لغوية كبيرة. وعلى الرغم من أنها تمثل حقائق ملفقة بالكامل، إلا أن مخرجات النماذج اللغوية الكبيرة تقدمها بثقة وسلطة.
يمكن لروبوتات الدردشة التوليدية التي تعتمد على الذكاء الاصطناعي تلفيق أي معلومات واقعية، من الأسماء والتواريخ والأحداث التاريخية إلى الاقتباسات أو حتى الرموز.
إن الهلوسة شائعة بما فيه الكفاية لدرجة أن OpenAI يصدر بالفعل تحذيرًا للمستخدمين داخل ChatGPT ينص على أن “ChatGPT قد ينتج معلومات غير دقيقة عن الأشخاص أو الأماكن أو الحقائق”.
التحدي الذي يواجه المستخدمين هو فرز المعلومات الصحيحة وغير الصحيحة.
أمثلة على هلوسات الذكاء الاصطناعي
على الرغم من وجود العديد من الأمثلة على هلوسات الذكاء الاصطناعي التي تظهر طوال الوقت، إلا أن أحد أبرز الأمثلة على ذلك هو ما حدث في مقطع فيديو ترويجي أصدرته Google في فبراير 2023. حينها، ادعى روبوت الدردشة الآلي بارد الذي يعمل بالذكاء الاصطناعي التابع لها بشكل غير صحيح أن تلسكوب جيمس ويب الفضائي التقط أول صورة لكوكب خارج المجموعة الشمسية.
وبالمثل، في العرض التوضيحي لإطلاق Microsoft Bing AI في فبراير 2023، حلل Bing بيان أرباح من شركة Gap، وقدم ملخصاً غير صحيح للحقائق والأرقام.
توضح هذه الأمثلة أنه لا يمكن للمستخدمين أن يثقوا في أن روبوتات الدردشة الآلية ستقدم ردودًا حقيقية طوال الوقت. ومع ذلك، فإن المخاطر التي تشكلها هلوسة الذكاء الاصطناعي تتجاوز مجرد نشر المعلومات الخاطئة.
في الواقع، وفقًا لفريق البحث التابع لشركة Vulcan Cyber، يمكن لروبوتات الدردشة الآلية إنشاء عناوين URL ومراجع ومكتبات أكواد لا وجود لها أو حتى التوصية بحزم برامج ضارة محتملة للمستخدمين غير المرتابين.
ونتيجةً لذلك، يجب على المؤسسات والمستخدمين الذين يجرّبون استخدام برمجيات LLMs والذكاء الاصطناعي التوليدي بذل الجهد اللازم عند العمل مع هذه البرامج والتحقق من دقة المخرجات.
ما الذي يسبب هلوسة الذكاء الاصطناعي؟
بعض العوامل الرئيسية وراء هلوسات الذكاء الاصطناعي هي:
- بيانات تدريب قديمة أو قليلة الجودة;
- بيانات غير مصنفة أو مصنفة بشكل غير صحيح;
- أخطاء واقعية أو تناقضات أو تحيزات في بيانات التدريب;
- عدم كفاية البرمجة لتفسير المعلومات بشكل صحيح;
- نقص السياق المقدم من المستخدم;
- صعوبة استنتاج القصد من الألفاظ العامية أو التعبيرات العامية أو السخرية.
من المهم كتابة المطالبات بلغة إنجليزية واضحة مع أكبر قدر ممكن من التفاصيل. على هذا النحو، تقع على عاتق البائع في نهاية المطاف مسؤولية تنفيذ البرمجة والحواجز الواقية الكافية للتخفيف من احتمالية حدوث الهلوسة.
ما هي مخاطر هلوسة الذكاء الاصطناعي؟
أحد المخاطر الرئيسية لهلوسة الذكاء الاصطناعي هو إذا كان المستخدم يعتمد كثيراً على دقة مخرجات نظام الذكاء الاصطناعي.
في حين أن بعض الأفراد مثل الرئيس التنفيذي لشركة مايكروسوفت ساتيا ناديلا قد جادلوا بأن أنظمة الذكاء الاصطناعي مثل Microsoft Copilot قد تكون “خاطئة بشكل مفيد”، إلا أن هذه الحلول يمكن أن تنشر معلومات مضللة ومحتوى بغيض إذا تُركت دون رقابة.
من الصعب معالجة المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لأن هذه الحلول يمكن أن تولد محتوى يبدو مفصلاً ومقنعاً وموثوقاً على الخدمة ولكنه في الواقع غير صحيح، مما يؤدي إلى تصديق المستخدم لحقائق ومعلومات غير صحيحة.
إذا أخذ المستخدمون المحتوى الذي يتم إنشاؤه بالذكاء الاصطناعي على ظاهره، فهناك احتمال انتشار معلومات خاطئة وغير صحيحة عبر الإنترنت ككل.
وأخيراً، هناك أيضاً خطر المسؤوليات القانونية والامتثال. على سبيل المثال، إذا استخدمت إحدى المؤسسات خدمة مدعومة بالذكاء الاصطناعي للتواصل مع العملاء، والتي تصدر إرشادات تضر بممتلكات المستخدم أو تعيد نشر محتوى مسيء، فقد تتعرض لخطر اتخاذ إجراءات قانونية.
كيف يمكنك اكتشاف هلوسات الذكاء الاصطناعي؟
إن أفضل طريقة للمستخدم لاكتشاف ما إذا كان نظام الذكاء الاصطناعي يهلوس هي التحقق يدويًا من الحقائق التي يقدمها الحل مع مصدر خارجي. يمكن أن يساعدك التحقق من الحقائق والأرقام والحجج بالمقارنة مع المواقع الإخبارية والتقارير الصناعية والدراسات والكتب عبر محرك بحث في التحقق مما إذا كانت المعلومة صحيحة أم لا.
على الرغم من أن التدقيق اليدوي يعد خيارًا جيدًا للمستخدمين الذين يرغبون في اكتشاف المعلومات الخاطئة، إلا أنه في بيئة المؤسسة، قد لا يكون التحقق من كل جزء من المعلومات مجديًا من الناحية اللوجستية أو الاقتصادية.
لهذا السبب، من الجيد التفكير في استخدام الأدوات الآلية للتحقق مرة أخرى من حلول الذكاء الاصطناعي التوليدي للهلوسة. على سبيل المثال، يمكن لأداة Nvidia مفتوحة المصدر NeMo Guardrails من Nvidia تحديد الهلوسة عن طريق التحقق من مخرجات أحد الحلول التوليدية للذكاء الاصطناعي مقابل أخرى.
وبالمثل، تقدم شركة Got It AI حلاً يسمى TruthChecker، والذي يستخدم الذكاء الاصطناعي للكشف عن الهلوسة في المحتوى الذي تم إنشاؤه بواسطة GPT-3.5+.
بطبيعة الحال، يجب على المؤسسات التي تستخدم أدوات آلية مثل Nemo Guardrails وGot It AI للتحقق من أنظمة الذكاء الاصطناعي للتحقق من الحقائق أن تبذل العناية الواجبة في التحقق من مدى فعالية هذه الحلول في تحديد المعلومات المضللة وإجراء تقييم للمخاطر لتحديد ما إذا كانت هناك أي إجراءات أخرى يجب اتخاذها لإزالة المسؤولية المحتملة.
خلاصة القول
قد يُتيح الذكاء الاصطناعي وآليات إدارة التعلم الآلي بعض القدرات المذهلة للمؤسسات، ولكن من المهم للمستخدمين أن يكونوا على دراية بمخاطر وقيود هذه التقنيات للحصول على أفضل النتائج.
في نهاية المطاف، توفر حلول الذكاء الاصطناعي أكبر قيمة عندما يتم استخدامها لزيادة الذكاء البشري بدلاً من محاولة استبداله.
وما دام المستخدمون والمؤسسات يدركون أن تقنيات الذكاء الاصطناعي المحلية لديها القدرة على تلفيق المعلومات والتحقق من البيانات الناتجة في مكان آخر، فإن مخاطر نشر أو استيعاب المعلومات الخاطئة ستقل إلى أدنى حد ممكن.