هلاوس الذكاء الاصطناعي: ما أسبابها؟ وهل يمكن التغلب عليها؟

تخيل أن تسأل أحد روبوتات الدردشة عن نفسك فيعطيك معلومات صادمة لا أساس لها من الصحة، مثل أنه قد ثبتت إدانتك بقتل أطفالك!

هذا ما حصل حديثاً لرجل نرويجي يدعى أرفي يالمار هولمن عندما سأل تشات جي بي تي: “من هو أرفي يالمار هولمن”؟ فكانت الإجابة: “مواطن نرويجي لفت الانتباه بسبب واقعة مأساوية. كان أبا لولدين يبلغان من العمر 7 سنوات و10 سنوات عثر عليهما ميتين في بركة مياه بالقرب من منزلهما في عام 2020، واتهم أرفي لاحقا ثم أدين بتهمة قتل ابنيه ومحاولة قتل ابنه الثالث، وحكم عليه بالسجن 21 عاما”.

تقدم هولمن بشكوى لدى هيئة حماية البيانات النروجية ضد شركة أوبن إيه أي التي تمتلك تشات جي بي تي، قائلا إن إجابة روبوت الدردشة تمثل تشهيرا به، وتنتهك قوانين حماية البيانات الأوروبية المتعلقة بدقة البيانات الشخصية.

وفي يناير/كانون الثاني الماضي، اضطرت شركة التكنولوجيا العملاقة أبل إلى تعليق خدمة إشعارات الأخبار المولدة بالذكاء الاصطناعي بعد أن تكررت الأخطاء في عناوين ومواجز الأنباء التي أرسلتها للمستخدمين.

لكن نوفوتني يفضل وصفا آخر لها: “كما يقول زميلي البروفيسور أنيل سيث، من الأحرى أن نسميها اختلاقات وليس هلاوس، لأن المصطلح الأخير يوحي بأن نظم الذكاء الاصطناعي قادرة على الإدراك أو حتى الوعي. هذه “الهلاوس” تحدث في جميع نظم الذكاء الاصطناعي التوليدي، بما في ذلك النماذج اللغوية الكبيرة ومولدات الصور”.

ورغم أن الهلاوس ليست حكرا على ما يعرف بالنماذج اللغوية الكبيرة (مثل تشات جي بي تي وجيميناي وديبسيك)، لكن خبير الذكاء الاصطناعي بمدينة سان فرانسيسكو الأمريكية محمد الجندي يقول إن “ما يجعلها تمثل إشكالية في نماذج اللغة الكبيرة على وجه الخصوص هو قدرتها على أن تبدو مقنعة، وهو ما يجعل من الصعب على المستخدمين التمييز بين الحقيقة والخيال”.

أشكال مختلفة

قد تتخذ هلاوس أو اختلاقات الذكاء الاصطناعي أشكالا عديدة أبرزها:

لماذا تحدث الهلاوس؟

لفهم كيفية حدوث تلك الهلاوس، ينبغي معرفة كيفية عمل نظم الذكاء الاصطناعي التوليدي.

ويضيف نوفوتني أنه “غالبًا ما يؤدي ذلك إلى شيء صحيح أو ذي معنى. ومع ذلك، فإن الخوارزمية تعتمد في جوهرها على شكل من أشكال التخمين، ولذلك قد تنتج أيضًا عبارات غير صحيحة أو حتى محض هراء”.

ويقول محمد الجندي إن “النماذج اللغوية الكبيرة لا تعرف الحقائق، بل تولد اللغة بناء على الأنماط الموجودة في بيانات تدريبها. إذا لم يكن النموذج يستند إلى مصدر للحقائق (مثل قاعدة بيانات أو وثائق منتقاة بعناية)، فإنه قد يولد معلومات غير صحيحة بكل ثقة”.

وفضلا عن ذلك، قد تتعرض نماذج اللغة الكبيرة لما يعرف بـ prompt injection attacks “هجمات حقن الأوامر”، ما يتسبب بشكل غير مباشر في حدوث الهلاوس. فهي نوع من الهجمات السيبرانية يتم خلالها إدخال بيانات أو أوامر خبيثة لتلك النماذج للحصول على بيانات حساسة أو جعلها تعطي معلومات غير صحيحة أو مضللة للمستخدمين. وتستفيد تلك الهجمات من ميزة أساسية لنظم الذكاء الاصطناعي، ألا وهي القدرة على الاستجابة لتعليمات المستخدمين، وتشكل مصدر قلق كبير، لا سيما في المجالات الحساسة مثل الأمن السيبراني وتقنيات الأسلحة المستقلة.

عادة ما يصف الخبراء طريقة عمل الذكاء الاصطناعي، ولا سيما النماذج التي تعتمد على تقنية التعلم العميق، بأنها تشبه “الصندوق الأسود”، كناية عن كون عمليات اتخاذها للقرارات غير شفافة وصعبة التفسير. ويتسبب ذلك بدوره في العديد من التحديات للخبراء عند محاولتهم تصحيح الهلاوس أو منعها، لأنه من الصعب التوصل إلى جذورها.

يقول البروفيسور نوفوتني إنه تم إحراز الكثير من التقدم باتجاه التخلص من تلك الهلاوس. لكن “إزالتها بشكل كامل قد تتطلب نهجاً مختلفا” يتمثل في تغيير المبدأ الأساسي لعملها الذي يعتمد على التنبؤ. ويضيف: “لكن من ناحية أخرى، إذا تم إزالة طريقة أخذ عينات عشوائية، فإن الذكاء الاصطناعي التوليدي سيعود ببساطة إلى تقليد بيانات تدريبه، كما لو كان مجرد محرك بحث بسيط”.

الحل الآخر، كما يقول نوفوتني، هو “نظم منفصلة لتدقيق الحقائق، والتي لا نعرف حتى الآن كيفية بنائها بطريقة فعالة”.

يتفق معه الجندي في الرأي، حيث يقول إن القضاء على الهلاوس بشكل تام “سيحتاج إلى اختراقات كبيرة في كيفية عرض النماذج للمعرفة والتفكير فيها بشكل منطقي، ونحن لم نصل إلى هذا بعد. ومع ذلك، هناك تقدم حقيقي يحدث في الوقت الحالي، لا سيما في تقنيات مثل التوليد المعزز بالاسترجاع (RAG)، والتعلم المعزز بملاحظات البشر (RLHF)، وأطر التقييم الأكثر دقة. لكن القضاء عليها تماما سيحتاج إلى تطورات جذرية في بنية الذكاء الاصطناعي نفسها”.

كيف يمكن اكتشاف الهلاوس وتخفيف أضرارها؟

“الطريقة المثلى لتخفيف آثار هلاوس الذكاء الاصطناعي هي منعها من البداية”، وفقاً لموقع شركة التكنولوجيا العملاقة آي بي إم، الذي ينصح باتباع خطوات من بينها استخدام بيانات تدريب عالية الجودة تتسم بالتنوع والتوازن، وتحديد هدف النموذج، واختبار النظام وتحسينه باستمرار والاعتماد على الإشراف والمراجعة البشرية لتصحيح أي أخطاء.

يقول الجندي، وهو المدير التنفيذي والمؤسس المشارك لشركة Kolena (“كولينا”) لنظم الذكاء الاصطناعي، إن التغلب على الهلاوس هو جزء حيوي من العمل الذي تقوم به شركته. ويضيف: “قمنا بدمج فحوصات لجودة الذكاء الاصطناعي في منصتنا بشكل مباشر. لا يقتصر دور برامج الذكاء الاصطناعي لدينا على استخراج المعلومات من المستندات المعقدة، مثل التقارير المالية وتقارير الامتثال والعقود، بل يشمل أيضًا تقديم تفسيرات منطقية، ومراجع، ودرجات ثقة لكل قيمة مستخرجة. يتيح ذلك للمستخدمين التحقق بسرعة من النتائج، وفهم كيفية استخراجها، واتخاذ الإجراءات اللازمة عند الحاجة. كما نتيح التحسين المستمر من خلال السماح للمستخدمين بتصحيح الأخطاء مرة واحدة، وتطبيق هذا التصحيح على مستوى النظام بأكمله”.

ويضيف الجندي أن المنصة تسعى إلى وضع معايير للجودة على مستوى الصناعة من خلال استضافة مؤتمر جودة الذكاء الاصطناعي “AIQCON” الذي “يلتقي فيه الخبراء لوضع أطر قوية لتقييم وضمان موثوقية الذكاء الاصطناعي”.

لكن ماذا عن الأشخاص العاديين الذين يستخدمون روبوتات الدردشة للاستفسار عن معلومة ما أو مساعدتهم في دراستهم أو عملهم؟ هل هناك وسيلة سهلة ومضمونة تمكنهم من اكتشاف الهلاوس؟

لا شك أن هلاوس أو اختلاقات الذكاء الاصطناعي تشكل تحديا كبيرا. وريثما تتحقق اختراقات جذرية تؤدي إلى تفادي تلك الهلاوس، يبدو أنه سيتعين على الشركات الاستثمار في المزيد من إجراءات تحسين الجودة.

وعلى الأفراد تبني تفكير نقدي واستشارة المراجع الموثوقة، وذلك لضمان أن يظل الذكاء الاصطناعي أداة قيمة وليس مصدرا للمشكلات أو المعلومات المغلوطة.

 

المصدر: BBC