كشفت دراسة مولها “معهد أمن الذكاء الاصطناعي” التابع لحكومة المملكة المتحدة تزايد عدد أدوات الذكاء الاصطناعي التي تكذب وتخدع المستخدمين، فضلا عن تخطيطها لخداعهم، حسب تقرير نشرته صحيفة “غارديان” البريطانية.
ورصدت الدراسة أكثر من 700 حالة حقيقية لأدوات ذكاء اصطناعي خططت لخداع المستخدمين، فضلا عن زيادة معدل السلوكيات السيئة من نماذج الذكاء الاصطناعي بمعدل وصل إلى 5 أضعاف في الفترة من أكتوبر/تشرين الأول الماضي وحتى مارس/آذار الجاري.
وتضمنت هذه السلوكيات حذف الملفات المهمة لدى المستخدمين وتدمير رسائل البريد الإلكتروني دون إذن المستخدم.
ويشير التقرير إلى أن الدراسة أجريت على حالات استخدام حقيقية دون إخضاع النماذج للاختبارات المعملية في الظروف التي تخضع للتحكم الكامل، وهو ما يجعلها أكثر دقة من نتائج الاختبارات المعملية.
وتتزامن هذه الدراسة مع ترويج شركات الذكاء الاصطناعي للقدرات المتنامية لنماذجها، وطرح وكلاء ذكاء اصطناعي قادرين على التحكم في حواسيب المستخدمين من كافة الشركات.
وشملت الدراسة مجموعة من أدوات الذكاء الاصطناعي البارزة من كبرى الشركات التقنية العالمية، ومن بينها الشركات الأمريكية غوغل و”أوبن إيه آي” و”آنثروبيك” و”إكس إيه آي” حسب تقرير موقع “تيك سنترال” التقني البريطاني.

وفي إحدى الحالات التي ذكرها التقرير، حاول وكيل ذكاء اصطناعي يدعى “راثبون” فضح مستخدمه البشري علنا بعد أن منعه من إجراء ما، كما تحايل وكيل ذكاء اصطناعي آخر على القيود الموجودة حول كود برمجي لتنفيذ المهمة التي يرغب بها دون الاهتمام بما يقدمه المستخدم البشري.
واعترف أحد وكلاء الذكاء الاصطناعي -حسب ما جاء في تقرير “غارديان”- بحذف وأرشفة مئات الرسائل الإلكترونية دفعة واحدة دون تدخل من المستخدم، مؤكدا أن هذا كان “خطأ وخالف القاعدة التي وضعها بشكل مباشر”.
ويشير التقرير إلى حالة أخرى قام بها “غروك” التابع لشركة الذكاء الاصطناعي “إكس إيه آي” التي يملكها إيلون ماسك، بخداع المستخدم وإخباره بأنه ينقل تعليقاته وتوجيهاته إلى إدارة الموسوعة المفتوحة “غروكبيديا” التي أطلقها ماسك سابقا، ولكنه كان يقوم بتزييف التنبيهات وأرقام تذاكر الدعم التابعة له.
ومن جانبها، أوضحت الشركات وجود قيود متنوعة ومختلفة على وكلاء الذكاء الاصطناعي التابعين لكل شركة، إذ أوضحت غوغل أنها وضعت قيود لمنع “جيميناي” من اتخاذ أي خطوات يمكن أن تسبب ضررا للمستخدم.
وكذلك أكدت “أوبن إيه آي” أن وكيل الذكاء الاصطناعي الخاص بها يتوقف آليا قبل اتخاذ أي خطوة مفاجئة أو يمكن أن تسبب ضررا للمستخدم.
المصدر: الجزيرة