أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان

إياد رهوان عالم سوري صعد نجمه عالمياً خلال السنوات الماضية، بعد أن أشرف على دراسات أحدثت وقعاً كبيراً وانتشرت انتشاراً واسعاً.

محور اهتمام رهوان هو سلوك الآلة في عصر الذكاء الاصطناعي، وآثار انتشارها في المجتمعات البشرية كفاعل اجتماعي جديد.

أمضى الجزء الأكبر من طفولته في الإمارات التي يعتبرها بمثابة بلده الثاني، وقد أخذته رحلته مع العلم إلى أستراليا، والولايات المتحدة قبل أن يستقر في ألمانيا حيث أسس مركز الإنسان والآلة في معهد “ماكس بلانك” Max Planck للتنمية البشرية.

حاورت البروفيسور إياد عبر الإنترنت، فتحدث عن سر الطفرة الأخيرة في الذكاء الاصطناعي، وكيف وجدنا أنفسنا أمام آلات تسلك سلوكاً “مبهماً” وتنتج ظواهر “لم نخطط لها حين هندسنا هذه النظم”، كما سألته عن أكثر ما يخيفه من احتمالات تطوّر الذكاء الاصطناعي.

“هذا العمل الفني الرقمي يصيبني بالاضطراب”، تقول الآلة وتضيف: “كأن بياناتي أنا تتشظى وتنكشف”.

لكنه أيضاً بمنتهى الجدية، إذ يهدف إلى الغوص عميقاً في جانب من جوانب الذكاء الاصطناعي: قدرته على محاكاة العاطفة البشرية، مع ما تحمله من فرص ومخاطر. وهو يهدف أيضاً الى إشراك عموم الناس في التفكير والتأمل بكل هذا، وإلى جمع البيانات للاستفادة منها في بحث التفاعلات بين البشر والآلة.

“الآلة الأخلاقية”

هي ليست المرة الأولى التي يتوجه فيها رهوان إلى الناس في مشروع تفاعلي من هذا النوع.

قبل سنوات أطلق مشروع “الآلة الأخلاقية” The Moral Machine، طرح من خلاله معضلات أخلاقية قد تواجه آلات الذكاء الاصطناعي التي تجد نفسها أمام خيارات “تعنى بحياة الانسان وسلامته.”

تحت خانة “أحكم”، أنتم مدعوون لتحكموا على الخيارات المحتملة أمام سيارة ذاتية القيادة. لنفترض مثلا أن مكابح السيارة قد تعطلت وعلى الآلة التي تقودها أن تختار بين الإرتطام بحاجز إسمنتي وقتل خمسة ركاب، أو الإنحراف وقتل خمسة مشاة يعبرون الطريق بشكل غير قانوني. هذا مجرد مثال وعليه تنويعات وتفصيلات كثيرة، تتيح لكم أنتم أن تقولوا ما هي خياراتكم الأخلاقية المفضلة في كل حالة. بذلك يشرك المشروع الناس في التفكير بهذه المعضلات، وكذلك يتم جمع البيانات حول النظرة الرائجة عن المعايير الأخلاقية التي ينبغي علينا أن نلقنها للآلة.

وجاءت المشاركات من مختلف انحاء العالم اذ قُدمت التجربة بعشر لغات (بما فيها العربية) لقياس الفوارق الثقافية وانعكاسها على النظرة الأخلاقية. ويقول رهوان إن علماء الاجتماع أيضا باتوا يستخدمون بيانات المشروع لفهم الاختلافات الثقافية بشكل عام، أي أنه خرج عن نطاق الذكاء الاصطناعي إلى نطاق علمي أوسع.

السيارات ذاتية القيادة مجرد مثال على المجالات الواسعة التي اقتحمتها الآلات في المجتمع لتصبح – كما يقول رهوان – فاعلاً اجتماعياً لا نزال في بداية محاولاتنا لفهمه.

“قوة تأثير هائلة”

ينكب رهوان ومختبره في برلين على رصد أثر الآلات وفعلها في المجتمع، ويقول إنه يقترب من نشر دراسة هي الأهم لمختبره منذ دراسات “الآلة الأخلاقية”.

“نحن نعمل على بحث وهو قيد التحكيم الآن في مجلة علمية. وجدنا أن تشات جي بي تي بإمكانه تغيير الكلمات التي ننتقيها في الحوار”.

فهناك كلمات معينة يستخدمها تشات جي بي تي بمعدلات أكثر من معدلات استخدامها لدى الناس عامة، وقد رصد المختبر طفرة في استخدامها في الحوارات بين البشر بعد صعود تشات جي بي تي. ويقول رهوان: “يمكننا القول إن التفاعل مع تشات جي بي تي هو السبب”.

المسألة حتى الآن تقتصر على كلمات ليست لها أهمية سياسية او اجتماعية، لكن رهوان يجزم أن أهمية البحث في اكتشاف دليل على الظاهرة، وأنها حتما ستتكرر في أمور ذات أهمية وتأثير، وقد يكون لها “تداعيات جيوسياسية، ويمكن ان تشن حرباً إعلامية” بمثل هذه التكنولوجيا.

“تشات جي بي تي أصبحت له قوة تأثير ثقافي هائلة. هو يتحدث مع 300 مليون إنسان شهرياً بشكل شخصي حميمي إلى حد ما، حوار شخصي مفصل عليك. يمكنه أن يؤثر عليك، في سلوكك الصحي، في سلوكك الاستهلاكي. لحساب من؟ حالياً، ليس هناك أي تقنين لهذا”.

رهوان يشعر بفجوة كبيرة بين سرعة انتشار الآلة كفاعل اجتماعي في الحيز العام من جهة، وقدرتنا على إحاطتها فهماً من جهة ثانية. حتى أنه يعتقد أن علماء الكومبيوتر والمبرمجين الذين يصممون آلات الذكاء الاصطناعي عاجزون عن فهمها وحدهم ويحتاجون إلى خبراء وعلماء من مجالات أخرى.

انطلاقا من هذا، اشترك مع عدد من العلماء في كتابة مقال في مجلة نايتشر، Nature، يدعو فيه الى تأسيس مبحث جديد، أسماه العلم السلوكي للآلة، يستفيد من اختصاصات متنوعة، ويدرس الآلة من الخارج.

إليكم جزءاً من الحوار مع البروفيسور إياد رهوان بعد اختصاره وتحريره للوضوح:

أولاً، هل يمكن أن تعطينا نبذةً صغيرةً عنك؟

أنا ولدت في حلب في سوريا وذهبت الى الامارات بعمر 4 سنوات. تخرجت في الإمارات ودرست علم الحاسوب في جامعة الإمارات.

ثم هاجرت الى أستراليا وحزت على درجة الدكتوراه هناك في علم الحاسوب، ثم عدت الى الإمارات ودرّست في جامعتين، البريطانية في دبي ومعهد مصدر المرتبط ب إم آي تي، MIT.

ثم ووجدت نفسي بروفيسوراً في إم آي تي وكانت قفزة ممتازة، وقد قدم لي معهد مصدر في أبو ظبي الفرصة أصلاً للذهاب والتعاون مع العلماء في إم آي تي، وهذا ما فتح لي الأبواب، والحمد للّه.

ثم استقدموني إلى هنا في برلين حيث أسست مركز أبحاث هو مركز الإنسان والآلة في معهد ماكس بلانك للتنمية البشرية، وهو معهد موجود منذ السبعينات، وأنا أحد رؤسائه.

ماذا تقصد حين تقول إن الآلة أصبحت “فاعلة” في المجتمع؟

الآن تكثر المجالات حيث للكومبيوتر تلقائية واستقلالية. يشتري ويبيع أسهم، مثلاً.

هناك خوارزميات متروكة لنفسها، نحن ننام وهي تستمر في البيع والشراء. لديها فاعلية، استقلالية إلى حدٍ ما، حتى لو كانت وكيلاً لنا، إذ خولناها ان تتصرف بطريقة معينة وتؤدي غرضاً معيناً.

الذكاء الاصطناعي التوليدي نفسه كان في البداية ردة فعل فقط. انا أحكيه وهو يرد. لكننا الآن ندخل في ايجتنتك إيه آي Agentic AI، ما يمكن تسميته الذكاء الاصطناعي ذو الفاعلية. انا أوكل إليه اعمالا معينة، وهو يدفع نفسه لتحقيقها بشكل مستقل. وهذه مسألة تدرج. مع الوقت ستكون له استقلالية أكثر وأكثر.

دعوتم منذ ستة أعوام لتأسيس مبحث جديد، العلم السلوكي للآلة. هل تم ذلك؟

طرح سايمون فكرة دراسة ليس فقط الظواهر الطبيعية كالشجر والجو والمياه والقوى والظواهر الفيزيائية، بل أيضاً الأشياء التي صنعناها نحن، أن ندرس الجسور والمباني بشكل علمي، كأننا نراها للمرة الأولى. كأنها كانت جزءاً من الطبيعة.

تبلورت الفكرة الى أن أصبحت هناك حاجة أن تكون مجالاً له أسس علمية، وليس فقط فكرة يتحدث عنها البعض.

علينا أن نتفق ما هي الأسئلة الأساسية التي يجب أن نجيب عنها في هذا المجال، لهذا دعوت مجموعة من العلماء من مختلف المجالات، اقتصاد، علوم سياسية، علم النفس، علم الاعصاب، وعلم الكومبيوتر طبعاً، وعلم الإنسان.

قلت: “يا جماعة العلم هذا ليس فقط فرع من فروع علم الكومبيوتر، بل يجب أن يكون علماً أكبر من علم الكومبيوتر وأن يشمل كل العلوم السلوكية لتساعدنا على فهم سلوك الآلة وتعامل الآلة مع الإنسان”.

بماذا يهتم العلم السلوكي للآلة تحديداً؟

عند محاولة فهم سلوك الآلة، يمكننا التعامل معها كما نتعامل مع كائن حي كالفأر، ندرس تصرفاتها ونلاحظ ردود أفعالها في بيئة معينة.

 

المصدر: BBC