ربما أول ما سيتبادر إلى أذهان كثيرين منا عند سماح مصطلح “الروبوتات القاتلة” أفلام الخيال العلمي والديستوبيا من قبيل سلسلة The Terminator التي تصور عالما بائسا يسيطر عليه الذكاء الاصطناعي بآلاته الفتاكة.
لكن هذا المصطلح بات يستخدم لوصف ما يعرف بـ “نظم الأسلحة المستقلة الفتاكة” التي تعمل بدون تحكم أو إشراف بشري، والتي أصبحت مثار جدل كبير، ما بين مؤيد يرى أنها ستخفض النفقات العسكرية وتقلل الخسائر المادية والبشرية، ومعارض يرى أنها تنطوي على إشكاليات أخلاقية وربما تؤدي إلى مزيد من القتل والدمار.
وتستخدم الجيوش تقنيات الذكاء الاصطناعي في عدة مجالات، منها تحليل البيانات لاستخراج معلومات استخبارية، والحروب السيبرانية – على سبيل المثال، استخدام تقنية التزييف العميق وروبوتات الذكاء الاصطناعي لنشر دعايات أو معلومات مضللة فضلا عن اختراق مواقع الإنترنت – وتحديد الأهداف، وتعقب الدبابات والصواريخ والمقاتلات. كما تستخدم في نظم الأسلحة المستقلة الفتاكة، والتي ربما تعد الأكثر إثارة للجدل من بين التطبيقات العسكرية لهذه التقنيات.
فما هي هذه النظم؟
ما دور الذكاء الاصطناعي في تلك النظم؟
اللوغاريتمات أو الخوارزميات هي أساس الذكاء الاصطناعي، وهي عبارة عن مجموعة من الإرشادات أو القواعد التي يجب أن يستخدمها الكمبيوتر أو الآلة لإنجاز مهمة ما.
و”تعلم الآلة” هو أحد أنظمة الذكاء الاصطناعي الذي يبتكر إرشادات خاصة به سواء من خلال التدريب أو التفاعل مع البيئة بأسلوب التجربة والخطأ، بدلا من اتباع مجموعة من التعليمات المبرمجة مسبقا.
هذه التقنية مستخدمة بالفعل في نظم الأسلحة المزودة بالذكاء الاصطناعي.
“مضاعفة القوة”
يقول المؤيدون إن استخدام الذكاء الاصطناعي يؤدي إلى تحسين عمليات الاستكشاف والتعرف على الأهداف بشكل كبير، ومن ثم تقليل حجم الدمار الذي تتعرض له البنية التحتية المدنية.
كما أن نظم الأسلحة المستقلة، برأي المؤيدين، ستؤدي إلى توسيع ساحة المعركة أمام القوات وتسمح بالوصول إلى مناطق من الصعب الوصول إليها بالطرق التقليدية، وتقلل عدد الخسائر البشرية لأنها ستمكن القادة من تفادي إرسال الجنود والمقاتلين في مهام خطرة.
ماذا يقول المعارضون؟
في تصريحات لـ بي بي سي عربي، يقول العالم البريطاني البروفيسور ستيوارت راسل أستاذ علوم الكمبيوتر بجامعة كاليفورنيا في بيركلي والمعروف بإسهاماته المتميزة في أبحاث الذكاء الاصطناعي إن ما يقال بشأن إبعاد الجنود عن مرمى الخطر “هو ما أسميه مغالطة الملكية الوحيدة، لأنك تتخيل أن لديك أنت وحدك أسلحة تعمل بالذكاء الاصطناعي والطرف الآخر ليس لديه هذه الأسلحة.. امتلاك أسلحة يتم التحكم فيها وتوجيهها عن بعد من قبل طرفي الحرب الأوكرانية أدى إلى معدلات خسائر بشرية مرتفعة للغاية، إذ إن القنابل الصغيرة التي تلقيها الطائرات المسيّرة تستطيع الوصول إلى أهداف موجودة حتى في الخنادق”.
ويضيف أن “الهدف الرئيسي للأسلحة المستقلة الفتاكة، كما عكف مجتمع الذكاء الاصطناعي على القول مرارا وعلى مدى عقد من الزمان، هو أن تصبح (وربما يكون ذلك قد بدأ بالفعل) أسلحة دمار شامل رخيصة يمكن إنتاجها بقدرات مختلفة ونشرها بسهولة. ذلك لأنها مستقلة وليست بحاجة إلى إشراف بشري، ما يعني أن شخصا واحدا يستطيع أن يضغط على زر فيطلق مليون سلاح ليقتل مليون شخص”.
ما يشير إليه راسل هو خطاب أعرب فيه كثير من الشخصيات البارزة في مجال العلوم والتكنولوجيا والتجارة والسياسة عن خوفهم من أن تؤدي تلك الأسلحة إلى سباق تسلح بالذكاء الاصطناعي يفضي إلى زعزعة الأمن والاستقرار. وجاء في الخطاب، الذي يعود إلى عام 2015 وكان من بين الموقعين عليه عالم الفيزياء البارز الراحل ستيفين هوكينغز وإيلون ماسك وستيف وزنياك المؤسس المشارك لشركة أبل، أن تلك الأسلحة قد تؤدي إلى تآكل الحواجز التي تقف أمام تنفيذ “مهام من قبيل عمليات الاغتيال وزعزعة استقرار البلدان وإخضاع الشعوب والقتل الانتقائي لجماعة عرقية بعينها”.
ويرى المعارضون كذلك أن اتخاذ القرار من خلال لوغاريتمات في تلك الأسلحة ربما يؤدي إلى التصعيد السريع وعدم القدرة بالتنبؤ بالنتائج (خاصية “الصندوق الأسود”).
إشكاليات أخلاقية
ويرى المعارضون أن اللوغاريتمات لا تستطيع فهم قيمة حياة الإنسان، ومن ثم لا ينبغي إعطاؤها القدرة على تقرير من ينبغي أن يعيش ومن ينبغي أن يموت. وأثناء مفاوضات أجريت حول الأسلحة المستقلة في جنييف عام 2019، قال الأمين العام للأمم المتحدة أنطونيو غوتيريش إن تطوير “آلات تتمتع بحرية التصرف والقدرة على إزهاق الأرواح بدون تدخل بشري أمر غير مقبول من الناحية السياسية وبغيض من الناحية الأخلاقية وينبغي حظره بموجب القانون الدولي”، وهو رأي تشاركه فيه العديد من المنظمات الحقوقية ومنظمات المجتمع الدولي في العالم، والتي شكلت تحالفا أطلق عليه اسم حملة “أوقفوا الروبوتات القاتلة”.
مطالبات بوضع أطر تشريعية
في تقرير صدر في أغسطس /آب الماضي، طالب الأمين العام للأمم المتحدة غوتيريش بالتوصل بحلول عام 2026 إلى اتفاقية ملزمة بشأن “حظر نظم الأسلحة المستقلة الفتاكة التي تعمل بدون رقابة أو إشراف بشري والتي لا يمكن أن تُستخدم بشكل يضمن امتثالها للقانون الدولي”.
وقد عُقدت أول قمة دولية لمناقشة الاستخدام المسؤول للذكاء الاصطناعي في أمستردام بهولندا عام 2023، ولكنها لم تتمخض عن أي اتفاق، واستضافت العاصمة الكورية الجنوبية سيول القمة الثانية في سبتمبر/أيلول الماضي، والتي انتهت بتبني 61 دولة لوثيقة بشأن الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري تشدد على أهمية تطبيق قدرات الذكاء الاصطناعي في هذا المجال بما يتفق والقوانين الدولية والوطنية ذات الصلة، والإبقاء على انخراط العنصر البشري في تطوير واستخدام الذكاء الاصطناعي في المجال العسكري. الوثيقة غير ملزمة قانونيا، وإن كان ينظر إليها مراقبون باعتبارها خطوة إيجابية في الاتجاه الصحيح.
يقول البروفيسور راسِل إنه “لتفادي تحول تلك الأسلحة إلى أسلحة دمار شامل، ينبغي على الأقل حظر الأسلحة المستقلة المضادة للأفراد”.
يقول البروفيسور راسِل إن الكثير من الخبراء يتوقعون أن يكون لدينا ذكاء اصطناعي ذو قدرات خارقة خلال العقد الحالي، إذ إن استثمارات ضخمة تصل إلى 200 مليار دولار وفق بعض التقديرات يجري ضخها في هذا المجال.
ويضيف: “الذكاء هو ما يعطي البشر السطوة في هذا العالم. أنظمة الذكاء الاصطناعي سوف تصبح أكثر ذكاء من البشر، ومن ثم أكثر قوة وسطوة، فأنى لنا أن نحتفظ بالسطوة إلى الأبد أمام كيانات أقوى منا بكثير؟”
الفيلسوف وعالم الرياضيات نيك بوستروم هو أحد مؤيدي استخدام التقنيات الحديثة لتحسين قدرات البشر المعرفية وإطالة أعمارهم، ولكنه يحذر في كتاباته وأبحاثه من المخاطر الوجودية المحتملة لتلك التقنيات إذا أسيء استخدامها. يرى بوستروم أن استخدام الذكاء الصناعي في الحروب والنزاعات أمر مثير للقلق، وأنه “من المؤسف أن البشرية تكرس جزءا كبيرا من مصادرها ومن قدرتها على الابتكار لاختراع سبل أكثر فاعلية للقتل والدمار”.
ويضيف في تصريحات لـ بي بي سي عربي: “ينبغي أن نشعر بالخوف والإثارة في آن واحد. فالتطبيقات الإيجابية المحتملة في الطب والصناعة والعلم والترفيه وكثير من المجالات الأخرى تحمل في طياتها إمكانية تغيير أوضاع البشرية إلى الأفضل. إذا ما سارت الأمور على ما يرام، سوف ينظر البشر في المستقبل إلى وقتنا هذا ويهزون رؤوسهم في صدمة وذهول لأن الناس كانوا يعيشون في أوضاع كهذه التي نعيش فيها الآن”.