في عالم تتسارع فيه تقنيات الذكاء الاصطناعي وتتآكل فيه الحدود بين الحقيقة والزيف، لم يعد خطر الحرب النووية مرتبطا فقط بصواريخ عابرة للقارات أو حسابات الردع التقليدية، بل أصبح متصلا أيضا بمقاطع فيديو مزيفة، وصور مفبركة، وخوارزميات قد “تتوهم” هجوما لم يقع، حسبما ورد في مقال بمجلة فورين أفيرز الأميركية.
واستهلت إيرين دومباتشر الباحثة في مجال الأمن النووي بمجلس العلاقات الخارجية الأميركي، مقالها بالتذكير بمحاولات صناع السياسات والإستراتيجيين منع أي دولة من نشر أو استخدام الأسلحة النووية خطأ.
اقرأ أيضا
list of 2 items
end of list
ومع ذلك، لا يزال احتمال وقوع الحوادث قائما اليوم بالقدر نفسه الذي كان عليه خلال الحرب الباردة. وذكرت الكاتبة أنه في عام 1983، أشارت منظومة إنذار مبكر سوفياتية، على نحو خاطئ، إلى أن الولايات المتحدة قد أطلقت هجوما نوويا ضد الاتحاد السوفياتي.
وكان من الممكن لمثل هذا التحذير -وفق المقال- أن يطلق ردا نوويا سوفياتيا كارثيا لولا تدخل بشري استثنائي من الضابط المناوب، ستانيسلاف بيتروف، الذي استنتج أن الإنذار كان كاذبا. ولو لم يفعل ذلك، لكانت القيادة السوفياتية قد وجدت ما يبرر إطلاق أكثر أسلحة العالم تدميرا على الولايات المتحدة.
التقاء الذكاء الاصطناعي بتقنيات “التزييف العميق” مع منظومات الإنذار النووي وآليات اتخاذ القرار قد يفتح الباب لحرب نووية قد تنشب من معلومات زائفة أو إنذارات خاطئة، لا بسبب قرار سياسي متعمد
وتؤكد دومباتشر -التي تعمل أيضا مستشارة في سياسات الأمن الدولي والتكنولوجيا- أن هذه الحادثة ليست مجرد ذكرى تاريخية، بل دليل دائم على هشاشة أنظمة الإنذار النووي، وعلى الدور الحاسم للعامل البشري في منع الكارثة.
وفي رأيها، فإن هذا الخطر لم يتراجع بمرور الزمن، بل تعاظم اليوم مع إدخال الذكاء الاصطناعي إلى البنية الأمنية والعسكرية بصورة أكثر تعقيدا وغموضا.
وحذرت دومباتشر من أن التقاء الذكاء الاصطناعي بتقنيات “التزييف العميق” مع منظومات الإنذار النووي وآليات اتخاذ القرار قد يفتح الباب لحرب نووية قد تنشب من معلومات زائفة أو إنذارات خاطئة، لا بسبب قرار سياسي متعمد.
واعتبرت أن اندلاع حرب نووية سيكون أخطر سيناريو عرفه العالم منذ أن وضعت الحرب الباردة أوزارها في عام 1991 مع تفكك الاتحاد السوفياتي.
وأوضحت أن أحد المخاوف الشائعة يتمثل في احتمال تفويض الآلات مهمة اتخاذ قرار استخدام السلاح النووي، وهو ما تحاول الولايات المتحدة وغيرها تفاديه عبر ضمان بقاء “الإنسان داخل دائرة القرار”، كما تنص عليه الإستراتيجية الدفاعية الأميركية لعام 2022، وكما أكدته التفاهمات بين واشنطن وبكين.
سلاح التزييف العميق
غير أن المقال يشدد على أن هذا التركيز، على أهميته، لا يعالج التهديد الأكثر خفاءً والذي يكمن في قدرة الذكاء الاصطناعي على على إنتاج معلومات مزيفة شديدة الإقناع قد تؤثر في الإدراك البشري نفسه خلال لحظات الأزمة.
واستعرضت الكاتبة أمثلة حديثة على مخاطر التزييف العميق، الذي بات قادرا على تقليد أصوات وصور القادة السياسيين بصورة تجعل التمييز بين الحقيقي والمفبرك بالغ الصعوبة.
واستشهدت بحوادث واقعية، مثل مقطع فيديو زائف -انتشر على نطاق واسع بعد أسابيع من غزو روسيا لبلده عام 2022-يُظهر الرئيس الأوكراني فولوديمير زيلينسكي وهو يدعو شعبه إلى إلقاء السلاح والاستسلام.
التزييف العميق صار قادرا على تقليد أصوات وصور القادة السياسيين بصورة تجعل التمييز بين الحقيقي والمفبرك بالغ الصعوبة.
وفي عام 2023، أدى تزييف عميق آخر إلى اعتقاد بعضهم، على نحو خاطئ، أن الرئيس الروسي فلاديمير بوتين قطع بث التلفزيون الرسمي ليعلن تعبئة عامة شاملة.
وترى الباحثة في قضايا الأمن الدولي والتكنولوجيا في مقالها أن مثل هذه المواد قد تقنع قادة دول نووية -في سياق أزمة دولية- بأن هجوما وشيكا أو قائما قد بدأ فعلا، أو تعزز إنذارات خاطئة صادرة عن منصات استخبارية تعتمد على الذكاء الاصطناعي.
وتلفت الكاتبة إلى أن هذا الاحتمال يكتسب بُعداً أكثر خطورة في الحالة الأميركية تحديدا، حيث يمتلك الرئيس سلطة إصدار أمر باستخدام السلاح النووي دون إلزام قانوني بالتشاور، بينما لا تتجاوز نافذة اتخاذ القرار دقائق معدودة في حال رصد تهديد صاروخي.
عين ناقدة
وسلّط المقال الضوء على خطة عمل للذكاء الاصطناعي، أصدرتها الإدارة الأميركية في يوليو/تموز الماضي، ودعت فيها إلى نشر هذه الأدوات هجوميا في مختلف أرجاء وزارة الحرب، التي تعد أكبر جهاز بيروقراطي في العالم.
ومع أن الذكاء الاصطناعي أثبت فعاليته في تحسين كفاءة بعض جوانب العمل العسكري، وحتى في بعض مهام جمع المعلومات الاستخبارية التقليدية، إلا أن دومباتشر تعتقد أن إدماجه في الأنظمة العسكرية لا ينبغي أن يكون شاملا أو غير مشروط.
فهناك مجالات يجب -في تقدير الكاتبة- أن تبقى محظورة على الذكاء الاصطناعي، وفي مقدمتها أنظمة الإنذار النووي المبكر وأنظمة القيادة والسيطرة.
أزمات متسلسلة
كما تحذر أيضا من “الأزمات المتسلسلة” التي قد تنشأ عندما تُستخدم أنظمة الذكاء الاصطناعي في تفسير بيانات الإنذار المبكر.
وأشارت إلى أن هذه الأنظمة معرضة لما يُعرف بـظاهرة “الهلوسة”، أي استنتاج أنماط أو تهديدات غير موجودة، إضافة إلى ميل البشر إلى الثقة بمخرجات الآلة حتى عندما تكون خاطئة. وترى أن هذا المزيج قد يكرر سيناريوهات شبيهة بحادثة بيتروف، لكن في بيئة معلوماتية أكثر ازدحاما وضبابية.
وفي مقابل الإغراءات التي يقدمها الذكاء الاصطناعي لتعزيز كفاءة الجيش والاستخبارات، تؤكد الكاتبة أن هناك مجالات يجب أن تبقى محظورة على هذه التقنيات، وفي مقدمتها أنظمة الإنذار النووي والسيطرة والقيادة.
إغراءات يقدمها الذكاء الاصطناعي لتعزيز كفاءة الجيش والاستخبارات لا ينبغي أن تطال مجالات يجب أن تبقى محظورة على هذه التقنيات، وفي مقدمتها أنظمة الإنذار النووي والسيطرة والقيادة
فندرة البيانات الحقيقية عن الهجمات النووية تجعل تدريب خوارزميات موثوقة أمرا شبه مستحيل، مما يزيد احتمالات الخطأ، بحسب مقال فورين أفيرز.
وتدعو الكاتبة إلى تبني معايير أعلى للسيطرة البشرية في المجال النووي، تفوق حتى تلك المفروضة على الأسلحة ذاتية التشغيل، مؤكدة أن الأتمتة يجب أن تبقى جزئية ومحدودة، وأن تعتمد القرارات المصيرية فقط على بيانات مؤكدة وغير معدلة.
كما تحث أجهزة الاستخبارات على تحسين تتبع مصدر المعلومات المولدة بالذكاء الاصطناعي، وتدريب صانعي القرار على التعامل بقدر أكبر من الشك مع المحتوى غير القابل للتحقق الفوري.
وتلفت الخبيرة في الأمن الدولي في ختام مقالها إلى أن التحدي الحقيقي في عصر الذكاء الاصطناعي لم يعد يقتصر على منع إطلاق الصواريخ فحسب، بل وعلى الحيلولة دون اتخاذ قرارات نووية بناءً على وهم رقمي قد يقود في نهاية المطاف إلى نهاية العالم.
المصدر: الجزيرة