الذكاء الاصطناعي والقانون.. من المسؤول عندما تتوقع الآلة الجريمة ولا تمنعها؟

 

بينما تتطور قدرة الذكاء الاصطناعي على التنبؤ بالعنف، تبرز معضلة أخلاقية وقانونية معقدة، هي: أين ينتهي حق المستخدم في الخصوصية، وأين تبدأ مسؤولية الشركات في حماية المجتمع؟

سؤال بسيط في ظاهره، لكنه أصبح قضية رأي عام عالمية عقب مأساة بلدة تامبلر ريدج الكندية، التي كشفت عن منطقة رمادية قانونية تخنق الشركات وتكلف المجتمعات أثمانا باهظة.

حلقة (2026/4/8) من برنامج “حياة ذكية” حاولت الإجابة عن هذا السؤال وتحليل تلك المعضلة من الجانبين التقني والقانوني من خلال سرد مأساة تامبلر ريدج.

وتعود تفاصيل القضية إلى يونيو/حزيران 2025، عندما رصدت أنظمة شركة الذكاء الاصطناعي “أوبن إيه آي” محادثات مكثفة لمستخدم كندي شاب يُدعى “جيسي فان روستيلر”، حيث كانت محادثاته مع “تشات جي بي تي” تتضمن سيناريوهات عنف تفصيلية تعكس رغبة في القتل، مما دفع الخوارزميات إلى تصنيفها تحت بند “تعزيز أنشطة عنيفة”.

داخل أروقة الشركة، احتدم نقاش سيادي بين فريقين، رأى أحدهما في الإشارات نذيرا بالخطر يستوجب إبلاغ السلطات فورا، في حين تمسَّك الفريق الآخر بمعايير الخطر الوشيك، موضحا أن المحادثات تفتقر إلى خطط لوجستية أو أهداف محدَّدة، وأنها مجرد نصوص افتراضية قد تندرج تحت حرية التعبير أو التفريغ النفسي. وحينها انتهى القرار بحظر حساب الشاب الكندي فقط، دون إخطار أجهزة الأمن.

لكنَّ هذا القرار تحوَّل إلى صراخ في الواقع، فبعد سبعة أشهر، وتحديدا في فبراير/شباط 2026، نفذ روستيلر تهديداته الافتراضية، فقتل والدته وأخاه، ثم هاجم مدرسته الثانوية فحصد أرواح خمسة طلاب ومساعدة معلمة، قبل أن ينهي حياته.

الفراغ القانوني

وخلال ما ورد في الحلقة (يمكنكم مشاهدتها كاملة هنا) وضعت هذه المأساة شركات التكنولوجيا والسلطات السياسية في مواجهة حادة، فقد اتهم رئيس وزراء المقاطعة ديفيد آبي “أوبن إيه آي” بالتقاعس، مطالبا بمعايير وطنية ملزمة.

ومع ذلك، يصطدم الواقع التشريعي بفراغ كبير، ففي كندا والولايات المتحدة لا توجد قوانين تُلزم المنصات بإبلاغ السلطات عن المحادثات التي تنطوي على عنف، ما لم تتعلق بالاعتداء الجنسي على الأطفال.

ورغم محاولات الاتحاد الأوروبي صياغة التزامات أوسع، فإن آليات التنفيذ لا تزال متعثرة، مما يترك القرار النهائي بأيدي الشركات لا القانون.

ويدافع أنصار الخصوصية عن قرار الشركات بالصمت، محذرين من أن التحول إلى مخبر رقمي قد يفتح الباب أمام دولة مراقبة شاملة.

والسبب تقني بقدر ما هو حقوقي، فحتى لو بلغت دقة الرصد 99%، فإن نسبة الخطأ الضئيلة تعني آلاف الإنذارات الكاذبة يوميا، وهو ما قد يؤدي إلى مداهمات أمنية لمنازل أشخاص أبرياء بناء على خوارزمية أخطأت في فهم سياق الكلام.

ويرى خبراء أن سجلات الدردشة ليست مجرد بيانات بل هي اعترافات نفسية وأسرار طبية وعائلية، وأن تحويل هذه المنصات إلى أداة أمنية قد يدفع المستخدمين إلى العزلة، ويحرمهم من مساحة للتعبير عن اضطراباتهم خوفا من الملاحقة.

ذكاء يرى ومجتمع يترقب

ولم تعد شركات الذكاء الاصطناعي اليوم مجرد مزود تقني، بل أصبحت لاعبا اجتماعيا يمتلك قدرة تنبؤية لم تكن تملكها الحكومات من قبل. وحين ترصد الخوارزمية نمطا مقلقا، لا يكون السؤال تقنيا، بل يتحول إلى ميزان أخلاقي بشأن مقدار الخصوصية الذي يقبل المجتمع التضحية به مقابل الأمن.

مأساة “تامبلر ريدج” أثبتت أن التكنولوجيا لم تعد تكتفي برصد الواقع، بل أصبحت شريكة في المسؤولية عن ظلال العنف قبل وقوعه.

وبين مطرقة الرقابة وسندان الجريمة، يبقى الخط الفاصل بين حماية الخصوصية ومنع المأساة هو التحدي الأكبر الذي يواجه البشرية في عصر الذكاء الاصطناعي.

 

المصدر: الجزيرة