تكنولوجيا

استخدام الذكاء الاصطناعي في العدالة الجنائية.. فرصة أم تهديد؟


تخيل أن تُتهم بجريمة لم ترتكبها، وتكون الأدلة الوحيدة ضدك صور ومقاطع فيديو مزيفة أُنشئت باستخدام أدوات الذكاء الاصطناعي! هذا السيناريو أصبح واقع يعيشه الكثيرون اليوم. فقد حذر يورجن ستوك؛ الأمين العام للإنتربول، من أن الذكاء الاصطناعي أصبح أداة قوية في أيدي المجرمين، ويُستخدم الآن لارتكاب جرائم على نطاق واسع، فالتزييف العميق لمقاطع الفيديو، ومحاكاة الأصوات، وتزييف الوثائق، كلها تقنيات يسهل الوصول إليها بفضل التطور السريع للذكاء الاصطناعي، مما يهدد أمن المجتمعات. ولكن في الوقت نفسه، تتسابق الأجهزة الأمنية حول العالم لاستخدام أدوات الذكاء الاصطناعي مثل: أنظمة تعرّف الوجوه،  وأنظمة تعرف لوحات السيارات تلقائيًا، وأنظمة الكشف عن إطلاق النار، وتحليل وسائل التواصل الاجتماعي، وحتى روبوتات الشرطة. كما بدأ المحامين والقضاة بتبني أدوات الذكاء الاصطناعي لمساعدتهم في إدارة القضايا واتخاذ القرارات بسرعة. ولكن في حين يَعد الذكاء الاصطناعي بتحويل منظومة العدالة الجنائية من خلال زيادة الكفاءة التشغيلية وتحسين السلامة العامة، فإنه يأتي أيضًا مع مخاطر تتعلق بالخصوصية والمساءلة والإنصاف وحقوق الإنسان. ومن أبرز هذه المخاوف هو خطر التحيز والتمييز، فمن المعروف أن الخوارزميات التي تشغل أنظمة الذكاء الاصطناعي تتضمن تحيزات موجودة في البيانات التي تدربت عليها، مما يؤدي إلى نتائج غير عادلة. فكيف يمكننا ضمان أن أنظمة الذكاء الاصطناعي المستخدمة في العدالة الجنائية خالية من التحيزات، ومن سيتحمل المسؤولية عن الأخطاء التي قد يرتكبها نظام ذكاء اصطناعي في اتخاذ قرار قضائي؟ هل هو المبرمج؟ أم الشركة المطورة؟ أم القاضي الذي اعتمد على نتائج النظام؟ كل ذلك يدفعنا إلى طرح العديد من التساؤلات مثل: هل يمكننا الثقة بأن الذكاء الاصطناعي سيخدم العدالة بشكل عادل وموضوعي، أم أن مخاطر التحيز والخطأ قد تفوق فوائده؟ وكيف يمكننا ضمان أن حقوق الإنسان الأساسية محمية في ظل التطور التكنولوجي السريع؟ أولًا؛ ما الوعود والمخاطر المترتبة على استخدام الشرطة للذكاء الاصطناعي؟ كشف تحقيق أجرته صحيفة نيويورك تايمز في عام 2020، عن شبكة واسعة من المراقبة الرقمية طورتها شركة (Clearview AI) الأمريكية. فقد جمعت الشركة سرًا أكثر من ثلاثة مليارات صورة شخصية من الإنترنت، بما يشمل: منصات التواصل الاجتماعي، لتشكل قاعدة بيانات ضخمة تستخدم في نظامها لتعرّف الوجوه، وقد جرت هذه العملية دون موافقة واضحة من الأفراد المعنيين، مما أثار جدلًا واسعًا حول الخصوصية وأمن البيانات. وقد استغلت العديد من وكالات الشرطة في جميع أنحاء العالم – وكان أكثرها في كندا آنذاك – قاعدة بيانات Clearview AI في عملياتها، وقد أثار ذلك ردود فعل عنيفة من الجمهور، ووجدت المنظمات الحقوقية في بلدان متعددة أن ما فعلته الشركة يُعدّ انتهاكًا صارخًا للخصوصية. وردًا على هذه الانتقادات، فرضت العديد من البلدان قيودًا على استخدام هذه التقنية، وطُلب من (Clearview AI) وقف عملياتها في بعض البلدن وأهمها كندا. ومع ذلك تواصل شركة (Clearview AI) الترويج لتقنيتها، مستشهدة بقصص نجاح في حل الجرائم وتحديد المشتبه بهم، بل وصل الأمر إلى أنها ساعدت اكتشاف جنود روس يسعون إلى التسلل إلى نقاط التفتيش الأوكرانية. مخاطر التقنية وتأثيرها في الفئات المهمشة: لم تقضي قصص شركة (Clearview AI) حول نجاح تقنيتها على المخاوف المتزايدة من دقتها، فقد أشارت العديد من الدراسات إلى أن تقنية تعرف الوجوه مازالت ترتكب أخطاء في تعرف الأفراد، خاصة الأشخاص ذوي البشرة السمراء وغيرهم من الأقليات العرقية، وهذه الأخطاء يمكن أن تؤدي إلى نتائج وخيمة، مثل: اعتقال الأبرياء أو التمييز العنصري. استجابة السلطات: أدت هذه المخاوف إلى دعوات متزايدة لتنظيم استخدام تقنيات تعرّف الوجوه، خاصة في مجال إنفاذ القانون، فقد اتخذت بعض وكالات الشرطة في كندا خطوات أولية في هذا الاتجاه، من خلال وضع سياسات جديدة وتبني مبادرات الشفافية، مثل: سياسات خدمة شرطة تورنتو بشأن استخدام الذكاء الاصطناعي وبرنامج الشفافية في شرطة الخيالة الملكية الكندية. كما وعدت جهات أخرى، مثل إدارة شرطة فانكوفر، بتطوير سياسات لكنها لم تفعل ذلك، وقد اتخذ هذا النهج الكثير من وكالات الشرطة حول العالم. لذلك، لا تزال هناك فجوات كبيرة في الإطار التنظيمي، مما يترك الباب مفتوحًا للاستخدام غير المشروع لهذه التقنية. ثانيًا؛ الذكاء الاصطناعي والأدلة المزيفة في قاعات المحاكم؟ تتجاوز تحديات الذكاء الاصطناعي في النظام القضائي مجرد التحيز في الخوارزميات، بل تمتد إلى تهديد أساسي وهو الشك في مصداقية الأدلة نفسها، فبفضل تطور تقنيات التزييف العميق، أصبح من السهل للغاية توليد صور ومقاطع فيديو ومقاطع صوتية مزيفة لكنها واقعية للغاية لدرجة لا يمكن تمييزها عن الحقيقية. ويفتح هذا التطور الباب أمام إمكانية التلاعب بالأدلة المقدمة في المحاكم، مما يثير الشكوك حول صحة أي دليل رقمي. وقد أدت هذه الظاهرة بالفعل إلى حالات يزعم فيها أحد الطرفين أن أدلة الطرف الآخر مزيفة، مما يثير الشك فيها، حتى لو كانت شرعية، وقد أُطلق على هذه الظاهرة اسم (ربح الكاذب) liar’s dividend، لأن الطرف الذي يزعم أن أدلة الطرف الآخر مزيفة يحصل على ميزة مؤقتة، حتى لو ثبت في النهاية أن أدلته هي التي كانت مزيفة. وقد ظهر مثال صارخ على هذه التحديات في قضية جوشوا دولين، الذي واجه اتهامات تتعلق بتمرد 6 يناير 2021 في مبنى الكابيتول الأمريكي، والذي أدين به في النهاية، إذ طعن محامي الدفاع في مصداقية أدلة مقاطع الفيديو التي قدمها الإدعاء، والتي حصل عليها من منصات مثل يوتيوب، مدعيًا إمكانية التلاعب بها. وزعم محامي دولين أنه يجب إلزام المدعين العامين بالمصادقة على أدلة الفيديو المأخوذة من موقع يوتيوب، مما أثار مخاوف بشأن الاستخدام المحتمل للأدلة المزيفة. كما تتسبب حوادث التزييف العميق التي تستهدف الشخصيات العامة في زرع الشك في أذهان المحلفين حول مصداقية أي دليل بصري أو سمعي، مما جعلهم أكثر حذرًا وتشككًا في الأدلة المقدمة أمامهم. ويعبر القضاة أيضًا عن قلقهم المتزايد إزاء صعوبة تمييز الأدلة المزيفة المعقدة، التي تُقدم كأدلة حقيقية في المحاكم، إذ يهدد هذا الأمر بوقوع أخطاء قضائية جسيمة، قد تؤدي إلى إدانة الأبرياء أو تبرئة المجرمين. وقد أصبح هذا التحدي حديث الساعة في الأوساط القانونية، إذ يعبر القضاة والمحامون عن قلقهم من إمكانية وقوع أخطاء قضائية بسبب صعوبة تمييز الحقيقة عن الزيف، ويدعون إلى تطوير آليات جديدة للتعامل مع تحدي الأدلة المزيفة. فهم يرون أن النظام القضائي بحاجة إلى تحديث قوانينه وإجراءاته لتتناسب مع التطورات التكنولوجية المتسارعة. ثالثًا؛ كيف تهدد خوارزميات الذكاء الاصطناعي العدالة والمساواة؟ تخيل أن خوارزمية الذكاء الاصطناعي، التي لا يمكننا فهم آلية عملها، وحتى العلماء والمبرمجين الذين قاموا ببنائها لا يعرفون آلية عملها وتطورها، هي من تصدر الأحكام، هي من تحكم عليك بأنك تشكل خطرًا على المجتمع، وأن احتمال عودتك إلى ارتكاب الجرائم مرتفع. بناءً على هذا الحكم الآلي، يرفض القاضي أو هيئة الإفراج المشروط إطلاق سراحك. هذا السيناريو المرعب ليس من نسج الخيال، بل هو واقع مرير يعيشه الكثيرون في عالمنا اليوم. ففي العديد من البلدان، تُستخدم خوارزميات الذكاء الاصطناعي على نطاق واسع لاتخاذ قرارات مصيرية تؤثر في حياة الأفراد، بدءًا من تحديد الأهلية للحصول على خدمات حكومية أساسية مثل الرعاية الصحية، وحتى تحديد مصيرهم في السجون، إذ تُستخدم لتقييم مخاطر العودة إلى الإجرام، ومخاطر العنف المنزلي، وفحص طلبات الهجرة، وحتى التنبؤ بالسلوك المستقبلي للأفراد، وغيرها الكثير. ونتيجة لذلك، يجد الأفراد أنفسهم محاصرين في دوامة من الظلم، عاجزين عن فهم الأسباب وراء القرارات المتخذة بحقهم. مشكلة الصندوق الأسود للذكاء الاصطناعي: المشكلة تكمن في أن هذه الخوارزميات عبارة عن صناديق سوداء، نرى المدخلات والمخرجات، ولكننا لا نفهم تمامًا العمليات الداخلية التي تحدث لتحويل تلك المدخَلات إلى مخرَجات. مما يصعب فهم كيفية وصولها إلى نتائجها. ولا يمكن للأفراد المتأثرين بهذه القرارات فهم الأسس التي بني عليها الحكم عليهم، مما يحرمهم من حقهم في الطعن والاعتراض. ومن ثم؛ يُعدّ أحد أكبر المخاوف المتعلقة باستخدام الخوارزميات في العدالة الجنائية هو خطر التحيز العنصري، فبما أن هذه الخوارزميات مدربة على بيانات من مجتمعات غارقة بالفعل في العنصرية المنهجية، فإنها ستكرر هذه العنصرية والتحيزات في قراراتها. بعبارة أخرى، البيانات التي تدخل هي التي تخرج، وهذا يعني أن الأفراد من الأقليات العرقية هم أكثر عرضة للتأثر سلبًا بهذه الخوارزميات. رابعًا؛ الذكاء الاصطناعي في العدالة الجنائية بين التحديات والآمال؟ تتطلب التطبيقات العالية المخاطر للذكاء الاصطناعي في مجال العدالة الجنائية، مثل تقييم مخاطر العودة إلى الإجرام واتخاذ قرارات الكفالة، وضع أطر قانونية وأخلاقية صارمة لضمان استخدامه بشكل مسؤول. لأن الاعتماد على خوارزميات غير شفافة وغير قابلة للمساءلة في اتخاذ قرارات مصيرية قد يؤدي إلى نتائج عكسية، مثل زيادة معدلات الحبس التعسفي والتمييز العنصري. وقد بدأت دول الاتحاد الأوروبي بتبنى قوانين تحظر استخدامات معينة للذكاء الاصطناعي، إذ يحرم قانون الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act) ممارسات مثل: جمع الصور الشخصية من الإنترنت أو كاميرات المراقبة دون إذن، وتعرف الأشخاص من بُعد في الأماكن العامة لحظيًا، وتقييم احتمالية ارتكاب الجرائم مستقبلًا بناءً على معلومات شخصية محددة. وذلك بهدف حماية البيانات الشخصية ومنع التمييز. ومن ثم؛ يجب على الدول الأخرى أن تسعى إلى تطوير تشريعات مماثلة تحدد معايير واضحة لاستخدام هذه التقنيات، مع مراعاة الحفاظ على حقوق الإنسان والخصوصية، إذ إن تطوير مثل هذه الأطر القانونية ليس مجرد ضرورة تقنية، بل هو أمر حيوي لضمان عدالة ونزاهة الأنظمة القضائية. الخلاصة: يُعدّ الذكاء الاصطناعي قوة دافعة للتغيير، ولكن يجب أن يكون هذا التغيير إيجابيًا وفي خدمة الصالح العام، لذلك يجب على الدول والحكومات العمل بسرعة لوضع أطر قانونية وأخلاقية صارمة لاستخدام الذكاء الاصطناعي في العدالة الجنائية، وذلك لضمان أن تكون هذه التقنية أداة لتعزيز العدالة والمساواة، وليس أداة لتعزيز التمييز والظلم. نسخ الرابط تم نسخ الرابط