في ظل الافتقار إلى القواعد التنظيمية والمعايير المهنية والأخلاقية التي ترعى استخدام الذكاء الاصطناعي في قطاع العدالة، ومع غياب القوانين والتشريعات الكافية لمعالجة المخاطر المرتقبة التي قد تنتج من استخدام «العدالة الذكية» بشكل يضمن سيادة القانون وحماية الحقوق والحريات، تُطرح العديد من التساؤلات حول التحديات التي يخلقها الذكاء الاصطناعي على مستويات عدة والمخاوف المترتبة عن دمج الذكاء الاصطناعي في النظام القضائي والإدارة القانونية. هذه الإشكالات وغيرها، كانت محور المؤتمر القانوني الدولي الذي نظمته المنظمة العربية للمحامين الشباب - فرع لبنان الأسبوع الفائت في بيروت تحت عنوان «الذكاء الاصطناعي في مواجهة الجريمة الإلكترونية - الواقع والتحديات»، برعاية نقيب المحامين في بيروت ناضر كسبار ومشاركة محامين من عدد من الدول العربية
لا يختلف اثنان على أهمية الذكاء الاصطناعي والدور الأساس الذي يلعبه في مختلف القطاعات والمجالات. ولكن، ماذا عن دوره في تحسين سير مرفق العدالة وتحقيق الشفافية؟ هل يمكن للذكاء الاصطناعي بأجهزته الذكية أن يعيد تشكيل قطاع العدالة ويعالج المشكلات المزمنة التي يعاني منها القضاء في لبنان؟ وما هي التحديات والمخاوف التي قد تنتج عن دمج الذكاء الاصطناعي في النظام القضائي؟
نستعرض في ما يلي أبرز ما جاء في المؤتمر عن القاضي السابق والأستاذ الجامعي فادي العنيسي، والأمينة العامة الإقليمية لمنطقة الشرق الأوسط للجمعية الدولية للدفاع الاجتماعي لسياسة جزائية إنسانية (ISSD) التابعة للأمم المتحدة، والمستشارة القانونية الدولية المعتمدة لدى الإسكوا في القوانين السيبيرانية جنان الخوري.

عدالة «ذكية»
تحدّث العنيسي عن أهمية استخدام الذكاء الاصطناعي في قطاع العدالة، بما في ذلك منصات البحث القانوني، والتحليلات التنبّئية في العدالة الجنائية، والمساعدين الافتراضيين، مشدداً على ضرورة استغلال إمكانات الذكاء الاصطناعي الذي يتميّز بقدرته على تحليل البيانات وإجراء البحث بسرعة قصوى، وهذا من شأنه إرشاد القانونيين وتمكينهم من وضع استراتيجيات تتسم بالدقة والشمولية. وبالتالي، تمكين قطاع العدالة في الشرق الأوسط من تلبية احتياجات المجتمع، وتعزيز النظام العادل والكفء والشامل للجميع.
ولفتت الخوري إلى أنه من المتوقع أن يكون للذكاء الاصطناعي دور مهم في تسهيل سير العدالة وتحقيق الشفافية واختصار الوقت في القضايا. فعلى سبيل المثال، يستغرق الذكاء الاصطناعي مدة 26 ثانية لمراجعة الاتفاقيات والعقود مقابل 92 دقيقة تقريباً للمحامي.
وأضافت أن هذه التقنيات تستخدم لأغراض عدة في قطاع العدالة، منها التنبؤ ببعض الأحكام القضائية بدقة بلغت 79% (المحكمة الأوروبية لحقوق الإنسان)، واكتشاف الاحتيال في المشتريات الحكومية، وتسجيل تعاملات الشرطة، واستخدام طائرات بدون طيار لمراقبة السجناء، واستخراج إذن القبض والتفتيش في 10 دقائق، وتدشين عصر «الشرطي الروبوت»، وإبطال القنابل، واكتشاف شبكات غسيل الأموال، وغيرها. فيما يُبحث في الوقت الراهن في توسيع تطبيقات الذكاء الاصطناعي كي يتضمن شهادات الشهود ومذكرات المحامين، وربما ستشهد البشرية «قاضياً إلكترونياً».

قيود ومخاوف
أشارت الخوري إلى تحديات متنوعة يخلقها الذكاء الاصطناعي على مستويات عدة تشريعية، وتنفيذية، وإدارية، وفنية، وتطبيقية. وأضافت أن التحدي الأكبر يتمثل بفقدان السيطرة البشرية على الآلة وتفردها الذاتي في الصراعات، والنفاذ إلى كل البيانات من دون أي اعتبار للسيادة الوطنية أو الحرمة الشخصية. وتتعاظم هذه التحديات في ظل غياب تعريف محدد للذكاء الاصطناعي والقواعد التنظيمية والأخلاق المهنية التي ترعاه، ومدى عدّه «بشرياً» وفقاً للقانون. بالإضافة إلى حق الإنسان في استخدام التكنولوجيا الذكية وحق الدول في تأمين أمنها القومي، ومدى منح الحقوق الإنسانية إلى الرجل الآلي أو السيدة الآلية، وحلول الترجمة الآلية السريعة والعملية محل نظيرتها البشرية الدقيقة والمحترفة.

انقر على الصورة لتكبيرها

أما بالنسبة إلى عيوب دمج الذكاء الاصطناعي في النظام القضائي والإدارة القانونية، فقد فنّد العنيسي عدداً من القيود والمخاوف المتعلقة باستخدام الذكاء الاصطناعي في هذا القطاع، وأشار إلى أن الأحكام الصادرة قد تكون ناقصة وخالية من التفسير البشري، كون أنظمة الذكاء الاصطناعي تعمل بناءً على خوارزميات وقواعد محددة مسبقاً. فهي إذ تتميز في معالجة كميات كبيرة من البيانات وتحديد الأنماط، قد تواجه صعوبات في الاستدلال القانوني والتفسير المعقد، ولا سيّما أن القضايا القانونية قد تنطوي على تفاصيل دقيقة قد تتطلب خبرة بشرية. لذلك، فإن الاعتماد الحصري على الذكاء الاصطناعي قد يؤدي إلى تجاهل عوامل مهمة وبالتالي إلى قرارات غير دقيقة.
من جهة أخرى ورغم نجاح مهمة القاضي الروبوت في بعض التجارب، إلّا أن الخطورة تكمن بخلوّه من المشاعر الإنسانية التي يتمتع بها القاضي الإنسان. على سبيل المثال، الحكم في قضية أم سرقت رغيف خبز لأطفالها الجائعين، هنا تكمن روح القانون التي قد لا يستطيع الروبوت تطبيقها.

عدالة «متحيّزة»؟
حذّر العنيسي من خطورة التحيّز التي قد تعمل بها أجهزة الذكاء الاصطناعي، مؤكداً أن استخدامها في النظام القضائي يحتاج إلى دراسة مستفيضة للمسائل القانونية والأخلاقية لضمان العدالة والحفاظ على الحقوق الأساسية. وأن هذه الأجهزة تخضع إلى تدريب الخوارزميات على كمية ضخمة من البيانات، فإذا كانت هذه البيانات مبنية على تحيّزات أو تعكس قلة المساواة الجهازية، فقد يؤدي استخدام أنظمة الذكاء الاصطناعي إلى تكرار هذه التحيّزات، ما يفضي إلى نتائج غير عادلة. كما يمكن أن تكون عملية اتخاذ القرار للذكاء الاصطناعي صعبة التفسير أو التبرير، ما يثير قلقاً بشأن الشفافية والمساءلة. وأشار إلى استطلاع للرأي أجرته (ProPublica) نُشر في 23 أيار 2016، والذي خلُص إلى أن الذكاء الاصطناعي COMPAS) Recidivism Algorithm) يبالغ بإدانة المتهمين من أصول أفريقية أو ذوي البشرة الداكنة، ويخفف من مؤشر إدانة ذوي البشرة البيضاء، ما يثبت تحيّزه العنصري وعدم موضوعيته. وأكد العنيسي ضرورة وجود إجراءات وبروتوكولات صارمة لحماية البيانات التي يحويها النظام القضائي وحفظ حقوق الخصوصية للأفراد المشاركين في الإجراءات القانونية. كونها معلومات حساسة وسرّية تتعلق بالأفراد والقضايا، متخوفاً من خطر الوصول غير المصرّح به، وانتهاك البيانات، أو سوء استخدام المعلومات الشخصية.

بنية تحتية تكنولوجية
الدمج الناجح للذكاء الاصطناعي في النظام القضائي والإدارة القانونية يتطلب بنية تحتية تكنولوجية موثوقة لدعم تنفيذ وصيانة الأنظمة الذكية، التي قد لا تتوفر لدى جميع المرافق. وأشار العنيسي إلى أن هذا الأمر يمكن أن يؤدي إلى زيادة الانقسام الرقمي والفروق في الوصول إلى التكنولوجيا، وبالتالي إلى مزيد من التفاوتات في النظام القضائي. وأوضح أن دمج الذكاء الاصطناعي في قطاع العدالة قد يخلق مقاومة وتحديات في ما يتعلق بالتكيّف والقبول من قبل عدد من المحترفين القانونيين وأصحاب المصلحة المشككين في الاعتماد على الذكاء الاصطناعي في عمليات اتخاذ القرار الحاسمة. إذ يعدّ الذكاء الاصطناعي بالنسبة إليهم عامل تهديد بفقدانهم فرص العمل وتفتت الخبرات البشرية، لذا، من الضروري -وفق العنيسي- معالجة هذه المخاوف من خلال التدريب السليم والتعليم والتواصل الفعّال حول فوائد الذكاء الاصطناعي في تعزيز الكفاءة والعدالة في النظام القضائي.

لإطار قانوني منظّم
يتفق العنيسي والخوري على أهمية الذكاء الاصطناعي الذي سيساهم بلا أدنى شك في تطوير الأنظمة القضائية، إلا أن التحدي الأساسي يتمحور حول مدى ملاءمته للتشريعات الموجودة. وقد شدد العنيسي على ضرورة إصدار تشريعات خاصة بالذكاء الاصطناعي، وعلى وضع إطار قانوني لاستخدام تطبيقاته كي تكون منسجمة مع الصالح العام ومتوافقة مع أحكام القانون ودوره في حماية المجتمع. إلى جانب العمل على وضع مناهج جامعية بهدف إعداد المحامين على استخدام الذكاء الاصطناعي، وتأهيل الكوادر البشرية في مجال المهن القانونية والأنظمة القضائية لتمكينها من التعامل مع هذه التقنيات الحديثة والذكية.
القاضي عنيسي يحذّر: الاعتماد الحصري على الذكاء الاصطناعي قد يؤدي إلى قرارات غير دقيقة

نبّهت الخوري من تحكم الذكاء الاصطناعي بمفاصل مؤسسات الدول والمجتمع العالمي والحياة اليومية للمواطنين وسط مجتمع اصطناعي Artificial Society، بحيث يتخلى فيه البشر عن السيطرة. مشيرةً إلى أن الأسلحة ذاتية التحكم ربما تؤدي، في بعض الأحيان، إلى دمار كارثي وموت فجائي، ما يستدعي الحاجة إلى التغيير في عالمنا بانتهاج أفضل الوسائل التكنولوجية والضوابط القانونية.

أخلاقيات «التقانة»
تندرج أخلاقيات الذكاء الاصطناعي كفرع معاصر في علم الفلسفة تحت عنوان «أخلاقيات التقانة» والتي تختص بالمسائل الأخلاقية المرتبطة بالروبوتات وأنماط الذكاء الاصطناعي المختلفة، وتُناقش حالياً أوجه الشبه أو الاختلاف بين حقوق الروبوتات وحقوق الحيوان.
في مبادرة قانونية، حاول الكاتب الروسي إسحق أسيموف (1920-1992)، وضع ثلاثة قوانين أخلاقية للروبوتات (Three Laws of Robotics) تمهّد لبرمجة أخلاقيات الروبوت وفقاً لها، بهدف تنظيم حقوقها وواجباتها، وتناغم علاقتها بالإنسان بعيداً عن أي أخطار أو مشكلات، واختصرت الخوري هذه القوانين بما يلي:
- عدم السماح للروبوت بإيذاء البشر أو بالسكوت عمّا قد يسبب أذى له.
- واجب الروبوت إطاعة أوامر البشر إلا إذا تعارضت مع القانون الأول.
- واجب الروبوت في المحافظة على بقائه إذا لم يتعارض ذلك مع القانونين الأول والثاني.



دليل «تالين»
على صعيد المكافحة، أشارت الخوري إلى وجود اجتهادات فقهية عديدة، والاستجابة الدولية الأهم والأبرز جاءت في ما يسمى «دليل تالين» للقانون الدولي المنطبق على الحرب الإلكترونية Tallinn Manual on the International Law Applicable to Cyber Warfare ، الذي قام بإعداده مجموعة من فقهاء القانون الدولي. نُشر الإصدار الأول منه عام 2013، ويحتوي على 59 قاعدة قانونية إرشادية لعمل أو سلوك الدول في سياق الحرب الإلكترونية.
ثم أُطلق الإصدار الثاني منه في عام 2017، ليحتوي على 190 قاعدة قانونية إرشادية، ويحدد خصائص الهجوم الإلكتروني، بما في ذلك استهداف البنية التحتية الحيوية وتعطيلها وضرب مرافق الرعاية الصحية وتدمير ممرات النقل والسيارات التي تحتوي على أشخاص ومحاولات اختراق شبكات الكمبيوتر للقوات العسكرية للدول المعارضة. كما ينص «دليل تالين» على أن العمليات الإلكترونية التي من شأنها استخدام أو التهديد باستخدام الهجمات الإلكترونية، ضد إقليم دولة ما أو استقلالية نظام سياسي معيّن بما يتعارض مع ميثاق الأمم المتحدة، تُعدّ غير قانونية.


«السرعة هي جوهر الحرب»
سيقلب التطور التكنولوجي مفهوم الأمن الوطني والدولي رأساً على عقب، «إن خطّ التقسيم الجديد للعالم سيكون بين الذين يملكون المعرفة التكنولوجية وبين المحرومين مِنها، فمن يمتلك المعرفة سيمتلك القوة» ومن سيقود الذكاء الاصطناعي هو من سيحكم العالم (فلاديمير بوتين، أيلول 2017).
هذا ما تؤكده الخوري في حديثها عن أن الذكاء الاصطناعي يجسد اليوم أكبر المخاطر التي تواجهها الأنظمة الديمقراطية في العالم، ووضع أسس الدولة الاستبدادية الرقمية باستخدام أدوات المراقبة والأجهزة للسيطرة على السكان في بعض الأحيان. بدورها قد تلجأ بعض المنظمات الإرهابية إلى شن الهجمات والاعتداءات الإلكترونية، متوقعةً أن تمتلك الولايات المتحدة عدداً من الروبوتات المقاتلة يفوق عدد الجنود البشريين عام 2025.
في هذا السياق، طرحت الخوري تساؤلات ذات علاقة باستخدام الذكاء الاصطناعي في الحروب ومنها: ما مدى قدرة الجندي الإلكتروني على التمييز بين المدنيين والعسكريين؟ وما درجة الحرية الفعلية التي ستُمنح لهذا الذكاء الاصطناعي كي يتخذ قراراته الخاصة بناءً على تحليله للمعلومات؟ وما هو القانون الواجب التطبيق؟ هل يمكن تحميله المسؤولية القانونية عن قرارته؟ ولا سيّما في ظل غياب الأطر القانونية والقواعد والأعراف الدولية لتحديد ما إذا كان تحرك دولة أو أحد «روبوتاتها» ضد دولة أخرى معادية لها يعدّ حرباً أم لا. وهل ستحرك الدولة المعتدى عليها «روبوتاتها» في إطار الرد الذي ينص عليه القانون الدولي العام في الدفاع عن نفسها؟ وماذا لو لم تكن تملك روبوتات هل تستعين بالجيش التقليدي؟
رغم الأهمية البالغة للحوسبة الرقمية فإن تخلّي البشر عن السيطرة الفعلية على مجريات الحرب ستكون عواقبه كارثية، يقول مدير الدراسات في مركز الأمن الأميركي الجديد ومؤلف كتاب «من أربع ساحات القتال: القوة في عصر الذكاء الاصطناعي» بول شار - Paul Scharre، في مقالة له بعنوان «مليون خطأ في الثانية -A million mistakes a second». مؤكداً أن ذلك ممكناً خاصة في ظل غياب توجه رسمي شبه تام لترسانة تشريعية قابلة للتطبيق لتدعيم بنيتها التحتية ضد الهجمات الإلكترونية.