الآن وغداً

  بالشراكة مع:



الاقتصادي – الآن وغداً:

 

بقلم: مايكل ليفرمور، دان روكمور

تُطوّر البلدان حول العالم على نحو سريع مهّد لإحداث التغيير على المستوى الاجتماعي والسياسي والاقتصادي، وذلك بفضل البيانات الضخمة والذكاء الاصطناعي. ولكن ما يبدو جيداً في مكان ما غالباً ما يكون مريعاً في مكان آخر، فقد تبنت الصين تكنولوجيا التعرف على الوجوه المتعارف عليها، والتي تقلق الكثير من الأميركيين. وفي حين أنّ غالبية الناس في الولايات المتحدة غير متحمسين بشأن تسليم أنواع أخرى من البيانات إلى الشركات بهدف تغذية خوارزميات تعلم الآلة، إلا أنّ الأوروبيين كانوا أكثر حذراً، لقد تبنوا مفهوم "حق المرء في أن يُنسى" وحمّل "النظام الأوربي العام لحماية البيانات" الشركات عبء حماية بيانات مواطني الاتحاد الأوروبي، ما أدى بالفعل إلى فرض غرامات على "شركة جوجل" تزيد على 50 مليون دولار.

كما اتخذ "الاتحاد الأوروبي" رؤية متشككة أكثر من ناحية التحليلات، إذ طوّر مجموعة من المبادئ التوجيهية للاعتبارات الأخلاقية، مثل الشفافية وعدم التمييز فيما يتعلق ببحوث وتطوير الذكاء الاصطناعي. يبدو أنّ هذا السعي هو الخطوة الأولى نحو وضع قواعد تنظيمية لمجال تطوير الذكاء الاصطناعي وإعطائه المزيد من القوة.

أما اليوم، فإنّ قانون فرنسا الجديد يجعل الانخراط فيما يسمى بـ"التحليلات القضائية" أمراً غير قانوني، والتي تمثل (تقريباً) استخدام الإحصاءات وتعلم الآلة لفهم أو التنبؤ بالسلوك القضائي. وأحد الأمثلة الحديثة على هذا النوع من التحليل هو التالي: جمع الباحثون الأميركيون بيانات المحكمة لدراسة تجريبية حول كيف يحد الاحتجاز قبل المحاكمة من القدرة التفاوضية للمتهمين في قضايا جنائية خلال مفاوضات الإقرار بالذنب. ولكن إذا أُجريت الدراسة نفسها في فرنسا، فقد يجد الباحثون أنفسهم في مكان آخر بعيداً عن دراستهم؛ أي أنهم بذلك يكونوا قد خرقوا القانون الجديد الذي ينطوي على عقوبة تصل إلى خمس سنوات من السجن.

في السنوات الأخيرة، حقق الذكاء الاصطناعي تقدماً استثنائياً في ممارسة القانون. وأحدثت المساعي الأخيرة للتحويل الرقمي للنصوص القانونية، من اللوائح الاتحادية إلى نصوص قاعة المحكمة، صناعة عالمية ناشئة في التحليلات القانونية. تحاول فرنسا وقف تدفق البيانات من خلال حظر استخدام المعلومات العامة "تقييم أو تحليل أو مقارنة أو التنبؤ" لكيفية اتخاذ القضاة للقراراتهم. والنتيجة هي أنّ الفرنسيين سيكون لديهم معلومات أقل حول كيفية عمل نظامهم القضائي، ولن يكون لدى الآخرين إمكانية الوصول سوى إلى القليل من الأدوات لمساعدتهم.

من الجانب الآخر، نشرت الصين مؤخراً ملايين النصوص القانونية للعموم كبيانات تدريب للأتمتة المستقبلية المستندة إلى الذكاء الاصطناعي. بينما تتبع الولايات المتحدة نهجاً يُعتبر أسوأ من الاثنين، إذ إنّ المستندات القانونية متاحة لكنها مقفلة ولا يمكن الوصول إليها إلا من خلال دفع رسوم لقاء كل صفحة ويب.  

حسب بعض التقديرات، فإنّ خوف فرنسا من استخدام البيانات هو مسألة اقتصادية، فقد يؤدي المزيد من الوصول العام إلى البيانات أو وصول الجمهور إلى البيانات المعالجَة للحد من الحاجة إلى محامين. ولكن هناك الكثير من الأسباب المهمة الأخرى التي يجب أخذها بعين الاعتبار حول دور البيانات الضخمة في القانون، وأحد تلك الأسباب هو مشكلة التحيز. فإنّ البيانات التي يخلقها البشر والمستخدمة لتدريب خوارزميات تعلم الآلة يمكن تلويثها بسهولة بالعنصرية أو التحيز القائم على أساس النوع الاجتماعي أو غيره من التحيزات. وسوف "تتعلم" تنبؤات الآلة ما الذي سيفعله الإنسان في موقف مشابه، الأمر الذي سيفضي غالباً إلى نتائج تمييزية في ضوء الإعداد الضعيف لبيانات التدريب. على سبيل المثال، تم انتقاد الأدوات التحليلية للبيانات المستخدمة في إجراءات الكفالة لتحديدها درجات بمستوى أعلى من المخاطر للمتهمين من أصحاب البشرة السوداء، ما قد يؤدي إلى رفض كفالتهم وبالتالي قضاء المزيد من الوقت في السجن خلال انتظار المحاكمة.

إنّ أدوات الذكاء الاصطناعي قد تؤدي أيضاً إلى تفاقم عدم المساواة فيما يتعلق بالثروة في النظام القانوني. وبالفعل، تُقدم الخدمات القانونية وفقاً للقدرة على الدفع، حيث يشتري الأغنياء بالمال خدمة ممثلين عنهم من أصحاب الكفاءات العالية. ويمكن للذكاء الاصطناعي تعزيز هذه الظاهرة، فيصبح الأثرياء فقط قادرين على شراء أحدث البرامج، في حين يُحتجز باقي الناس مع البشر المعززين آلياً على نحو جزئي بذاكرتهم وسرعة معالجتهم المحدودة. من ناحية أخرى، قد يؤدي تقليص الخدمات القانونية للفقراء من قبل الحكومة في النهاية إلى الاعتماد المفرط على أدوات دون المستوى من الذكاء الاصطناعي، و"ربما" المزيد من المحامين الإنسانيين الأذكياء وبرامج مخصصة محفوظة للأثرياء.

لكن الحظر هو نهج غير صائب والذي يؤدي إلى الحرمان من النتائج الجيدة المحتملة بسبب تلك السيئة. وقبل كل شيء، قد يكون هذا الأمر غير قانوني، إذ يحمي كل من "الدستور الفرنسي" و"الاتفاقية الأوروبية لحقوق الإنسان" حرية التعبير، وهو ما يقيده هذا القانون. من المنظور العملي، يمكن أن تساعد أدوات الذكاء الاصطناعي على توسيع نطاق الوصول إلى المحاكم والمشورة القانونية، والتي غالباً ما تكون خدمات مكلفة ومتاحة فقط للأثرياء. بالفعل، بدأت الشركات في مساعدة المحاكم على إنشاء منصات عبر الإنترنت لا تجبر الناس على أخذ إجازة من العمل أو السفر لمسافات طويلة لمعالجة المشكلات القانونية. إنّ التعلم الآلي لديه إمكانات كبيرة للمساعدة في تبسيط وتحسين عملية صنع القرار الحكومي ضمن مجموعة من السياقات ، خاصةً عندما يجب حل المسائل المماثلة بأحجام كبيرة.

إنّ حظر تحليل الآراء القضائية لا يمنع استحداث بوتات يمكنها أداء مهام المحامي أو يعيق الابتكار التكنولوجي القانوني فحسب، بل أنه يحظر البحث على حد سواء. قد يفضل القضاة أن يتم عزلهم على هذا النوع من التدقيق الخارجي الذي اكتشف على سبيل المثال قدراً مروعاً من التعسف في إجراءات الهجرة في الولايات المتحدة، لكن الجمهور وصانعي السياسات يحق لهم الوصول إلى هذه المعلومات. كان التحويل الرقمي للنصوص القانونية بمثابة نعمة للباحثين الذين يدرسون ممارسات المحاكم والمؤسسات القانونية الأخرى. في كتابنا الأخير "القانون من خلال البيانات" (Law as Data)، ننظر في كيفية استخدام الباحثين لهذه البيانات لدراسة كل شيء ابتداء من "المحكمة العليا الأميركية" و"مجالس الإفراج المشروط في كاليفورنيا" وليس انتهاء بـ"تشريع قوانين الولايات" و"هيكل القانون التشريعي الأوروبي". وإذا قمنا بإدراج فصل عن المحاكم الفرنسية، فقد يتم حظر الكتاب في هذا البلد، الأمر الذي يُعتبر بمثابة عاقبة عبثية من شأنها أن تجمد سير البحوث وتضعف جودة الخطاب العام حول صنع القرارات القانونية.

إنّ حظر التحليل الإحصائي للآراء القانونية هو أمر فارغ وربما عديم الجدوى، لكن لا يعني هذا عدم وجود شيء يمكن القيام به لتوقع المخاطر الناتجة عن نظام قانوني معزز قانونياً ومعالجتها. ما نحتاج إليه هو المزيد من البيانات القانونية الشفافة والتي يمكن الوصول إليها، بالإضافة إلى سياسات ومبادرات مناسبة. يمكن أن تلعب الولايات المتحدة دوراً قيادياً من خلال إتاحة "خدمة الوصول العام لقاعدة البيانات الخاصة بالوثائق القانونية" (PACER)، والتي لا يمكن الوصول إليها حالياً إلا من خلال دفع رسوم. ستقدم هذه البيانات للباحثين وشركات التكنولوجيا كنزاً دفيناً من البيانات التي يمكن استخدامها لدراسة النظام القانوني وتطوير تكنولوجيات جديدة على حد سواء، وذلك لتحسين فرص الوصول إلى العدالة. وبالمثل، يمكن إتاحة مواد قانونية أخرى، مثل قرارات مجالس الإفراج المشروط أو الأحكام المتعلقة باستحقاقات العجز.

ينبغي أن تكون المحاكم على جميع المستويات أكثر قوة فيما يتعلق باستخدام التكنولوجيا للحد من أعباء النظام القانوني، خاصة على الفقراء. في الوقت نفسه، يجب تثقيف صناع القرار حول المخاطر التي تصاحب التكنولوجيا وتحليلات البيانات، ويجب أن تخضع أي تقنية لمعايير عالية قبل توظيفها. ويجب أن يكون أيضاً من ضمن الأولويات تمويل البحث الذي يستكشف على وجه التحديد التحيز والتمييز في النظم القانونية المعززة آلياً ومعالجتها.

قد تكون البوتات التي يمكنها أداء مهام المحامي بعيدة المنال، لكن هناك عمليات تحول أخرى سارية العمل فعلاً، إذ تدرك شركات التكنولوجيا والباحثون على حد سواء أهمية البيانات والتقنيات التحليلية الجديدة لتعزيز النظام القانوني وتطويره. إنّ محاولة فرنسا لحظر تحليل البيانات لن توّقض هذا الامتداد، رغم أنها قد تعيق التقدم محلياً. لكن هذا لا يعني أنّ صانعي السياسة يمكنهم اتباع سياسة عدم التدخل، بل يجب عليهم إنشاء قنوات مفتوحة وشفافة للمعلومات يرافقها أيضاً الاهتمام بتفاصيل مزايا ومخاطر أي تقنيات جديدة يتم دمجها في النظام القانوني. ويبقى الوصول إلى العدالة أحد أهم الالتزامات التي يقدمها المجتمع للناس، ويمكن أن تساعدنا التقنيات الحديثة على الوفاء بذلك الالتزام، ولكن فقط إذا أبقينا عيناً ساهرة على تطبيق الآليات.

تنويه هذه المقالة تنشر حصرياً بالتعاون بين الاقتصادي.كوم ومشروع فيوتشر تنس (Future Tense) المبادرة بين موقع سليت (SLATE) ومركز أميركا الجديدة للفكر (NEW AMERICA) وجامعة ولاية أريزونا (ASU). جميع الحقوق محفوظة.


error: المحتوى محمي , لفتح الرابط في تاب جديد الرجاء الضغط عليه مع زر CTRL أو COMMAND