الآن وغداً

  بالشراكة مع:



الاقتصادي – الآن وغداً:

 

ماذا نعني بأخلاقيات الذكاء الاصطناعي؟ وهل من الممكن تطبيق ذلك؟

بقلم: جويل رينستروم

 

في العام 2013، أصدرت خوارزمية حكماً بالسجن لمدة ست سنوات على إيريك لوميس في ولاية ويسكونسن الأميركية، لمحاولته الهرب من شرطة المرور واستقلاله لسيارة من دون موافقة مالكها. لم يعلم أحد حينها كيف طبقت برمجية إدارة الإصلاحية للعقوبات البديلة (COMPAS) ذلك، ولا حتى القاضي الذي أدلى بالحكم. ووجدت التحليلات التي أجرتها منظمة بروبابليكا (ProPublica) المتخصصة بالصحافة الاستقصائية، أنّ الذكاء الاصطناعي التنبؤي المستخدم في هذه القضية، والذي يحاول قياس احتمال ارتكاب الجاني لجريمة أخرى، كان عنصرياً: إذ وجدت دراسة امتدت لعامين وشملت 10,000 متهم أنّ الذكاء الاصطناعي قد بالغ بأحكامه في تقدير احتمال ارتكاب جناية أخرى بين المتهمين ذوي البشرة السوداء، وأساء تقديرها بين المتهمين ذوي البشرة البيضاء. وبعد أن رفضت المحكمة العليا الأميركية إعادة النظر في قضية إيريك لوميس، لا تزال العقوبة قائمة.

سيصبح لدى الذكاء الاصطناعي قدرة أكبر على تغيير مسار حياة الناس مع مرور الوقت، إذ إنه اليوم يتولى جزءاً من القرارات المتعلقة بالتعيين والطرد والسجن، وأي مدارس على الطلاب الالتحاق بها، وكيف يعالج الأطباء مرضاهم. وسوف يؤثر ذلك على الشؤون الخارجية للبلاد والاقتصاد (وخاصة بعد أتمتة الوظائف) والنقل والبنية التحتية. وإنّ كل تطبيق جديد للذكاء الاصطناعي يمثل فرصة اقتصادية، وهذا جزء من سبب تسمية الاندفاع نحو التطور بـ"سباق الفضاء الجديد". وأبرز البلدان المتصدرة لهذا السباق هي الصين، مع استثمارات بمليارات الدولارات وخطة وطنية طموحة للهيمنة على القطاع وكذلك  والولايات المتحدة، عن طريق التقدم الذي يقوم به كل من القطاع الخاص والأوساط الأكاديمية. وتحاول بلدان أخرى معرفة كيفية مواكبتها للتنمية والتطوير اللذين يحدثان في قطاع الذكاء الاصطناعي، حتى في حال لم تكن قادرة على منافسة الولايات المتحدة أو الصين.

أما المملكة المتحدة فقد اتخذت نهجاً مغايراً لتصبح رائدة في سباق الذكاء الاصطناعي. وخلال اجتماع المنتدى الاقتصادي العالمي في مدينة دافوس، سويسرا، والذي جرى في يناير (كانون الثاني)، أعلنت رئيسة وزراء المملكة المتحدة تيريزا ماي هدف بلدها بأن يصبح رائداً على مستوى العالم في مجال تطبيق أخلاقيات "الذكاء الاصطناعي". وبعد ثلاثة أشهر، كشفت بريطانيا عن اتفاقيتها في مجال الذكاء الاصطناعي، وهي سياسة شاملة من شأنها أن تؤسس شراكة بين الحكومة والأوساط الأكاديمية وقطاع الذكاء الاصطناعي لغاية مخاطبة أهداف ومخاوف المواطنين والشركات فيما يتعلق بتطبيقات الذكاء الاصطناعي.

وهناك الكثير من الأمور التي يجب التوقف عندها بالحديث عن الذكاء الاصطناعي وأخلاقياته، مثل البطالة التكنولوجية، والذكاء الاصطناعي المماثل للقوى العاملة البشرية والتي تستحدث منتجات عنصرية، ونشر المعلومات الكاذبة، والتطبيقات العسكرية، وتوسيع الفجوة في الثروة. كما وتركز برمجيات التنبؤ بالجريمة على الأحياء التي يقطنها أصحاب البشرة السوداء، الأمر الذي من شأنه أن يكرس التنميط، والكراهية، واحتمال انتهاك الإجراءات القانونية الواجبة. وخوارزميات البحث في "لينكدإن" تجعل من السهل العثور على الموظفين الذكور المحتملين أكثر من الإناث. وتهدد برامج التعرف إلى الوجوه في الصين الخصوصية، وتقمع الحريات، (قد تكون رغبة الصين في تخطي المخاوف المتعلقة بحماية البيانات ميزة في سباق الذكاء الاصطناعي). ونظراً للنتائج العكسية، أكدت "جوجل" مؤخراً أنها لن تستخدم الذكاء الاصطناعي لتطوير الأسلحة، على الرغم من أنها سوف تستمر في العمل العسكري ضمن مجالات أخرى.

ترمي المملكة المتحدة من خلال هذه الاتفاقية إلى مخاطبة العديد من هذه المخاوف. وإذا نجحت في موازنة النمو الاقتصادي مع معالجة المخاوف المتعلقة بالخصوصية والثقة وإمكانية الوصول، يمكنها حينها برهنة أنّ السلوك الأخلاقي يخدم قطاع الأعمال. وهذا بدوره قد يؤثر على السياسات في "الاتحاد الأوروبي" (بغض النظر عما يحدث مع خروج بريطانيا من الاتحاد) وفي جميع أنحاء العالم.

وعلى طاولة الحوار المستديرة في السفارة البريطانية في مدينة كامبريدج، ولاية ماساتشوستس، التي انعقدت في مايو (أيار)، قال ماثيو غولد، المدير العام لمكتب الوسائط الرقمية والإعلامية، إنّ الهدف هو جعل الباحثين يأخذون الأخلاقيات بعين الاعتبار في كل خطوة من عملهم، عوضاً عن تأجيلها إلى مرحلة لاحقة. ذلك يبدو أمراً رائعاً، ولكنه أيضاً نظريّ، وتوجُهه يبدو غير مجدٍ، نظراً لحجم القطاع ونموه. إذ ماذا يعني أن نضع مكوّن الأخلاق أولاً؟ وهل هذا ممكناً؟

تنص هذه الاتفاقية المكونة من 21 صفحة على "بداية الشراكة" بين قطاع الأعمال والأوساط الأكاديمية والحكومة من خلال الاستجابة للتوصيات حول "كيف يمكن للحكومة والقطاع، العمل معاً على المهارات والبنية التحتية، وتنفيذ استراتيجية طويلة الأجل للذكاء الاصطناعي في المملكة المتحدة". وتتمحور السياسة الرئيسية حول البحث والتطوير والمهارات والمعرفة الرقمية للعمال البشريين والبنية التحتية وبيئة الأعمال. و"التحديات الكبرى" الأربعة التي ذُكرت في الاتفاقية تتناول الذكاء الاصطناعي بتطبيقاته مع اقتصاد البيانات، والنمو النظيف، والحركة المستقبلية للسلع والخدمات، واحتياجات المسنين في المجتمع. كما وتغطي العديد من الجوانب المهمة وانعكاسات الذكاء الاصطناعي، والتي تتطلب جميعها أخذ الأخلاقيات بعين الاعتبار. وتنص الاتفاقية على أنّ "ثورة تكنولوجيا الذكاء الاصطناعي قد بدأت بالفعل، وإذا كان تصرفنا اليوم حكيماً، فيمكننا قيادتها بجدارة".

يتمحور الجدال الأخلاقي اليوم حول الدور الذي تلعبه البيانات، وكيف يستخدمها الذكاء الاصطناعي، وكيف يتم جمعها. إذ تحتوي مجموعات البيانات على معلومات يمكن عزلها عن طريق متغيرات محددة، مثل العمر أو الجنس أو العرق أو المستوى التعليمي، أو تنظيمها وتحليلها بواسطة الذكاء الاصطناعي بطريقة تقدم رؤية معينة وتحدد الاتجاهات. كما أنها تُستخدم في تدريب الذكاء الاصطناعي على أداء هذه المهام بشكل أفضل. وغالباً ما تحتوي مجموعات البيانات التي تجمعها الشركات الخاصة أو الباحثون على معلومات أكثر (مثل السجلات الطبية، والمعلومات المصرفية، وتاريخ الشراء)، والتي قد لا يستخدمها الذكاء الاصطناعي في قطاعات أخرى، بحيث يعيق بحوث الأمراض، وبرمجة الخوارزميات وتطبيقها، وفهم الاتجاهات المالية، والرؤية في المسائل الأخرى العميقة. والأسوأ من ذلك، يمكن أيضاً إساءة استخدام البيانات، إذا تخيل فضيحة "كامبريدج أنالاتيكا" باستخدامها تقنيات متطورة أكثر.

منذ العام 2010، منحت الحكومة البريطانية إمكانية الوصول المفتوح إلى بياناتها العامة، وكلفت الهيئات العامة الأخرى بأن تقوم بالشيء نفسه. كما وتدعو الاتفاقية في المملكة المتحدة إلى استخدام ائتمانات البيانات وتسمى أيضاً "التعاون القائم على البيانات"، وهي طرق تعمل على تسهيل تبادل البيانات المفيدة بين الحكومة والقطاعات الأخرى. والغاية هي توفير الوصول إلى بيانات جديدة، وتدابير تحفيزية لمشاركة البيانات، وضمان استخدام هذه البيانات للصالح العام. على سبيل المثال، يمكن أن توفر ائتمانات البيانات معلومات جغرافية وصحية وديموغرافية وسياسية بالغة الأهمية ومعلومات أخرى عن اتجاهات الهجرة، إلى العديد من الباحثين والشركات بالإضافة إلى الحكومة للمساعدة في صياغة السياسات. ويجب أن تتماشى أي استراتيجية بيانات مع أنظمة حماية البيانات العامة لـ"الاتحاد الأوروبي" التي تم الإقرار بها مؤخراً (إنّ لدى المملكة المتحدة قانون حماية البيانات الخاص بها الذي تم تطويره مؤخراً) بالإضافة إلى الحفاظ على ثقة العميل.

ويشمل الحفاظ على الثقة أيضاً تناول مشكلة تجانس المبرمجين، والذي يسهم إيجاباً في قضايا مثل قضية إيريك لوميس. إذ كتب كل من أستاذ علوم الحاسوب ديم ويندي هول، والخبير جيروم بيسيتي في التوصيات التي نقلوها إلى حكومة المملكة المتحدة "إنّ مساهمة مجموعة متنوعة من المبرمجين تقلل من خطر التحيّز المتضمن في الخوارزميات، وتقدم نتائج أكثر عدلاً وأعلى جودة. في الوقت الحالي، لا تمثل القوى العاملة العدد الأكبر من السكان. وفي الماضي، ثَبت أنّ التهميش القائم على الجنس والعرق يؤثر على عدالة مخرجات العمليات التكنولوجية. إذا لم يتمكن الذكاء الاصطناعي في المملكة المتحدة من تحسين تنوع القوى العاملة، فسوف يتم تقويض قدرة ومصداقية هذا القطاع".

ووجد تقرير من معهد تشارترد لتقنية المعلومات "Chartered Institute for IT" أنّ الغالبية العظمى من المتخصصين في تكنولوجيا المعلومات في المملكة المتحدة هم من الذكور، والأصحاء، ودون عمر الـ50. و17% من الإناث، و21% تجاوزو الـ50 عاماً، و8% من ذوي الاحتياجات الخاصة. كما أنّ القوى العاملة في القطاعات الرقمية والإعلامية والإبداعية غير متكافئة من حيث التركيبة الديمغرافية. وفي النهاية، وفقاً لهول، فإنّ هذا يخلق مشكلة كبيرة: "تحيز في المدخلات، وتحيز في النتائج". وفي حين أنّ بعض الشركات الأميركية تمكنت من تحسين التنوع، إلا أنها لم تحقق سوى أثراً بسيطاً: ففي العام 2017، شغل العمال ذوو البشرة السداء نسبة 3.1% فقط من الوظائف في أكبر ثماني شركات التكنولوجيا الأميركية.

وهكذا، تهدف اتفاقية المملكة المتحدة إلى خلق قوى عاملة أكثر تجانساً. وسيعمل معهد أدا لوفلايس "Ada Lovelace Institute" الذي أسس حديثاً مع الحكومة على تعزيز التنوع، وسيقدم برنامج الزمالة الجديد لمعهد آلان تورنغ Alan Turing Institute 1,000 مقعد لدراسة الدكتوراه المتعلقة بالذكاء الاصطناعي والتي تدعمها الحكومة الأميركية. كما ستعمل المملكة المتحدة على مضاعفة عدد التأشيرات الممنوحة للمواهب الاستثنائية من الفئة الأولى، وتسهل على حاملي هذه التأشيرة التقدم للحصول على إقامة طويلة الأجل. إنّ التنوع في صفوف المبرمجين والباحثين يؤدي إلى تقديم منتجات وخدمات لمختلف الخصائص السكانية، ويؤدي كذلك الأمر إلى برمجة خوارزميات التي تمثل لون البشرة والجنس.

والاستثمار أيضاً في تعليم الأطفال والبالغين يساعد على إتاحة الفرص لمزيد من الناس في الانخراط بمجال الذكاء الاصطناعي. وستنفق المملكة المتحدة 406 مليون جنيه استرليني (حوالي 533 مليون دولار) لتعزيز التعليم في مجال العلوم والتكنولوجيا والهندسة والرياضيات، وتدريب حوالي 8,000 مدرس في علوم الحاسوب، وتأسيس المركز الوطني لتعليم علوم الحاسوب. ويمكن للبالغين المشاركة في برنامج إعادة التدريب الوطني، الذي سيخصص مبلغاً قدره 36 مليون جنيه استرليني (حوالي 47 مليون دولار) للتدريب على المهارات الرقمية، و40 مليون جنيه استرليني (حوالي 52 مليون دولار) للتدريب في مجال التشييد، وهو توليفة من العمال الأذكياء والبنية التحتية الوطنية. إنّ المملكة المتحدة تواجه صعوبة في تأمين المساكن، ومن المتوقع أن تتأثر الوظائف مثل البناء والتشييد بالبطالة التكنولوجية.

تخاطب هذه الاتفاقية أيضاً المخاوف حول إمكانية أنّ يحل الذكاء الاصطناعي محل العاملين البشر، وخاصة العمال الأقل مهارة. ويقول غولد بأنهم "على ثقة بأنّ الوظائف الجديدة سوف تكون متوفرة"، لكن الجدال ما زال قائماً حول ما إذا كان ذلك سيحدث حقاً، وحول نوعية تلك المناصب الجديدة التي سوف يخلقها الذكاء الاصطناعي، وكم عددها، ومن سيكون مؤهلاً لها. وأقر غولد بأنّ "الوظائف الجديدة لن تذهب بالضرورة إلى أولئك الذين فقدوها، ونحن نحاول تجنب خلق فروقات طبقية". إنّ فجوة الثروة تلك موجودة بالفعل، ورغم أنّ انعدام المساواة في الدخل أقل وطأة في المملكة المتحدة منها في الولايات المتحدة، إلا أنّ الأمر يزداد سوءاً اليوم، وربما من الممكن تضييقها، أو على الأقل ضمان عدم تفاقمها عن طريق تحسين نوعية الوصول. إنّ المملكة المتحدة تحرز تقدماً بما يتعلق بشبكة الجيل الخامس وتقنية الألياف البصرية، فضلاً عن الخطط التي تضعها لتوفير اتصال واسع النطاق وسريع للجميع. (في الوقت الحالي، لدى 95% من المواطنين في المملكة المتحدة إمكانية ذلك الاتصال). وستكون إمكانية الاتصال بالإنترنت التي يتم توفيرها بسرعة 10 ميجابت في الثانية أو أكثر قانونية في المملكة المتحدة بحلول العام 2020.

إنّ صياغة سياسات أخلاقيات الذكاء الاصطناعي تتطلب أيضاً معالجة قضية المسؤولية المعقدة، خاصة في حال حدوث خلل في تطبيقات الذكاء الاصطناعي، أو حدوث استقلالية باتخاذ قرار أو إجراء. وقد حضر أرييل ولانو، المدير الإداري لشركة فينسيرف إكسبيرتس "Finserv Experts"، وهي شركة استشارية والتي تقوم بتكييف تقنيات الذكاء الاصطناعي لصالح الشركات، جلسات الأدلة، وهي الاجتماعات التي تقدم خلالها لجان الخبراء بيانات وتصورات ذات صلة إلى الإدارات الحكومية المختلفة؛ والتي ساعدت في توجيه الاتفاقية. وكانت الغاية من تلك الجلسات هي التأكيد على أنّ المساءلة هي أهم جانب من جوانب أنظمة الذكاء الاصطناعي.

إنّ التقدم البطيء في المعايير القانونية يعني أنّ القوانين والسوابق يجب أن تواكب بشكل دائم التقدم الذي يحدث في مجال الذكاء الاصطناعي. إذ لا تتضمن العديد من القوانين بنوداً خاصة بتطبيقات الذكاء الاصطناعي، ولا سيما ذلك القادر على اتخاذ قرارات مستقلة. ومع ذلك، يقول ولانو "إنّ الذكاء الاصطناعي لا يجعل الناس تطبق القوانين القائمة". وأشار، على سبيل المثال، إلى "التسعير الديناميكي" الذي تطبقه شركات الطيران، والذي يستخدم المعلومات الشخصية لجعل أسعار التذاكر مخصصة. وقد حقق مكتب الكارتل الاتحادي الألماني في رفع أسعار تذاكر طيران لوفتهانزا في العام 2017 بنسبة 25 إلى 30% بعد توقف منافسة طيران برلين مباشرة، وقد رَفض تفسير لوفتهانزا بأنّ الأسعار يتم تحديدها بواسطة خوارزميات غير مسؤولة عن اتباع القانون. ورغم ذلك، لم يقم مكتب الكارتل بفتح قضية رسمية بهذا الشأن، وأضاف "إنّ الشركة التي تستعين بتقنيات الذكاء الاصطناعي تتخذ قراراً بالإعلان أنها مسؤولة، حتى لو كان الذكاء الاصطناعي مستقلاً باتخاذ قرارات غير أخلاقية".

على الرغم من أنّ الذكاء الاصطناعي، وأولئك الذين يستخدمونه، لا يمكنهم الالتفاف على الأنظمة الحالية، إلا أنّ الافتقار إلى التوجيهات من شأنه أن يثير تحديات كبيرة. مثلاً، من الذي يجعل القواعد التي تنطبق على التكنولوجيا جديدة وقوية حتى لا نفهم كل ما تفعله؟ إنّ الحكومات والقطاعات تضعان معايير للتقنيات المستخدمة في الرعاية الصحية والأجهزة الطبية والإجراءات المصرفية، ولكن هذا لم يحدث بعد بالنسبة للذكاء الاصطناعي: يقول ولانو، والذي يعمل ضمن مجموعة تعمل على تطوير تلك المعايير: "حتى إذا كان لديك شيء أخلاقي، لا يمكنك الحصول على الموافقة لاستخدامه لأنه لا يوجد معايير لتطويره". هذه الخطوة المهمة هي التي تفرض الوتيرة التي يمكن للشركات من خلالها بدء تنفيذ تطبيقات الذكاء الاصطناعي، إنها تشبه الشركات الخاصة التي تدور حول نفسها لسنوات، بينما تقوم إدارة الطيران الاتحادية بوضع أنظمة الطائرات دون طيار التجارية. ويقول ولانو "إنّ الترخيص لاستخدام الذكاء الاصطناعي يستغرق وقتاً أكثر وكلفة أكبر من تقديم الحلول التي تسهل استخدامه ". ومن دون تحقيق المعايير، لا يمكن لمهندسي المعلوماتية الذين يضمنون الأداء الوظيفي والأمان والالتزام بالنسبة للأنظمة التكنولوجية "الجزم بأنّ الحلول المطبقة على تقنيات الذكاء الاصطناعي فعلاً آمنة". وأشار ولانو إلى نظام تقنية بلوكتشين التابع لمصرف أميركا، الذي استغرق 18 شهراً لتطوير نموذج البرنامج التجريبي لأنه افتقر إلى المعايير الأساسية للموافقة عليه.

لمعالجة هذه المشاكل، فإنّ الاتفاقية تدعو إلى تشكيل لجنة الحوكمة العالمية المتعلقة بتطبيقات الذكاء الاصطناعي، والتي اجتمعت مؤخراً في أول جلسة لها من أجل التخطيط ووضع الاستراتيجية. وستقوم اللجنة، كما يقول ولانو "بتحديد معيار يمكن الرجوع إليه ويمكن قياس الحلول القائمة على أساسه". وستكون جميع التوجيهات التي تنشرها اللجنة قابلة للاختبار: إذ سيكون المطورون قادرين على تقييم الحلول والتحقق من أنها تتبع التوجيهات؛ الأمر الذي من شأنه أن يسرّع العملية، وبالتالي يمكن تطبيق الحلول.

إنّ الاتفاقية تعالج الكثير من المخاوف التي تتعلق بتطبيقات الذكاء الاصطناعي، مثل تعزيز القوة العاملة المتنوعة، ووضع معايير وإجراءات للتنظيم، ومعالجة أثار البطالة التكنولوجية، وتوفير الاتصال على نطاق واسع ولجميع المواطنين، وحماية البيانات الخاصة، وتحفيز البحث والتطوير، وتحصين الاقتصاد. في الواقع، هناك ما يكفي من الأمور التي تهدف الاتفاقية إلى معالجتها لدرجة يصعب تصديقها. إذ هل يمكن أن تتعايش الممارسات الأخلاقية مع الرأسمالية المتفشية في القطاع الأكثر ربحية وديناميكية في العالم؟

يقول كينتارو توياما، وهو أستاذ مساعد في كلية المعلوماتية بجامعة ميشيغان ومؤلف كتاب "الإلحاد الأخرق: إنقاذ التطور الاجتماعي من عبادة التكنولوجيا" (Geek Heresy: Rescuing Social Change from the Cult of Technology)، إنّ التركيز على الأخلاقيات "يبدو عظيماً من الناحية النظرية، ولكن، عندما تبدأ السياسات بالنوايا الحسنة، فإنّ تلك النوايا تميل إلى الضمور في ظل الجهود المستمرة من جانب جماعات الضغط والسياسيين "الأقل نبلاً". ومن المؤكد؛ أنّ الاتفاقية تبرر الشكوك، وليس من الصعب تخيل الشركات تبحث عن طرق لاستغلال النظام أو الالتفاف عليه. ويقول توياما "إنّ احتمال إبقاء التركيز على الأخلاقيات سيكون ضئيلاً".

إنّ التفاؤل بشأن الاتفاقية يبدو ساذجاً بقدر ما هو مطمئن، إذ يمكن التخلي عن بعض من الأخلاقيات البسيطة بمرور الوقت، وربما لن تتطابق الحقيقة مع الرؤية، ولكن كما يقول غولد، فإنّ الاتفاقية هي "الإعلان عن النوايا"، وهي خطوة أولى هامة. إنّ الحكومة الأميركية لا تتحدث عن أخلاقيات الذكاء الاصطناعي، وفي مقابلة مع مجلة وايرد (Wired)، أشار مايكل كراتسيوس، نائب مساعد الرئيس لشؤون سياسات التكنولوجية، إلى أنّ إدارة ترامب تخطط للتدخل بأقل ما يمكن في مجال تطوير الذكاء الاصطناعي، حتى لا تعرقل نموه. إذ أنّ لدى مكتب الولايات المتحدة للعلوم والتكنولوجيا الآن 45 موظفاً فقط؛ مقارنة بـ135 موظفاً في عهد الرئيس باراك أوباما، الأمر الذي من شأنه أن يبطئ تنفيذ السياسة. وما يثير القلق أكثر، هو عدم قدرة الإدارة على فهم الإجراءات والاتجاهات في العلوم والتكنولوجيا، بالإضافة إلى انعكاساتها. إنّ تجاهل الأسئلة الأخلاقية وانعكاسات تطبيقات الذكاء الاصطناعي يمكن أن يقودنا إلى المستقبل غير مرغوب به. ويقول توياما: "نحن في الولايات المتحدة يجب أن نكون متساوين في التسلح بشأن هذه القضايا، ولكن بصرف النظر عن الأصوات المناوئة، فإنّ العديد من شركات  التكنولوجيا الكبرى رصدت تلك المسائل، وتم إنجاز القليل".

ونظراً لأنّ الولايات المتحدة تخلت عملياً عن مسؤوليتها الأخلاقية في هذا القطاع، والصين بدورها لا تبدو مهتمة كثيراً بذلك، فيتوجب علينا أن ندعم نجاح المملكة المتحدة. يبدو أنّ دمج الأخلاقيات والنمو الاقتصادي سيصبح أمراً واقعاً ويحمل في طياته الكثير من الابتكار في نفس الوقت؛ نظراً لانعدام أهمية أيهما يتأثر بالآخر. إذ يستخدم بعض الناس الطاقة الشمسية لأنّ كلفتها أقل، وليس لأنهم يهتمون بالبيئة، ولكن النتيجة هي نفسها. ربما بعد أن يصبح من الواضح أنّ الجمع بين الأخلاق والاقتصاد يعني الفوز لجميع الأطراف، سنرى المزيد من الاهتمام.

من خلال معرفة ما بين يدينا بما يتعلق بانعكاسات الذكاء الاصطناعي ، ربما سنتخذ قرارات مختلفة حول حماية البيانات، ووسائل التواصل الاجتماعي، والخصوصية إذا كان بإمكاننا التراجع في الوقت المناسب. ولكن بما أنّ كل جيل من التكنولوجيا هو السبب بظهور الجيل التالي، وله تأثير على المجتمع بشكل لا رجعة فيه، فإنّ التراجع عندما يتعلق الأمر بالذكاء الاصطناعي هو من ضرب الخيال. ولكن نحن مَن نقرر ماذا سيحدث وكيف سيحدث، ويتضمن ذلك معرفة كيفية تطوير واستخدام الذكاء الاصطناعي من أجل مصلحة الجميع، بالإضافة إلى تحمل مسؤولية أخطائنا. إنّ لدى المملكة المتحدة فرصة قيادة الجيل التالي من شركات التكنولوجيا والأبحاث والسياسات الحكومية. ونحن نأمل أن تحقق الاتفاقية الأمر الذي وُضعت لأجله.

تنويه هذه المقالة تنشر حصرياً بالتعاون بين الاقتصادي.كوم ومشروع فيوتشر تنس (Future Tense) المبادرة بين موقع سليت (SLATE) ومركز أميركا الجديدة للفكر (NEW AMERICA) وجامعة ولاية أريزونا (ASU). جميع الحقوق محفوظة.


error: المحتوى محمي , لفتح الرابط في تاب جديد الرجاء الضغط عليه مع زر CTRL أو COMMAND