الآن وغداً

  بالشراكة مع:



الاقتصادي – الآن وغداً

 

بقلم: آبريل جلايزر

يزداد الذكاء الاصطناعي ذكاء لكنه لن يصبح أكثر صداقة مع البيئة. فبغية تحسين التنبؤ بالطقس، وتصنيف منشورات مواقع التواصل الاجتماعي الخاصة بك، وطلب سيارة أوبر، يجب تدريب الذكاء الاصطناعي على مجموعات من البيانات الضخمة. قبل بضع سنوات، كان ينبغي تغذية نظام الذكاء الاصطناعي بملايين الكلمات لمحاولة تعلم اللغة، ولكن اليوم يمكن أن يعالج النظام نفسه 40 مليار كلمة أثناء تدريبه. وفقاً لما يقوله روي شوارتز، الذي يجري بحوثاً على نماذج التعلم العميق في معهد ألين للذكاء الاصطناعي "Allen Institute for Artificial Intelligence" وفي "جامعة واشنطن" بقسم العلوم وهندسة الكمبيوتر، فإنّ تلك المعالجة تستهلك الكثير من الطاقة.

بدأ بعض الباحثين التفكير في كيفية تغيير هذا الواقع. ففي ورقة بحثية نشرت يوليو (تموز)، قدم شوارتز وثلاثة باحثين آخرين – وهم جيسي دودج من "جامعة كارنيجي ميلون"، ونوح سميث من "جامعة واشنطن"، وأورن إيتزيوني من "معهد ألين" – حجتهم لضرورة توحيد طريقة نقيس من خلالها مقدار انبعاثات الكربون الناتجة عن تدريب الذكاء الاصطناعي. يريد الفريق أن تُجري جميع بحوث الذكاء الاصطناعي المستقبلية مثل هذا القياس، كما يرى الفريق أنّ حدوث ذلك سوف يُفضي إلى ابتكارات جديدة تجعل التكنولوجيا أقل خطراً على البيئة. أجريت مقابلة مع روي شوارتز، حيث أعرب عن أسفه حول أنّ معظم أنظمة الذكاء الاصطناعي تصنّف فقط بحسب مدى تطور قدرتها على أداء عملها. لكن شوارتز لا يجد أنّ الأمر مقتصر على درجة الدقة فقط، بل ينبغي التفكير حول كفاءة الذكاء الاصطناعي في استخدام الطاقة أيضاً، ويقول: "لا نريد الوصول إلى زمن حيث يكون الذكاء الاصطناعي فيه أحد أكبر الأنشطة التي يقوم بها الإنسان المساهمة في ظاهرة الاحتباس الحراري.

آبريل جلايزر: هلّا تخبرني عن مقدار كثافة استخدام الطاقة في تدريب أنظمة الذكاء الاصطناعي حالياً؟

روي شوارتز: تنمو هذه الصناعة في كل مجال، وهنالك الكثير من الفضول والاستثمار يسخران في معرفة إلى أي مدى يمكننا الدفع قدماً بأنظمة الذكاء الاصطناعي. وعندما نتحدث عن نظام يمكنه على سبيل المثال الإجابة عن الأسئلة أو التعرف على الوجوه أو أياً كان التطبيق المفضل لديك، فإنّ الطريقة البسيطة لتحسين أي نموذج، يعتبر جيداً في الأساس، هي جعله أكبر ويستهلك المزيد من الموارد.

لنأخذ السيارات مثالاً على ذلك، إذا كنت ترغبين في صناعة سيارة أسرع، فإنه يمكنك ببساطة جعل المحرك أكبر حجماً. ولكن المشكلة الأكثر وضوحاً هي أننا لا نفكر في الكلفة المتعلقة باستخدام الطاقة التي تأتي مع الزيادة في الموارد. لقد نما مجال الذكاء الاصطناعي إلى حد كبير في السنوات القليلة الماضية، وبدأت ألاحظ تشكّل توجه مثير للقلق يترافق مع هذا النمو، ألا وهو استهلاك الطاقة. هنالك بحث صدر عن "جامعة ماساتشوستس" منذ بضعة أشهر تناول أحد أكبر أنظمة الذكاء الاصطناعي لدينا والتي أُجريت تجربة عليها. إنّ مقدار ثاني أكسيد الكربون الذي انبعث خلال تلك التجربة المنفردة كان يعادل حوالي خمس سنوات من قيادتك لسيارتك على سبيل المثال، الأمر الذي أذهل العديد من الباحثين. من الجدير بالذكر أنّ هذه الأنظمة تزداد حجماً يوماً بعد يوم، لذلك فهي تعدّ مجرد نقطة انطلاق. نحن نحاول التفكير في الطرق التي يمكننا من خلالها حث المجتمع على البدء في التفكير في هذه المسألة، أي ينبغي السعي نحو جعل تلك الأنظمة أكثر فاعلية إلى جانب السعي نحو جعلها أكثر دقة.

انطوت تجربة "يو ماس" على نموذج تدريب واحد، هل حجم وأسلوب هذا النموذج موحدان لدى جميع الجامعات والشركات؟

كلا ليسا موحدين، إنّ نماذج الذكاء الاصطناعي هذه لا يعمل عليها أي باحث بصورة عشوائية، لأنّ هذه الأنظمة تستهلك الكثير من الطاقة، كما أنها تكلف الكثير من المال. وهذا يخلق مشكلة متمثلة في عدم وجود تنوع ضمن مجتمع الباحثين لأنّ معظمهم غير قادر على تحمل تكلفة هذه التجارب إذا لم يعملوا مع إحدى الشركات الكبرى أو مع أحد مختبرات البحوث الكبرى. إذاً، فتلك المشكلة المتعلقة باستهلاك الكثير من الطاقة أثناء إجراء التجربة آنفة الذكر لن يواجهها كل باحث، ولكن هناك العديد من النماذج المشابهة لهذه تجري داخل الشركات الكبرى، والمسألة الأكثر أهمية هي أنّ هذه الأنظمة تستمر في النمو. وقريباً، قد يصبح انبعاث ثاني أكسيد الكربون لكل من تلك التجارب يساوي الانبعاثات الناتجة عن قيادة سيارة واحدة لمدة عشر سنوات أو عشرين سنة في السنوات المقبلة، وعلينا إيجاد طرق ناجعة لتغيير هذا الواقع. نحن لا نريد بالضرورة إيقاف تلك التجارب لأنّ الأمور التي نتعلمها من خلالها لها قيمة كبيرة، لكننا نريد تشجيع الناس على إيجاد طرق لجعل تلك التجارب أكثر فاعلية.

هلّا تخبرني عن نماذج الذكاء الاصطناعي التي يعدّ استخدامها للطاقة كثيفاً؟

إذا كنا تفكر في تكنولوجيا التعلم العميق، أي التكنولوجيا التي تنظم الذكاء الاصطناعي، فإنّ أسس عملها الأولية هي أنها تتغذى على مصفوفات كبيرة جداً وتضاعف بعضها الآخر، وتعدّ تلك المصفوفات هي النواة الأساسية في كل نظام من هذه الأنظمة، والتي تصبح أكبر يوماً بعد يوم، وعندما أقول أكبر، أعني أيضاً أنّ هذه الأنظمة يجري تدريبها على مجموعات أكبر من البيانات. لذلك، يمكننا رؤية نمو مذهل في مجال عملي، ألا وهو فهم الآلة للغة، إذ رأينا قبل عامين كيف جرى تدريب أكبر نظام على مقدار ضخم من البيانات وصل إلى عدة ملايين من الكلمات، ثم أصبح عدد الكلمات عشرات الملايين أو مئات الملايين. واليوم جرى تدريب النظام على 40 مليار كلمة، لذلك فإنّ الأمر يستغرق المزيد والمزيد من الوقت. ينمو نطاق الذكاء الاصطناعي في كل مجال ممكن، ويجري مضاعفة المصفوفات الأكبر والتي تستهلك الكثير من الوقت والطاقة، وتتكرر هذه العملية 40 مليار مرة. والمعيار الأخير هنا هو أنّ كلاً من هذه التجارب الكاملة يجري إطلاقها عدة مرات. لذلك، إذا عملنا على تدريب الذكاء الاصطناعي مرتين، فقد نحصل على نتيجة أفضل، وبالتالي، يكون لدينا أبعاد متعددة يمكننا تحقيق النمو باتجاهها.

ذكرت أنّ طاقة المعالجة تعدّ مرتفعة جداً، ما الحلول التي تفكر فيها ليصبح الذكاء الاصطناعي أكثر كفاءة؟ أسأل هذا لأنه لا يمكنك إجراء تجارب أقل، لكونها الطريقة الوحيدة التي يتعلم الذكاء الاصطناعي من خلالها، أليس كذلك؟

أول ما نريد تحقيقه هو نشر هذا الوعي داخل مجتمع الباحثين، ودفعهم نحو بيان مقدار القوة الحاسوبية التي يستخدمونها للوصول إلى تلك النتائج في أوراقهم البحثية، لأنّ الأمر لا يجري على هذا النحو عادة، وهو ما يثير دهشتي على الدوام. لنعود إلى مثال السيارة الذي ذكرناه آنفاً، يمكنك القول مثلاً: انظر، لقد صنعت سيارة أسرع، لكنك لا تذكرين كمية الوقود الذي تستهلكه السيارة للوصول إلى تلك السرعة، فإننا إذاً لا نبيّن هذا على نحو صريح في الوقت الحالي. ولكي نكون واقعيين، هنالك مشكلات في إعداد التقارير بهذا الخصوص لأنه يصعب إجراء مقارنات على عمل الباحثين في مختبرات مختلفة ومواقع مختلفة. أحد الأمور التي نحاول تحقيقها في "معهد ألين" هو التوصل إلى طريقة بسيطة للغاية بغية أن يتمكن الباحثون من استخدامها في كل مرة يعملون فيها، تلك الطريقة ستُظهر لهم بعض الأرقام التي ستخبرهم عن مقدار الطاقة التي يستهلكونها، هذا ما نعمل عليه حالياً.

بمجرد أن يبدأ الباحثون في الإبلاغ عن مقدار الطاقة تلك، سيجري تشجيع العديد من الباحثين على العمل من أجل تطوير حلول أكثر صداقة مع البيئة أو أكثر كفاءة، سواء كنا قادرين على جعل هذه المصفوفات أصغر باستخدام طرق متطورة، أو سواء كان بإمكاننا استخدام بيانات أقل أو البيانات التي لدينا بطريقة أكثر ذكاء، أو ما إذا كان بإمكاننا إجراء تجارب أقل من خلال الاعتراف المبكر على سبيل المثال بما إذا كانت إحدى تلك التجارب باهظة التكلفة ستفشل أم لا. حالياً، نعمل جميعاً على هذا الاتجاه المتمثل في استخدام عدد أكبر من التجارب والتي تعدّ أكثر تكلفة، وهو ما يشبه تقريباً نهج "العمل على جميع التجارب واختيار الأفضل منها". وسبب ذلك هو أنّ كلفة هذه الأنظمة (من حيث مقدار انبعاثات الكربون) لا يعرها الناس الاهتمام الكافي، ويعود ذلك بالتأكيد إلى قلة الوعي.

لتوضيح ذلك، ليس هناك معيار رئيسي إلى الآن لقياس استهلاك الطاقة عندما يتعلق الأمر ببناء أو صيانة أنظمة الذكاء الاصطناعي، أليس كذلك؟

حسناً، هناك العديد من المعايير، ويُستخدم بعضها على نطاق واسع. يعدّ مقدار الوقت الذي يستغرقه تدريب أحد الأنظمة هو معيار واحد ومشترك. لكن من الصعب جداً مقارنة النتائج، فإذا كنتِ تستخدمين أحد أجهزة الكمبيوتر على سبيل المثال، وكنت أنا أستخدم جهازاً آخر، فهذا لن يخبرنا الكثير حول ما إذا كان برنامجك يعمل أسرع من برنامجي. لذلك، نحن نحاول تطوير معيار بحيث يكون سهل الاستخدام ومريح بالنسبة إلى مختلف الباحثين.

أين تتوقع أن نشهد تحقيق الكفاءة في الذكاء الاصطناعي أولاً؟

لسنا أول من يفكر في هذه المشكلة، فعند تطوير الهاتف الذكي على سبيل المثال، كان الباحثون يفكرون في كيفية جعل نموذج الكمبيوتر صغيراً بحيث يكون ملائماً لهاتفك، أو جعله يعمل على نحو أسرع. لكن هذا لا يشبه جعل تدريب الذكاء الاصطناعي أكثر كفاءة، أو تحديد أي نسخة من التجارب سوف تفشل أسرع، لذلك نحن نعمل على مشاريع تطال جميع هذه الأسس ونحرز تقدماً في كل منها. ويبدو أنّ هناك إنجازات يجب تحقيقها في كل من هذه المجالات، لكن لا يمكنني القول كيف ستجري الأمور، إلا أنني أعتقد أنّ جميعها ستكون مهمة للغاية.

متى برأيك سوف نرى ذلك المعيار الذي يمكن استخدامه من قبل الباحثين الذين يعملون على بناء وتوظيف أنظمة الذكاء الاصطناعي هذه؟

نريد أن يكون لدينا إطار لمعالجة اللغة الطبيعية بحلول نهاية العام، وهو بمثابة حجر الأساس للعديد من التقنيات اللغوية في الوقت الحاضر. نأمل في إضافة هذه الوظيفة إلى نظام البرمجة اللغوية العصبية الخاص بنا، بهذه الطريقة سيتمكن أي باحث يستخدم أدواتنا من الوصول إلى نتيجة حول كلفة تدريب الذكاء الاصطناعي على البيئة بحلول نهاية العام. وفي العام المقبل، سوف نعمل على شيء أكثر عمومية وهو أنّ كل باحث يعمل على تطوير هذا النظام سيتمكن من الاستعانة بهذه الخصائص الوظيفية. أنا باحث ولست مهندساً، لكن لحسن الحظ لدينا بعض من أفضل المهندسين في العالم هنا لمساعدتنا. نأمل في تحقيق هذا في أقرب وقت ممكن.

ما الذي تفكر فيه غير ذلك؟

هدفي شخصياً هو توفير مناخ أفضل للباحثين لإتاحة المساحة لهم من أجل التفكير في هذه المشكلات. لأنّ البيئة الأكاديمية وبيئة هذا القطاع تكافئ حالياً الإنجازات العلمية التي تجعل من النماذج دقيقة أكثر. ولتحقيق التوازن، ينبغي أيضاً مكافأة القدرة على تحقيق الكفاءة، وهذا أهم ما يمكنني فعله في الوقت الحالي بهذا الخصوص.

 

 

 

 

 

 

تنويه هذه المقالة تنشر حصرياً بالتعاون بين الاقتصادي.كوم ومشروع فيوتشر تنس (Future Tense) المبادرة بين موقع سليت (SLATE) ومركز أميركا الجديدة للفكر (NEW AMERICA) وجامعة ولاية أريزونا (ASU). جميع الحقوق محفوظة.


error: المحتوى محمي , لفتح الرابط في تاب جديد الرجاء الضغط عليه مع زر CTRL أو COMMAND