الابتكار الاجتماعي
زيادة التعقيد وكيف غدت المنافسة جزء منها

مجلة اتجاهات الابتكار الاجتماعي - العدد 5

زيادة التعقيد وكيف غدت المنافسة جزء منها

الافتراض الأساسي في صناعة الحوسبة هو أنّ معالجة العمليات السحابية يغدو أرخص باستمرار، ويتنبأ قانون مور -وهو قانون القياس الرئيسي في الصناعة- أنّ عدد المكونات التي يمكن ضغطها على شريحة صغيرة بحجم معين (أي: مقدار الطاقة الحاسوبية المتاحة بتكلفة معينة) يتضاعف كل عامين. 

ويقول كريستوفر مانينغ (المدير المساعد لمعهد الذكاء الاصطناعي المرتكز على الإنسان في جامعة ستانفورد) أنه بالنسبة للعديد من تطبيقات الذكاء الاصطناعي البسيطة نسبياً، فإن هذا يعني أن تكلفة تدريب الكمبيوتر آخذةٌ في الانخفاض، ولكن هذا لا ينطبق على كل شيء فالمزيج من التعقيد المتضخم والمنافسة يعني أنّ التكاليف في التقنية الحديثة تشهد ارتفاعاً حاداً.

ويقدم الدكتور مانينغ مثالاً على نموذج بيرت[1]، وهو نموذج لغةِ ذكاء اصطناعي أنشأته شركة جوجل في عام 2018 ويُستخدم في محرك بحث الشركة، والذي كان يحتوي على أكثر من 350 مليون من النقاط الداخلية وقابلية هائلة للبيانات، وتم تدريبه باستخدام 3.3 مليار كلمة من النصوص المستقاة في الغالب من موسوعة ويكيبيديا على الإنترنت. ويقول الدكتور مانينغ: "إن ويكيبيديا لا تعتبر في هذه الأيام مجموعة كبيرة من البيانات"، ويقول أنه: "إذا كان بإمكانك تدريب نظام على 30 مليار كلمة، فسيكون أداءه أفضل من نظام تم تدريبه على 3 مليارات كلمة"، والمزيد من البيانات يعني المزيد من قوة الحوسبة لمعالجة كل ذلك.

 

وتقول شركة الأبحاث (OpenAI)، (الواقعة في مدينة سان فرانسيسكو بولاية كاليفورنيا الأمريكية): "إنّ الطلب على طاقة المعالجة قد انطلق في عام 2012، حيث بدأ الحماس حول تعلم الآلة في التزايد ثم تسارع بشدة. وبحلول عام 2018، زادت الطاقة الحوسبية المستخدمة في تدريب النماذج الكبيرة بمقدار 300 ألف ضعف، وتضاعفت كل ثلاثة أشهر ونصف" (انظر إلى الرسم البياني). ولتقوم الشركة بتدريب نظام "OpenAI Five" الخاص بها، المصمم للتغلب على البشر في لعبة الفيديو الشهيرة "Defense of the Ancients 2"، قامت بتوسيع نطاق تعلم الآلة "إلى مستوياتٍ غير مسبوقة" وتشغيل الآلاف من الرقائق بدون توقف لأكثر من عشرة أشهر.

وعلى الرغم من أنه ثمة أرقام دقيقة عن مدى محدودية كل هذه التكاليف، إلا أنّ هناك ورقة بحثية نُشرت في عام 2019 من قبل باحثين في جامعة ماساتشوستس أمهيرست قدَّرت أن تدريب نسخة واحدة من المحوِّل "Transformer" (وهو نموذج لغوي كبير آخر) قد يكلّف ما يصل إلى 3 ملايين دولار. ويقول جيروم بيسنتي (رئيس الذكاء الاصطناعي في فيسبوك): "إنّ جولة واحدة من التدريب لأكبر النماذج يمكن أن تكلف (ملايين الدولارات) من حيث استهلاك الكهرباء".

مساعدة من السحابة:

يمكن لشركة فيسبوك، التي حققت أرباحاً بلغت 18.5 مليار دولار في عام 2019، تحمل هذه الفواتير، ولكن أولئك الذين لا يملكون الكثير من المال يشعرون بالاستياء، وقد أشارت شركة أندريسن هورويتز الأمريكية لرأس المال الاستثماري "ذات النفوذ الكبير" إلى أنّ العديد من شركات الذكاء الاصطناعي الناشئة تستأجر قدرتها على المعالجة من شركات الحوسبة السحابية مثل أمازون ومايكروسوفت، وإن الفواتيرَ الناتجة -تبلغ أحياناً 25% من الإيرادات أو أكثر- هي أحد الأسباب (كما تقول)، والتي تجعل شركات الذكاء الاصطناعي الناشئة تقوم باستثماراتٍ أقل جاذبية مقارنةً بشركات البرمجيات القديمة. وفي مارس (آذار) الماضي، دعا زملاء الدكتور مانينغ في ستانفورد، بمن فيهم فاي فاي لي، وهي إحدى الشخصيات البارزة في مجال الذكاء الاصطناعي، إلى إنشاء سحابة البحوث الوطنية "National Research Cloud"، وهي مبادرة للحوسبة السحابية لمساعدة باحثي الذكاء الاصطناعي الأمريكيين على دفع ومتابعة الفواتير المتصاعدة.

وأدى الطلب المتزايد على قوة الحوسبة إلى حدوث طفرةٍ في تصميم الرقائق والأجهزة المتخصصة التي يمكنها إجراء العمليات الحسابية المستخدمة في الذكاء الاصطناعي بكفاءة، وكانت الدفعة الأولى من الرقائق المتخصصة عبارة عن وحدات معالجة الرسومات، والتي تم تصميمها في التسعينيات لتعزيز رسومات ألعاب الفيديو. ولحسن الحظ، فإن وحدات معالجة الرسومات مناسبة تماماً لنوع الرياضيات الموجود في الذكاء الاصطناعي.

ومن الممكن زيادة التخصص، والشركات تسعى لذلك فعلياً، ففي ديسمبر (كانون الأول)، اشترت شركة إنتل العملاقة لصناعة الرقائق مختبرات هابانا الإسرائيلية مقابل ملياري دولار. وتم تقدير قيمة شركة جرافكور البريطانية التي تأسست في عام 2016 بملياري دولار في عام 2019. وأعادت الشركات القائمة مثل إنفيديا (وهي أكبر صانع لوحدات معالجة الرسومات) تصميماتهم لاستيعاب الذكاء الاصطناعي، كما صممت شركة جوجل رقائق "وحدة معالجة التنسور" الخاصة بها داخل الشركة. وقامت شركة بايدو (عملاق التكنولوجيا الصينية) بفعل الشيء نفسه مع رقائق " كونلون" الخاصة بها. ويعتقد ألفونسو مارون من شركة KPMG"" أن سوق رقائق الذكاء الاصطناعي المتخصصة تبلغ قيمتها بالفعل حوالي 10 مليارات دولار، ويمكن أن تصل إلى 80 مليار دولار بحلول عام 2025.

ويقول نايجل تون (أحد مؤسسي شركة جرافكور ((Graphcore البريطانية): "تحتاج هندسة الحواسيب إلى الأخذ بهيكل البيانات التي تعالجها". والسمة الأساسية لأعباء العمل في الذكاء الاصطناعي هي أنها من نوع "المتوازي المربك"، مما يعني أنه يمكن تقسيمها إلى آلاف الأجزاء التي يمكن العمل عليها جميعاً في نفس الوقت. على سبيل المثال: تحتوي رقائق جرافكور على أكثر من 1200 "نواة" حسابية فردية، ويمكن وصلها معاً لتوفير المزيد من القوة. واتخذت شركة سيريبراس الناشئة الواقعة في كاليفورنيا، نهجاً متطرفاً، فعادةً ما يتم تصنيع الرقائق في مجموعات، مع حفر العشرات أو المئات على رقائق السيليكون القياسية بقطر 300 مم. أما شريحة رقائق سيريبراس فتأخذ رقاقة كاملة بمفردها، ويتيح ذلك للشركة حشر 400000 نواة في كل منها.

وثمة تحسينات أخرى مهمة أيضاً، حيث يشير أندرو فيلدمان (أحد مؤسسي شركة سيريبراس) إلى أن نماذج الذكاء الاصطناعي تقضي الكثير من وقتها في ضرب الأرقام في الصفر، ونظراً لأن هذه الحسابات تؤدي دائماً إلى صفر، فإن جميعها غير ضرورية، وقد تم تصميم رقائق سيريبراس لتجنب تنفيذها. ويقول تون من شركة جرافكور أنه "على عكس العديد من المهام، ليست هناك حاجة إلى حسابات فائقة الدقة في الذكاء الاصطناعي"، وهذا يعني أنه يمكن لمصممي الرقائق توفير الطاقة عن طريق الحد من دقة الأرقام التي تتحملها إبداعاتهم.

ويمكن أن نضيف هذا كله لنصل إلى مكاسب كبيرة، ويعتقد تون أن رقائق الجرافكور الحالية هي تقريباً بين 10 و50 مرة أكثر كفاءة من وحدات معالجة الرسومات. ولقد وجدوا طريقهم بالفعل إلى أجهزة الكمبيوتر المتخصصة التي تبيعها شركة ديل، وكذلك إلى منصة أزور للحوسبة السحابية من مايكروسوفت. كما قامت شركة سيريبراس بتسليم المعدات إلى مختبَرين حكوميين أمريكيين كبيرين.

"يبدو أن قانون مور وصل إلى نهايته"

ستزداد أهمية مثل هذه الابتكارات لأن الانفجار الذي يغذيه الذكاء الاصطناعي في الطلب على الإمكانات الحاسوبية يأتي في الوقت الذي ينتهي فيه قانون مور، وتزداد صعوبة تقلص حجم الرقائق، كما أن فوائد القيام بذلك لم تعد كالسابق. ففي العام الماضي، صرح جنسن هوانغ، مؤسس شركة إنفيديا، صراحةً أن "قانون مور لم يعد ممكناً بعد الآن".

الحلول الكمية والرقائق العصبية:

بسبب كل ما سبق يبحث باحثون آخرون في أفكارٍ أكثر غرابة، أحدها هو الحوسبة الكمية، التي تستخدم الخصائص غير البديهية لميكانيكا الكمية من أجل توفير تسريعٍ كبير لبعض أنواع الحوسبة، وتتمثل إحدى طرق التفكير في تعلم الآلة في اعتباره مشكلة تحسين، حيث يحاول الحاسوب إجراء موازنات بين ملايين المتغيرات للوصول إلى حلٍ يقلل أكبر قدرٍ منها، فتقول كريستا سفور (التي تقود قسم أنظمة الكم في شركة مايكروسوفت): إن تقنية الحوسبة الكمية التي تسمى خوارزمية جروفر تقدم سرعات كبيرة محتملة.

وثمة فكرةٌ أخرى هي أخذ الإلهام من علم الأحياء، مما يثبت أنّ أساليب القوة الغاشمة الحالية ليست هي الطريقة الوحيدة، حيث تستهلك رقائق سيريبراس حوالي 15 كيلو واط عند تشغيلها بشكلٍ ثابت، وهو ما يكفي لتشغيل عشرات المنازل (يستهلك عددٌ مماثلٌ من وحدات معالجة الرسومات أضعافاً كثيرة أكثر من ذلك). وبالمقابل، فإن الدماغ البشري يستخدم حوالي 20 واط من الطاقة -حوالي جزء من الألف- وهو من نواح كثيرة أكثر ذكاءً من نظيره السيليكون. وتقوم شركات مثل إنتل وآي بي إم بالتحقيق في الرقائق "العصبية" (التي تشبه الدماغ)، التي تحتوي على مكونات مصممة لتقليد السلوك الكهربائي للخلايا العصبية التي تتكون منها الأدمغة البيولوجية الحقيقية.

وفي الوقت الراهن تُعتبر كل هذه الأمور بعيدة المنال، وتعتبر الحواسيب الكمية مفهومة جيداً نسبياً من الناحية النظرية، أما من الناحية العملية، على الرغم من تمويل مليارات الدولارات من عمالقة التكنولوجيا مثل شركة جوجل ومايكروسوفت وآي بي إم، إلا أن إنشاءها لا يزال يمثل تحدياً هندسياً، ولقد تم إنشاء الرقائق ذات الأشكال العصبية باستخدام التقنيات الحالية، لكن مصمميها عاجزون عن العمل بسبب حقيقة أن علماء الأعصاب ما زالوا لا يفهمون ما تفعله الأدمغة بالضبط! أو كيف تفعل ذلك؟!

وهذا يعني أنه في المستقبل المنظور، سيتعين على الباحثين في مجال الذكاء الاصطناعي معرفة مستجدات الأداء في تقنيات الحوسبة الحالية، فالسيد تون متفائل بأن هنالك الكثير من المكاسب التي يمكن تحقيقها من المزيد من الأجهزة المتخصصة ومن تعديل البرامج الحالية للعمل بشكلٍ أسرع. ولقياس مدى تقدم المجال الناشئ، يقدم تشبيهاً بألعاب الفيديو: "لقد تجاوزنا بونج، وربما نكون في باك مان الآن". كل أولئك الذين ليست لديهم ملايين ينفقونها يأملون أن يكون محقاً.



[1] BERTالتي تعني تمثيلات التشفير ثنائية الاتجاه من Transformers، هي تقنية قائمة على الشبكة العصبية للتدريب المسبق على معالجة اللغة الطبيعية. في اللغة الإنجليزية البسيطة، يمكن استخدامه لمساعدة جوجل على تمييز سياق الكلمات في استعلامات البحث بشكل أفضل. وعلى سبيل المثال: في العبارات "تسعة إلى خمسة" و "ربع إلى خمسة"، تحتوي كلمة "إلى" على معنيين مختلفين، قد يكون واضحاً للبشر ولكنه أقل وضوحاً لمحركات البحث. تم تصميم نموذج بيرت للتمييز بين هذه الفروقات الدقيقة لتسهيل المزيد من النتائج ذات الصلة.

شارك هذا المقال

تواصل معنا

نرحب بكافة استفساراتكم وتساؤلاتكم...