سباق الذكاء الاصطناعي | مركز سمت للدراسات

إعادة التفكير في سباق الذكاء الاصطناعي

التاريخ والوقت : الأربعاء, 10 مارس 2021

مايكل ديب

 

أصبح “الذكاء الاصطناعي” كلمة طنانة في مجال التكنولوجيا بكل من السياقات المدنية والعسكرية. ومع تزايد الاهتمام، تأتي زيادة هائلة في الوعود الباهظة، والتكهنات الجامحة، والأوهام المفرطة، إلى جانب التمويل لمحاولة جعل كل ذلك ممكنًا. وعلى الرغم من هذه الحماسة، يجب أن تتغلب تقنية الذكاء الاصطناعي على العديد من العقبات: فهي مكلفة، وعرضة للتسمم بالبيانات والتصميم السيئ، ويصعب على البشر فهمها، كما أنها مصممة خصوصًا لمشاكل محددة. وفي حين لم ينجح أي مبلغ من المال في القضاء على هذه التحديات، فقد انغمست الشركات والحكومات في تطوير واعتماد الذكاء الاصطناعي كلما كان ذلك ممكنًا. وقد ولّد ذلك رغبة في تحديد من “المتقدم” في “سباق” الذكاء الاصطناعي، الذي غالبًا ما يكون عن طريق فحص من ينشر أو يخطط لنشر نظام ذكاء اصطناعي. ولكن نظرًا للمشكلات العديدة التي يواجهها الذكاء الاصطناعي كتقنية، فإن نشرها ليس مجرد دليل على جودتها وأكثر من كونها لقطة سريعة لثقافة الناشر ونظرته للعالم. وبدلاً من ذلك، فمن الأفضل قياس سباق الذكاء الاصطناعي من خلال عدم النظر إلى نشره، لكن من خلال أخذ رؤية أوسع للقدرة العلمية الأساسية لإنتاجه في المستقبل.

أساسيات الذكاء الاصطناعي: العقول التي نبتكرها

إن الذكاء الاصطناعي يمثل خيالاً مستقبليًا بجانب كونه يتسم بالشمولية على كافة مستويات الحياة الحديثة. فالذكاء الاصطناعي مصطلح واسع يشمل على نطاق واسع أي شيء يحاكي الذكاء البشري. ويتراوح الذكاء الاصطناعي من النطاق الضيق الموجود بالفعل في حياتنا اليومية، والذي يركز على مشكلة واحدة محددة، مثل برامج لعب الشطرنج، ومرشحات البريد الإلكتروني العشوائي، إلى الذكاء الاصطناعي العام الذي هو موضوع الخيال العلمي، كما نرى في حرب النجوم Star Wars وهال 9000 (HAL 9000). وحتى الشكل الضيق الذي نمتلكه حاليًا ونعمل على تحسينه باستمرار، يمكن أن يكون له عواقب وخيمة على العالم من خلال ضغط المقاييس الزمنية لاتخاذ القرارات، وأتمتة المهام الوضيعة المتكررة، وتصنيف الكميات الكبيرة من البيانات، وتطوير السلوك البشري. لقد تمَّ تأجيل حلم الذكاء الاصطناعي العام لفترة طويلة، إذ من المرجح أن يظل بعيد المنال، إن لم يكن مستحيلاً، ولا يزال معظم التقدم مع الذكاء الاصطناعي الضيق. وبدايات الخمسينيات من القرن الماضي، كان الباحثون يصورون آلات التفكير وطوروا نسخًا أولية منها، ثم تطورت إلى برامج يومية “بسيطة”، مثل معارضي الكمبيوتر في ألعاب الفيديو.

ثم جاء التعلم الآلي بسرعة، لكن ذلك شهد نهضة في أوائل القرن الحادي والعشرين عندما أصبح هو الطريقة الأكثر شيوعًا لتطوير برامج الذكاء الاصطناعي، لدرجة أنه أصبح الآن مرادفًا تقريبًا للذكاء الاصطناعي. وينشئ التعلم الآلي خوارزميات تسمح لأجهزة الكمبيوتر بالتحسين من خلال استهلاك كميات كبيرة من البيانات واستخدام “الخبرة” السابقة لتوجيه الإجراءات الحالية والمستقبلية. ويمكن القيام بذلك من خلال التعلم الخاضع للإشراف، إذ يقدم البشر إجابات صحيحة لتعليم الكمبيوتر، ويمارسون التعلم غير الخاضع للإشراف، بإعطاء الآلة بيانات غير مسماة للعثور على أنماطها الخاصة، والتعلم المعزز؛ إذ يستخدم البرنامج التجربة والخطأ لحل المشكلات ويكافأ أو يعاقب بناء على قراره. وشهد التعلم الآلي العديد من التطورات المذهلة في الذكاء الاصطناعي على مدى العقد الماضي مثل التحسينات الجذرية للتعرف على الوجه والسيارات ذاتية القيادة، وأدى إلى ولادة طريقة تسعى إلى استخدام دروس علم الأحياء لإنشاء أنظمة تعالج بيانات مماثلة. فللعقول القدرة على التعلم العميق؛ وهو ما يتميز بالشبكات العصبية الاصطناعية، حيث يتم تقسيم البيانات لفحصها بواسطة “الخلايا العصبية” التي تتعامل بشكل فردي مع سؤال محدد. كما يمكن لذلك وصف مدى الثقة بعمليات التقييم، حيث تقوم الشبكة بتجميع هذه الإجابات للتقييم النهائي.

لكن رغم التطورات التي شهدها الذكاء الاصطناعي منذ نهضة التعلم الآلي وتطبيقاته النظرية اللامحدودة تقريبًا، فإنه يظل غامضًا وهشًا ويصعب تطويره.

التحديات: العنصر البشري

تثير الطريقة التي يتم بها تطوير أنظمة الذكاء الاصطناعي شكوكًا حول قدرتها على العمل في البيئات غير المختبرة، أي الحاجة إلى كميات كبيرة من مدخلات البيانات، وضرورة أن تكون شبه كاملة، فضلاً عن تأثيرات الأفكار المسبقة لمنشئيها. أولاً، يعدُّ نقص البيانات أو خطؤها أحد أكبر التحديات، خاصة عند الاعتماد على تقنيات التعلم الآلي. فلتعليم الكمبيوتر ينبغي التعرف على الطائر، حيث يجب إطعامه بآلاف الصور “لتعلم” السمات المميزة للطائر، التي تحد بشكل طبيعي من استخدامها في الحقول مع أمثلة قليلة. بالإضافة إلى ذلك، إذا كان حتى جزء ضئيل من البيانات غير صحيح (أقل من 3%)، فقد يطور النظام افتراضات غير صحيحة أو يعاني من انخفاض حاد في الأداء. أخيرًا، قد يعيد النظام إنشاء الافتراضات والتحيزات، العنصرية أو التمييز الجنسي أو النخبوي أو غير ذلك من البيانات الموجودة التي تحتوي بالفعل على تحيزات متأصلة، مثل أرشيف السير الذاتية أو سجلات الشرطة. كما يمكن ترميزها بحيث ينقل المبرمجون عن غير قصد تحيزاتهم المعرفية إلى خوارزميات التعلم الآلي التي يصممونها.

إن هذا الميل لمشاكل صنع القرار العميقة الجذور، والتي قد تصبح واضحة فقط بعد التطوير، ستثبت أنها إشكالية بالنسبة لأولئك الذين يريدون الاعتماد بشكل كبير على الذكاء الاصطناعي، خاصة فيما يتعلق بقضايا الأمن القومي. وبسبب الخطر الكامن المتمثل في التنازل عن الوظائف الحيوية للآلات غير المختبرة، لا ينبغي النظر إلى خطط نشر برامج الذكاء الاصطناعي في المقام الأول على أنها انعكاس لجودتها الخاصة، لكن على ثقافة المؤسسة وتحملها للمخاطر وأهدافها.

كما يؤدي قبول درجة معينة من عدم اليقين إلى تفاقم الصعوبات في دمج الذكاء الاصطناعي مع المشرفين البشريين. ويتمثل أحد الخيارات في نظام وجود الإنسان في حلقة حيث يتم دمج المشرفين البشريين طوال عملية اتخاذ القرار. وهناك خيار وجود الإنسان في حلقات يظل من خلالها الذكاء الاصطناعي مستقلاً تقريبًا مع إشراف بشري طفيف فقط. وبعبارة أخرى، يجب على المؤسسات أن تقرر ما إذا كانت ستمنح البشر القدرة على تجاوز قرار الآلة الذي قد يكون أفضل ولا يمكنهم فهمه. وهنا يكمن البديل في التخلي عن الإشراف البشري الذي قد يمنع الكوارث التي قد تكون واضحة للعقول العضوية. وبطبيعة الحال، سيعتمد الاختيار على المخاطر، إذ ربَّما يكون من المرجح أن تسمح الجيوش للآلة بالتحكم في جداول المغادرة دون توجيه بشري بدلاً من الدفاعات المضادة للصواريخ.

مرة أخرى، كما هو الحال عند التشكك في نزاهة القرار، فإن الطريقة التي تدمج بها المنظمة الذكاء الاصطناعي في عملية صنع القرار يمكن أن تخبرنا بالكثير. فقد يشير وجود نظام بشري في إطار معين إلى أن المنظمة ترغب في تحسين كفاءة نظام يعتبر مقبولاً في الغالب كما هو. ويشير هذا النظام إلى تحمّل أكبر للمخاطر، لكنه ينم أيضًا عن رغبة في بذل المزيد من الجهد للحاق بأحدث التقنيات في هذا المجال أو تجاوزها.

السباق العالمي للذكاء الاصطناعي: قياس ما لا يمكن قياسه

يعدُّ تمويل البحث والتطوير مكونًا رئيسًا للتقدم العلمي في العالم الحديث، وغالبًا ما يتم الاعتماد عليه كمقياس لرسم التقدم في الذكاء الاصطناعي. وغالبًا ما يكون الاتصال خادعًا؛ حيث تكتظ العمليات العملية بطرق معقدة وفرضيات مدمرة وأسئلة بحثية محددة ليس لها أهمية واسعة. وتعدُّ هذه النقطة الأخيرة بارزة بشكل خاص للذكاء الاصطناعي بسبب الطبيعة المصممة لتطبيقات معينة للذكاء الاصطناعي، الذي يتطلب تصميمًا مختلفًا لكل مشكلة يعالجها. إن الذكاء الاصطناعي الذي يوجه حركة المرور، على سبيل المثال، لا قيمة له تمامًا في قيادة السيارات. وبالنسبة للأسئلة الصعبة (مثل التخطيط للاستراتيجية النووية)، فإن التطوير يكمن في التزام مالي مفتوح دون وعد بنتائج.

لذلك، يصبح من الصعب تقييم الإنجاز بدقة من خلال استخدام المبلغ الذي تمَّ إنفاقه على المشروع كبديل للتقدم. إذ ربَّما يتم إنفاق الأموال على طريق مسدود، أو فرضية غير صحيحة، أو حتى لخداع الآخرين للاعتقاد بأن ثمة تقدمًا يتم إحرازه. وبدلاً من ذلك، يجب أن ننظر إلى المال باعتباره انعكاسًا لما يقدره المنفق. إذن، لا يعدُّ الإنفاق على المشروع مقياسًا فعالاً للتقدم المحرز في تطوير الذكاء الاصطناعي، لكن لمدى أهمية سؤال البحث بالنسبة للشخص الذي يطرحه.

لكنَّ هذه الأهمية توفر قيمة للتحليل، وذلك بغض النظر عن عدم قابليتها للتطبيق لقياس سباق الذكاء الاصطناعي؛ إذ يمكن لعملية صنع القرار أن تتحدث عن مجلدات حول أولويات الناشر وثقافته وتحمله للمخاطر ورؤيته. ومن المفارقات، أن الطريقة التي يتم بها نشر الذكاء الاصطناعي تخبرنا عن الطبيعة السياسية والاقتصادية والاجتماعية للمجموعة التي تنشرها أكثر بكثير مما تتحدث عن القدرة التكنولوجية أو النضج. وبهذه الطريقة، تقدم خطط النشر معلومات مفيدة للآخرين. ويعدُّ هذا صحيحًا بشكل خاص في اختبارات خطط الحكومة. فقد أنتج فحص الخطط نظرة ثاقبة مثل استخدام مستندات الذكاء الاصطناعي الصينية لاستنتاج مكمن الضعف في اقتصاد تكنولوجيا المعلومات الخاص بهم، أو اكتشاف أن البنوك تبالغ في استخدام روبوتات المحادثة لتبدو ملائمة لعملائها، أو الإشارة إلى أن المستندات الأوروبية تحاول إنشاء نموذج أوروبي مميز لتطوير الذكاء الاصطناعي من حيث الأسلوب والمضمون. هنا تقدم فحوصات خطط نشر الذكاء الاصطناعي قيمتها الحقيقية.

بدلاً من ذلك، نجد أن هناك طرقًا أفضل بكثير لقياس التقدم في الذكاء الاصطناعي. فبينما تتغير التكنولوجيا بسرعة، فإن المقاييس التقليدية للقدرة العلمية توفر قاعدة أكثر دقة لقياس الذكاء الاصطناعي من الصعب معالجتها، مما يجعلها أكثر فاعلية من قياس مخرجات مشاريع الذكاء الاصطناعي.

ويرتبط ذلك بنسبة العلماء بين السكان، والأوراق المنتجة وعدد الاستشهادات، والإنفاق على البحث والتطوير بشكل عام بخلاف التركيز على المشاريع المحددة، وعدد الجامعات وطلاب العلوم والتكنولوجيا والهندسة والرياضيات. وهنا، فإن قياس أي عملية علمية محفوف بالمخاطر بشكل طبيعي بسبب إمكانية البحث في طريق مسدود، لكن إذا أخذنا ذلك على نطاق واسع، فإن هذه المقاييس تعطي صورة أفضل بكثير لقدرة دولة أو منظمة على الابتكار في تكنولوجيا الذكاء الاصطناعي. ودائمًا ما ينبغي استخدام مقاييس متعددة؛ أي ضرورة التركيز على مقياس معين (مثل الإنفاق على البحث)، حيث سيجعل من السهل التلاعب بالنظام مثل الاعتماد على نشر الذكاء الاصطناعي. وبالتالي، فإن مثل هذا التركيز الضيق يشوه أيضًا منظر مشهد الذكاء الاصطناعي. ولنأخذ، على سبيل المثال، انعدام الأمن الشديد بشأن موقف الولايات المتحدة على الرغم من قيادتها المستمرة من حيث الموهبة وعدد الأوراق التي تمَّ الاستشهاد بها وجودة الجامعات.

تشير مسودة تقرير لجنة الأمن القومي الأميركية بشأن الذكاء الاصطناعي إلى أن “الأمة التي تمتلك القاعدة الاقتصادية الأكثر مرونة وإنتاجية ستكون في وضع أفضل لتولي زمام القيادة العالمية”. ويلخص هذا البيان طبيعة سباق الذكاء الاصطناعي، وقياسه بشكل طبيعي. فإذا رغبت حكومة أو شركة في تولي منصب قيادي في السباق، ينبغي أن يكون الهدف هو تحفيز القاعدة التي ستنتجها، وليس الترويج بنشاط لمشروع أو قسم أو هدف معين. ويتضمن ذلك سياسات مجربة وصحيحة (لكن غالبًا ما يتم إهمالها)، مثل: تعزيز تعليم العلوم والتكنولوجيا والهندسة والرياضيات، وتدريب باحثين جدد داخليًا، وجذب المواهب الأجنبية بالحوافز، وتوفير التمويل للبحث والتطوير (خاصةً إذا كان يشكل أساسًا للعمل المستقبلي مثل أمان الكمبيوتر أو المرونة)، والتأكد من أن الباحثين لديهم إمكانية الوصول إلى أجهزة تكنولوجيا المعلومات التي يحتاجونها من خلال عمليات التصنيع والشراء المناسبة.

إعادة شحذ القاعدة العلمية

وغالبًا ما يتم تجاهل هذه الاقتراحات في الولايات المتحدة على وجه الخصوص بسبب التسييس المكثف للأولويات المحلية مثل سياسة التعليم (التي تؤثر على الجامعات)، وسياسة الهجرة (التي تؤثر على جذب المواهب الأجنبية)، والسياسة الاقتصادية (التي تؤثر على التصنيع والمشتريات). وفي الوقت نفسه، لا يتعلق الأمر فقط بتوفير المزيد من التمويل، ولكن تبسيط العمليات التي تمكن القدرات العلمية. فعلى سبيل المثال، يعاني نظام تلقي منح البحث العلمي من مصاعب، حيث يستغرق وقتًا طويلاً، ويخنق الوكالات الحكومية المختلفة التي لديها مسؤوليات تمويل متداخلة. لذا، يجب بذل الجهود للتأكد من أن التقديم للحصول على المنح ليس فقط أسهل، ولكنه يعزز الاستفسارات العلمية الأوسع.

ومن خلال حل مثل هذه المشكلات، يستثمر القادة في المكونات التي ستخلق المركز الرابح في سباق الذكاء الاصطناعي، ويمكن للمراقبين تحديد من يقوم بالخطوات الكبيرة للقيادة الآن، وكذلك في المستقبل. وفي عصر المعلومات، فقد أصبح نشر التقنيات الجديدة ومستوى تقدمها مقاييس أساسية في قياس القوة والفعالية، لكن ذلك غالبًا ما يكون معيبًا، خاصة بالنسبة لمشروعات الذكاء الاصطناعي، حيث ميزانيات البحث، وعمليات تخصيصات المهام، والأدوار المتعلقة بالبشر تظهر القليل عن حالة التكنولوجيا نفسها. ونظرًا للعديد من المشكلات الأساسية المتعلقة بنشر الذكاء الاصطناعي، فإن تحمل المخاطر والثقافة الاستراتيجية يلعب دورًا أكبر بكثير في تحديد كيفية تنفيذها. فكلما كانت المنظمة أكثر تحملاً للمخاطر، وشعرت بالتحدي من قبل المنافسين، زادت احتمالية تبنيها للذكاء الاصطناعي للوظائف الهامة. وبدلاً من فحص خطط نشر الذكاء الاصطناعي لمعرفة أي دولة أو منظمة “متقدمة”، يجب أن نستخدمها لدراسة نظرتها للعالم وتوقعاتها الاستراتيجية. وبدلاً من ذلك، يجب أن نعتمد على القدرة العلمية الشاملة لتحديد مواقع الصدارة في سباق الذكاء الاصطناعي.

 

إعداد: وحدة الترجمات بمركز سمت للدراسات

المصدر: Observer Research Foundation

النشرة البريدية

سجل بريدك لتكن أول من يعلم عن تحديثاتنا!

تابعونا على

تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر