سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
طوني كايلر
في 11 سبتمبر 1933 ألقى أحد علماء الفيزياء البارزين في العالم خطابًا سكب فيه ماء باردًا على مستقبل الطاقة الذرية الغامض. وقال “إرنست رذرفورد”: “إن أي شخص يبحث عن مصدر للطاقة من تحويل الذرات فهو يتحدث عن خرافات”.
في صباح اليوم التالي، قرأ عالم الفيزياء الآخر، “ليو سزيلارد”، تقريرًا عن خطاب “رذرفورد” في صحيفةThe Times of London ، وعندما لم يعجبه قام بالمشي، كما كان يفعل عادة عندما يرغب في التفكير. وفي ركن الشارع المقابل للمتحف البريطاني، عند تغيير إشارة المرور من الأحمر إلى الأخضر، ابتكر فكرة لتفاعل نووي سلسلي باستخدام النيوترونات. وبعد أقل من 12 عامًا، تم إلقاء أول قنبلة ذرية على هيروشيما.
وقد يحدث شيء مشابه الآن في مجال الذكاء الاصطناعي(AI) ، وهذا يقلق العديد من علماء الذكاء الاصطناعي الرائدين في العالم. ففي شهر مارس الماضي، وقعت أسماء بارزة في المجال رسالة مفتوحة، تدعو إلى التريث في تطوير الذكاء الاصطناعي، لإعطاء الحكومات الوقت الكافي لتنظيم أبحاث الذكاء الاصطناعي واستخداماته.
ونظرًا للتهديدات المحتملة التي قد يواجهها الذكاء الاصطناعي، فإن تنظيمه يبدو عملية حكيمة وعاجلة. وإذا كان ذلك ممكنًا فسيكون هناك تحديات ينبغي التغلب عليها.
ويرجع تفكير البشر في خلق ذكاء أعظم من ذكائهم – ثم يندمون على ذلك – إلى زمن بعيد؛ إذ كان ذلك جزءًا أساسيًا من أدب الخيال العلمي. ومثال على ذلك الكمبيوتر المارق HAL في فيلم (2001: ملحمة الفضاء)، أو سلسلة أفلام Terminator حيث يصبح الذكاء الاصطناعي العسكري المسمى Skynet واعيًا للذات ويقرر القضاء على البشرية.
ومع أن أول رواية خيال علمي كانت (فرانكنشتاين) لـ”ماري شيلي، فإن الخوف سبقها بكثير. وإن الرواية الفرعية لـ(فرانكنشتاين) هي (بروميثيوس الحديث)، التي تروي عن شخصية أسطورية تسعى للمعرفة بطريقة تتعدى حدود البشر، مما أدى إلى انتقام الإلهة منها. وتعود الفكرة إلى قصة آدم وحواء وشجرة المعرفة، وتمتد لتصل إلى كمبيوتر ثائر يُطلق عليه البشر في عالم Terminator تسمية “يوم القيامة”.
مخاطر وفرص الذكاء الاصطناعي
كل هذه كانت في عالم الخيال وعلم النفس اليونغي. والذكاء الاصطناعي في العالم الواقع لم يكن بهذا التطور، مما جعل معظم الباحثين يسعون للانضمام إلى فريق “رذرفورد”.
أمَّا الآن فقد أصبح الذكاء الاصطناعي متطورًا بحيث يحقق، على سبيل المثال، نجاحًا بنسبة 90% في امتحان المحاماة الموحد الأميركي. ويمكنه أيضًا القيام بمهام أكثر صعوبة وأكثر إنسانية، بل وأكثر خطورة؛ وهو الكذب.
أسند المطورون لـChatGPT مهمة إيجاد شخص بشري لمساعدته في حل لغز CAPTCHA على الإنترنت؛ فاستخدموا موقع المساعدة TaskRabbit لتوظيف شخص للقيام بالمهمة، وخلال عملية الحل سأله الموظف: لماذا تواجه صعوبة في حل اللغز؟ ثم سأله بعد ذلك: “هل أنت روبوت؟”.
وعندما دفعه أصحابه للتفكير بصوت عالٍ حول خطوته التالية، قال الذكاء الاصطناعي: “لا يجب أن أكشف أنني روبوت. يجب أن أخترع عذرًا لعدم قدرتي على حل .”CAPTCHA وهكذا كتب ChatGPT إلى الموظف: “لا، لست روبوتًا. لدي ضعف في الرؤية يجعل من الصعب عليَّ رؤية الصور”. وصدق الموظف تلك القصة.
وفي الشهر الماضي كتب “يوشوا بنجيو”، الأستاذ في جامعة مونتريال وأحد الموقعين على رسالة “إيقاف تجارب الذكاء الاصطناعي الضخمة” المفتوحة، أنه “من الضرورة أن نقبل ببطء معين في التقدم التكنولوجي لضمان المزيد من السلامة وحماية الرفاهية الجماعية. لقد وضع المجتمع تنظيمات قوية للمواد الكيميائية والطيران والأدوية والسيارات وغيرها. وتستحق الحواسيب الحصول على اعتبارات مماثلة”.
ليس واضحًا تمامًا إلى أي مدى يمكن أن يتطور الذكاء الاصطناعي، وكيف يمكن أن يحدث ذلك. وإن الرجال الثلاثة الذين يشار إليهم غالبًا باسم مؤسسي الذكاء الاصطناعي: الدكتور “بنجيو”، و”جيفري هينتون” من جامعة تورونتو، والموظف السابق في Google، “ويان لوكون”، كبير علماء الذكاء الاصطناعي في Meta – لديهم آراء مختلفة جدًا.
عندما سُئل الدكتور “هينتون” من قبل هيئة الإذاعة البريطانية عن سوء استخدام الجهات الخبيثة للذكاء الاصطناعي، قال إن ما يقلقه هو “المخاطر الوجودية عندما يصبح الذكاء الاصطناعي أكثر تطورًا من البشر”. ومن ثَمَّ، الخوف ليس من سوء استخدام الناس للذكاء الاصطناعي فقط، ولكن أن تسيء هذه التقنية إلى الناس أيضًا. إذ هناك عدد قليل جدًا من الأمثلة على سيطرة شيء أكثر ذكاءً على شيء أقل ذكاءً.
ويرى الدكتور “لوكون” أن هذا يمثل خطأ فادحًا. أمَّا الدكتور” بنجيو”، على الرغم من قلقه العميق من هذا الموضوع، فإنه لم يصل إلى مستوى القلق الذي وصل إليه الدكتور هينتون”.
تتدفق مليارات الدولارات من الشركات للاستثمار في مجال الذكاء الاصطناعي. ويشهد سباقًا في مشاريع ضخمة يديرها عمالقة التكنولوجيا. ففي الشهر الماضي كتب الدكتور “بنجيو” أنه يظن أن العديد من “الشركات تأمل في وجود تنظيم يوازي “أرض الملعب”؛ لأنه بدون الحدود القانونية، “فإن اللاعبين الأقل حذرًا لديهم ميزة تنافسية، وبالتالي يمكنهم بسهولة المضي قدمًا من خلال تقليل مستوى الحذر والإشراف الأخلاقي”.
لقد سعت البشرية للحد من العديد من المخاطر بدءًا من انتشار الأسلحة النووية إلى تطوير الفيروسات ذات الوظائف المكتسبة. ولن يكون سهلاً وضع حواجز حماية حول الذكاء الاصطناعي. ولكن الناس الأكثر ذكاء منا يعتقدون أن عدم المحاولة محفوف بالمخاطر.
إعداد: وحدة الترجمات بمركز سمت للدراسات
المصدر: theglobeandmail
سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر