بعد الفشل مع شبكات التواصل.. علينا اتقاء شرور الذكاء الاصطناعي | مركز سمت للدراسات

بعد الفشل مع شبكات التواصل.. علينا اتقاء شرور الذكاء الاصطناعي

التاريخ والوقت : الأحد, 9 يوليو 2023

جيليان تيت

 

عندما أدرك تريستان هاريس أنه يريد تحذير العالم من المخاطر التي تشكلها وسائل التواصل الاجتماعي، أنشأ “مركز التكنولوجيا الإنسانية”.

كان ذلك في 2018 وكان هاريس، مصمما سابقا في شركة جوجل عمل على أدوات رقمية مسببة للإدمان، مرعوبا مما تفعله ثقافة “التطبيقات” بأدمغتنا. لذلك من خلال منظمته غير الربحية والأفلام الوثائقية مثل “ذا سوشال ديلما”، حث صناع السياسة على الانتباه.

بعد خمسة أعوام، من الواضح أن صانعي السياسة لم يستمعوا له. بصرف النظر عن إعلان شركات وسائل التواصل الاجتماعي عن تحسين رقابتها، فإن الضوابط تظل متساهلة. في الوقت نفسه، كما لاحظ أكاديميون مثل جوناثان هايدت، تدهورت الصحة العقلية للشباب تدهورا كبيرا بالتزامن مع ظهور الشبكات الاجتماعية.

في الشهر الماضي، قدم هاريس، إلى جانب زميله آزا راسكين، عرضا تقديميا حول الذكاء الاصطناعي إلى معهد آسبن آيدياز الذي ربما كان أكثر دروس الذكاء الاصطناعي التعليمية وضوحا ورعبا التي حضرتها في حياتي.
إنهما يصوران الخطر الذي يشكله الذكاء الاصطناعي بصفته امتدادا لمخاطر وسائل التواصل الاجتماعي. على وجه التحديد، يستشهد هاريس باستعارة أفلام الخيال العلمي ليشير إلى أنه “يمكنك التفكير في وسائل التواصل الاجتماعي على أنها أول اتصال حقيقي بين البشرية والذكاء الاصطناعي”. عندما تم استخدام الذكاء الاصطناعي في تنسيق المحتوى، “خسرت الإنسانية”.

الآن، يحدث “اتصال ثان”، حيث أن نماذج التعلم الآلي الكبرى مثل برمجية تشات جي بي تي لا تنسق المحتوى فقط بل تنشئه. يجادل هاريس بأن ما يجعل هذه المرحلة مخيفة جدا هو أن أدوات الذكاء الاصطناعي تتكاثر بشكل أسرع من أي شيء سبق رؤيته، و”التعلم” من البيانات كيفية اكتساب مهارات “ناشئة” لم يتوقعها باحثو الذكاء الاصطناعي أنفسهم. لقد قامت الآلات أخيرا بأشياء دون أن يتم تعليمها، وفقا لمادة نشرت على “فاينانشيال تايمز” في نيسان (أبريل). لاحظ جيف دين، أحد كبار المسؤولين التنفيذيين في “جوجل”، أنه بينما هناك الآن “عشرات الأمثلة على القدرات الناشئة، فإنه لا يوجد حاليا سوى عدد قليل من التفسيرات المقنعة لسبب ظهور هذه القدرات”.

أصبح من الصعب بشكل متزايد على المطلعين تتبع ما يجري بالضبط، ناهيك عن غير المطلعين. أخبرني أحد كبار الشخصيات في إحدى مجموعات الذكاء الاصطناعي الكبيرة أخيرا أن المشكلة تكمن في أنه لا يوجد نظام برمجي واحد يقوم ببرمجة الذكاء الاصطناعي ويمكن للمنظمين فحصه، لأن الآلات تتعلم باستمرار وتعيد التعلم، ما يجعل الاتصالات دون أثر يمكن اقتفاؤه.

من المثير للقلق أن التعلم الذاتي يمكن أن يتسبب أيضا في قيام الذكاء الاصطناعي بأشياء لا يمكن التنبؤ بها، تعرف باسم “الهلوسات”، إما بسبب خلل في البيانات أو خطأ بشري شبه ملحوظ في أوامر الذكاء الاصطناعي أو بعض العوامل الأخرى، التي لم نفهمها بعد. مثلا، استشهد هاريس وراسكين كيف اكتشف باحثون يدربون منصات الذكاء الاصطناعي على البحث عن مركبات دوائية أقل سمية أن تغييرا طفيفا في التعليمات تسبب في عثورهم على 40 ألف جزيء سام بدلا من ذلك، بما في ذلك عامل الأعصاب VX.

هناك أيضا خطر أكثر إلحاحا يثير قلق شخصيات تكنولوجية بارزة مثل جيفري هينتون، باحث سابق آخر في “جوجل”: حقيقة أن أدوات الذكاء الاصطناعي مفتوحة المصدر تجعل من السهل على أي شخص نشر معلومات خاطئة تبدو حقيقة بشكل مبهر. يقول هاريس بتحسر “ينبغي علينا جميعا أن نشعر بالقلق إزاء سباق التسلح في الذكاء الاصطناعي. لست متأكدا ما إذا كانت الديمقراطية ستنجو”.

ينكر هاريس وراسكين أنهما يريدان إيقاف الذكاء الاصطناعي، حيث إن راسكين نفسه يستخدمه لتعزيز التواصل بين الإنسان والحيوان. لكنهما يريدان قيودا معقولة على تطوره. تشمل هذه القيود حظر إطلاق أي برامج ذكاء اصطناعي أخرى متقدمة ومفتوحة المصدر إلى أن يتم إدخال أدوات حماية، وإدخال ضوابط صارمة على الرقائق، التي تشغل نماذج التعلم الآلي (والتي دونها لا يمكن أن يحدث شيء)؛ وسن أطرا قانونية مناسبة لجعل الشركات مسؤولة في حالة حدوث خلل في أنظمة الذكاء الاصطناعي، وإطلاق حملة توعية عامة حول المعلومات المضللة قبل انتخابات 2024.

يبدو أن باحثي الذكاء الاصطناعي الآخرين، الذين تحدثت معهم أخيرا يتفقون مع هذا الرأي. بعد العرض التقديمي الذي قدمه هاريس وراسكين في معهد آسبن مباشرة، ألقى جيمس مانيكا، أحد كبار المسؤولين التنفيذيين في “جوجل”، خطابا تعهد فيه بالتعاون مع صانعي السياسات. كما اجتمع قادة الشركات الرئيسة الأربع التي تطور أنظمة الذكاء الاصطناعي – مايكروسوفت، وجوجل، وأوبن أيه آي، وأنثروبيك – مع البيت الأبيض لمناقشة الضوابط.
لكن أوجه التشابه مع وسائل التواصل الاجتماعي تظهر مدى صعوبة تحدي الحكومات لشركات التكنولوجيا الكبرى، أو توقع قيام الشركات بالتنظيم الذاتي وهي تتنافس على حصتها في السوق. في الوقت الحالي، من الصعب على الكونجرس فرض ضوابط على التكنولوجيا الأميركية في وقت يعتقد فيه السياسيون أنهم في سباق تسلح مع الصين.

آمل بشدة أن تنجح حملة الذكاء الاصطناعي، التي يقودها هاريس وراسكين، لكنها لن يكتب لها النجاح إلا بالإرادة السياسية الجادة وضغط الناخبين القوي من أجل التغيير. إنها مهمة تشملنا جميعا. بعد أن فشل الوضع مع وسائل التواصل الاجتماعي، دعونا نأمل أن نتمكن من تحسينه مع الذكاء الاصطناعي. لا يوجد وقت نضيعه.

النشرة البريدية

سجل بريدك لتكن أول من يعلم عن تحديثاتنا!

تابعونا على

تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر