سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
Milo J. Clark, Tyler S. Young
Wikipedia: الموقع سريع، والمعلومات سهلة الهضم، وهو مكان رائع للتوجه إليه أولاً عند البحث في موضوع جديد. إلى جانب ذلك، أثنينا على عملية التحرير المفتوحة المصدر للموقع، والتي تسمح بتنوع واسع في وجهات النظر وتهدف إلى تقديم معلومات غير متحيزة. ولكن مؤخرًا، أدى التطور السريع لمنصات الذكاء الاصطناعي التوليدية إلى توجه العديد من الطلاب – بمن فيهم نحن – إلى مصادر أخرى. في الواقع، أصدرت كلية الفنون والعلوم في جامعة هارفارد أول إرشادات لها بشأن استخدام الذكاء الاصطناعي التوليدي في الفصول الدراسية هذا الصيف، مما يدل على أن هذه التكنولوجيا أصبحت جزءًا لا غنى عنه من تجربة الطالب.
مثل Wikipedia، توفر منصات الذكاء الاصطناعي التوليدية مثل ChatGPT من OpenAI وBard من Google معلومات محددة وسهلة القراءة حسب الطلب. لكن في حين تنجح ويكيبيديا بصدقها العام وشفافيتها وإنتاج المحتوى التعددي، فإن منتجات الذكاء الاصطناعي هذه تفشل. غالبًا ما تظهر تقنيات الذكاء الاصطناعي التوليدية تحيزات اجتماعية وسياسية، وتمارس الرقابة، وتقدم معلومات غير دقيقة أو غير كاملة. إذا اعتمدنا بشكل مفرط على الذكاء الاصطناعي التوليدي كمصدر للمعلومات لتكوين آرائنا، فإن هذه الخصائص يمكن أن تحد من وجهات نظرنا وتفاقم مناقشاتنا اللاحقة. على الرغم من أن الذكاء الاصطناعي يتحدث ويتحسن باستمرار، فإن الأبحاث على نماذج اللغات الكبيرة قد أظهرت تحيزات ملحوظة، قد تؤثر بشكل غير ملائم على وجهات نظرنا.
وجدت دراسة أجريت في وقت سابق من هذا العام أن ChatGPT كان يميل إلى المواقف اليسارية والليبرالية. في المقابل، نماذج طورتها شركة Meta مثل LLaMA وRoBERTa، كانت تميل أكثر نحو الاستبدادية. وأظهرت دراسة نُشرت في الشهر الماضي من قِبل فريق من Adobe وجامعة كاليفورنيا، لوس أنجلوس، وجامعة جنوب كاليفورنيا، أنه عندما طُلب من ChatGPT وAlpaca إنتاج خطابات توصية، تم استخدام اختلافات كبيرة في اللغة بناءً على جنس الموصى له. جزء من نهج OpenAI يشمل “مواءمة أنظمة الذكاء الاصطناعي مع القيم الإنسانية”. هذه العملية تشمل طريقة تُعرف باسم “التعلم التعزيزي من التغذية الراجعة البشرية”، حيث تتلقى النماذج مدخلات مباشرة من المختبرين البشر.لكن لا توجد مجموعة موحدة أو عالمية من القيم الإنسانية. القيم هي ذاتية وفريدة لكل فرد. الاقتراح بوجود مجموعة شاملة واحدة من القيم الإنسانية يتعارض مع تنوع الآراء الضروري للحوار الحر والمفتوح.
يمكن أن تكون قيم الشخص أيضًا أوضح مظهر لتحيزه .وبما أنه يتم تعزيز هذه القيم أثناء عملية التدريب، فلا يمكننا إلا أن نتوقع أن هذه التحيزات سوف تشق طريقها إلى المحتوى الذي تنتجه النماذج. حتى سام ألتمان، الرئيس التنفيذي الذي أعيد تعيينه مؤخرًا لشركة OpenAI، يقر بأن التحيزات مدمجة مباشرة في نموذج ChatGPT. لا يمكننا أن نتوقع أن المخرجات التي يقدمها الذكاء الاصطناعي التوليدي محايدة أو موضوعية؛ وبالتالي، لا يمكننا الاعتماد عليها بشكل موثوق كأسس للنقاش الهادف. بالإضافة إلى إظهار التحيزات، يواجه الذكاء الاصطناعي التوليدي أيضًا مشاكل الرقابة. لقد قيّدت سياسات الاستخدام المقبول ما يمكن لتكنولوجيا الذكاء الاصطناعي تقديمه من معلومات والمهام التي يمكنها إكمالها. الإجابات عن الأسئلة المتعلقة بالمواضيع الجدلية غالبًا ما تكون محاطة بتحذيرات قانونية، إذا قدم الذكاء الاصطناعي إجابة على الإطلاق.
تقوم OpenAI، على سبيل المثال، بتقييد ChatGPT من توليد محتوى ضار أو مسيء. لكن كما هو الحال مع القيم الإنسانية، فإن مثل هذا المعيار موضوعي بالكامل. مع اعتمادنا أكثر فأكثر على الذكاء الاصطناعي لتعلم معلومات جديدة، تشكل هذه الرقابة تهديدًا خطيرًا بتضييق وجهات نظرنا ومنظوراتنا، مشكلة إياها لتتناسب مع أي إطار أخلاقي تعسفي تختاره شركات التكنولوجيا. علاوة على ذلك، يؤثر استخدام الذكاء الاصطناعي التوليدي على جودة المعلومات التي نستهلكها. عندما نستخدم روبوت محادثة، نختار تفضيل الكمية والراحة على العمق والجودة. غالبًا ما يختصر ChatGPT المواضيع المعقدة إلى بضع مئات من الكلمات. الذهاب مباشرة إلى الملخص يحرمنا من الفروق الدقيقة التي قد نجدها في مصادر أخرى، وهو ما يضر بجودة محادثاتنا.
غالبًا ما تفتقر مخرجات الذكاء الاصطناعي إلى أكثر من مجرد السياق، فأحيانًا تفتقر إلى الدقة أيضًا. الادعاءات الواقعية التي تقدمها نماذج اللغة الكبيرة غير موثقة، وتعترف OpenAI نفسها بأن ChatGPT سوف تقوم أحيانًا بـ”اختلاق الحقائق أو هلوسة المخرجات” لبناء استجابة متماسكة. تضع كل من ChatGPT وBard تحذيرات على مواقعهم الإلكترونية تنبه المستخدمين إلى هذه الاحتمالات. في مثال صارخ لهذه الظاهرة، انخفضت قيمة أسهم Google بنسبة 9 في المئة في وقت سابق من هذا العام بعد أن تم القبض على Bard في كذبة خلال أول عرض عام له. لا يمكننا أن نمتلك بيئة صحية لحرية التعبير بدون أساس مشترك من المعلومات المفتوحة والقوية. لمحاربة تأثير هذه المشاكل المتعلقة بالذكاء الاصطناعي التوليدي على نقاشنا الجماعي، يجب أن نبذل جهدًا للتعلم من مجموعة متنوعة من المصادر، بما في ذلك الدوريات الأكاديمية، والكتب، والمحادثات مع أقراننا. يجب علينا التحقق من المعلومات التي نصادفها، ويجب بأي حال من الأحوال ألا نعتبر بشكل أعمى أن أي شيء يخلقه الذكاء الاصطناعي التوليدي صادقًا أو غير متحيز. ستساعدنا هذه الاستراتيجيات على تشكيل آراء متكاملة وضمان صحة المعلومات التي نتناولها بشكل أفضل.
لن يقتصر الذكاء الاصطناعي التوليدي على مطابقة القيمة التي توفرها Wikipedia للطلاب، بل من المحتمل أن يتجاوزها. لكن يجب علينا أن نفهم عيوب التكنولوجيا بسرعة. هناك دور مهم يؤديه الذكاء الاصطناعي في حياتنا. يمكنه توفير تعليقات على الكتابة، أو شرح المفاهيم الرياضية الصعبة، ربما في يوم من الأيام بشكل أفضل مما يمكن لزميلك في التعليم القيام به. لكن الاعتماد المفرط على الذكاء الاصطناعي سيؤدي فقط إلى إلحاق الضرر بنا في سعينا وراء الحقيقة.
المصدر: The Harvard Crimson
سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر