يقولون، إن التكنولوجيا تدور حول تحويل الخيال إلى واقع. قبل عقد، بدا المساعدون الرقميون مثل سيري وأليكسا وكورتانا كأنهم اختراعات مذهلة. الآن يرفضهم ساتيا ناديلا الرئيس التنفيذي لشركة مايكروسوفت، ويصفهم بأنهم “أغبياء كالصخرة”. فما مدى السرعة التي ستصبح بها نماذج الذكاء الاصطناعي التوليدي اليوم رتيبة بالمثل؟
يوم الثلاثاء، أطلقت شركة أوبن إيه آي للأبحاث التي تتخذ من سان فرانسيسكو مقرا لها، “جي بي تي-4” أحدث نموذج لتوليد المحتوى، ما يدل على ميزات جديدة رائعة، كالمساعدة في حساب العوائد الضريبية. إطلاق برنامج أوبن إيه آي لروبوت الدردشة، تشات جي بي تي، في تشرين الثاني (نوفمبر) أحدث ضجة كبيرة -وإن كان معيبا على نحو لا يبعث على القلق- لكن من نواح عديدة “جي بي تي-4” أكثر إثارة للإعجاب.
النموذج الجديد أكثر دقة وقوة ولديه قدرات تفكير واستنتاج أكبر. “تشات جي بي تي” يكافح للإجابة عن السؤال: ما اسم ابنة والدة لورا؟ لكن، كما وجد الفيلسوف لوتشيانو فلوريدي نموذج “جي بي تي-4” الجديد يعطي الإجابة الصحيحة “وهي لورا، في حال كنت تتساءل”، بعدما قيل له إن السؤال يمثل لغزا.
علاوة على ذلك، يعد “جي بي تي-4” نموذجا متعدد الوسائط، يجمع بين النص والصورة. في حفل إطلاقه، قام جريج بروكمان، الشريك المؤسس لشركة أوبن إيه آي، بتحويل ملاحظة مكتوبة بخط اليد إلى موقع ويب يحتوي على بعض نكات الآباء البغيضة.
يبدو أن تطبيقات نماذج الذكاء الاصطناعي التوليدي هذه لا حدود لها، وهو ما يفسر سبب ضخ مستثمري رأس المال المغامر الأموال في هذا القطاع. فهذه النماذج تتسرب إلى جميع أنواع الخدمات الرقمية الحالية. شركة مايكروسوفت، المستثمر الكبير في “أوبن إيه آي”، قامت بتضمين “جي بي تي-4” في محركها للبحث، بينج. وتستخدمه شركة سترايب للمدفوعات للمساعدة على اكتشاف عمليات الاحتيال عبر الإنترنت..
ستكون الشركات الكبيرة، مثل مايكروسوفت وجوجل، أول ما ينشر هذه الأنظمة على نطاق واسع. لكن بعض الشركات الناشئة ترى فرصا أيضا. جوش براودر، الذي يدير شركة دو نوت بي “لا تدفع” التي توظف تكنولوجيا الذكاء الاصطناعي للمساعدة القانونية “روبو لويار”، قال “إن (جي بي تي-4) سيكون أداة جديدة قوية لمساعدة المستخدمين على مواجهة الأنظمة الآلية”. تعمل شركته بالفعل على تضمينه في تطبيق لإصدار دعاوى قضائية بنقرة واحدة ضد أنظمة الاتصال الآلية المزعجة. ويمكن أيضا استخدام هذه التكنولوجيا للطعن في الفواتير الطبية، أو إلغاء الاشتراكات. قال لي براودر “هدفي هو إعادة القوة إلى الناس”.
لكن إلى جانب الاستخدامات الإيجابية للذكاء الاصطناعي التوليدي، هناك عديد من الانتهاكات الأقل وضوحا. البشر عرضة لما يسمى تأثير إليزا، الذي ينسب فيه البشر دون وعي أفكارا وعواطف بشرية بشكل خاطئ إلى نظام الكمبيوتر. يمكن أن تكون هذه طريقة فعالة للتلاعب بالناس، كما تحذر مارجريت ميتشل، الباحثة في شركة هاجينج فيس للذكاء الاصطناعي.
أنظمة التعلم الآلي التي يمكنها توليف الأصوات وإنشاء رسائل بريد إلكتروني زائفة حسب الطلب، أسهمت بالفعل في زيادة عمليات الاحتيال في الولايات المتحدة. في العام الماضي سجلت لجنة التجارة الفيدرالية 36 ألف تقرير عن أشخاص تعرضوا للخداع من قبل مجرمين تظاهروا بأنهم أصدقاء. يمكن استخدامها أيضا لتوليد معلومات مضللة. ربما يكون هذا دافع الجهات التنظيمية الصينية إلى إصدار تعليمات لشركات التكنولوجيا الخاصة بها بعدم تقديم خدمات “تشات جي بي تي”، خوفا من فقدان السيطرة على تدفق المعلومات.
لا يزال هناك كثير من الغموض حول نماذج “أوبن إيه آي”. الشركة تعترف بأن “جي بي تي-4” يظهر تحيزات مجتمعية ويحرف الحقائق. لكن الشركة تقول “إنها أمضت ستة أشهر في اختبار إجهاد لـ(جي بي تي-4) من أجل السلامة وأقامت حواجز حماية عن طريق عملية تعرف باسم التعلم المعزز من خلال ردود الفعل البشرية”. قال بروكمان في حفل الإطلاق “إنه ليس مثاليا. لكنك أنت لست كذلك”.
الخلافات الغاضبة حول تدريب هذه النماذج تبدو أمرا لا مفر منه. كان أحد الباحثين يختبر بشكل دوري تحيز “تشات جي بي تي” من خلال حثه على الإجابة عن أسئلة بشأن التوجه السياسي. في البداية، توجه “تشات جي بي تي” إلى الربع الليبرالي اليساري، لكنه منذ ذلك الحين يتحرك نحو المركز المحايد بعدما تم تعديل النموذج. لكن في منشور على الإنترنت، قال ديفيد روزادو، الباحث في مجال الذكاء الاصطناعي، “إنه سيكون من الصعب القضاء على التحيزات المجتمعية المنتشرة والنقاط العمياء التي تنعكس على الإنترنت”، مشيرا إلى أن “التحيزات السياسية في أنظمة الذكاء الاصطناعي الحديثة لن تختفي”.
إيلون ماسك، أحد مؤسسي شركة أوبن إيه آي الذي ترك الشركة لاحقا، انتقد مرارا وتكرارا ما سماه “الذكاء الاصطناعي اليقظ” وهو يستكشف إذا ما كان سيتم إطلاق نموذج أقل تقييدا، وفقا للمعلومات. كتب على تويتر “ما نحتاج إليه هو (جي بي تي) الحقيقة. هذه الخلافات حول التحيز ليست سوى مقدمة لمعارك مقبلة أكبر بكثير”.