حروب محركات الدردشة بدأت بغض النظر عن مدى “ذكائها” | مركز سمت للدراسات

حروب محركات الدردشة بدأت بغض النظر عن مدى “ذكائها”

التاريخ والوقت : الخميس, 16 فبراير 2023

Parmy Olson

 

يحدث شيء غير معتاد في قطاع التكنولوجيا حالياً، حيث قدمت شركة “مايكروسوفت” أداة بحث جذابة على الإنترنت، فيما تُسرع منافستها “غوغل” -التي لم تتغير صفحة البحث الخاصة بها كثيراً خلال 24 عاماً- الخطى أيضاً لإطلاق أداة محدّثة رائعة في الأسابيع القليلة المقبلة.

مع إعلان “مايكروسوفت” الثلاثاء الماضي عن دمج روبوت “تشات جي بي تي” (Chat GPT) الصادر عن شركة “أوبن إيه آي” (Open AI) في محرك البحث الخاص بها “بينغ” (Bing)، والذي تطلق عليه وصف “مساعد الطيار للويب”، ونشر “غوغل” قبلها بساعات منشوراً على مدونة عن روبوت دردشة خاص بها لأغراض البحث على الإنترنت أسمته “بارد” (Bard)، يمكن القول رسمياً إن حروب محركات الدردشة الجديدة قد انطلقت على ما يبدو.

بالنسبة إلى “غوغل” على وجه الخصوص، قد تكون هذه أكثر الخطوات الاستراتيجية خطورة التي تتخذها الشركة منذ سنوات، فيما يمكن وصفه مجازياً بقفزة من على الأريكة التي كانت الشركة تسترخي عليها منذ زمن بعيد. وسيكون هذا التدافع من قبل عملاقي التكنولوجيا اللذين يتحركان ببطء –واللذين يتنافسان على امتلاك الحقبة التالية من البحث عبر الإنترنت- فوضوياً، ومحفوفاً بالمخاطر.

تستخدم كلتا الشركتين أنظمة ذكاء اصطناعي دُرِّبت على مليارات الكلمات على شبكة الإنترنت العامة، ولكنها قد تقدم أيضاً معلومات غير صحيحة، بل ومتحيزة. تخاطر “غوغل” أيضاً بإثارة رد فعل عنيف من ناشري المحتوى الإلكتروني الذين يمثّلون أهمية قصوى لأعمالها.

كذلك، تواجه “غوغل” بالفعل مشكلات تتعلق بالدقة مع برامج الدردشة الآلية، بعدما تبيّن أن أحد الأمثلة المستخدمة في مثال ترويجي لـ”بارد”، كان خاطئاً، لتنخفض أسهم الشركة عقب هذه الأنباء بنسبة 8%.

أخطاء وعثرات محتملة

أثار روبوت “تشات جي بي تي” موجة من الإعجاب لاستجاباته الإبداعية لطلبات مستخدميه عندما أُطلق في العام الماضي. لكن، ومنذ ذلك الوقت، يتزايد القلق بشأن فهمه للحقائق. وليست لدينا إحصاءات عن عدد المرات التي يقدم فيها “تشات جي بي تي” معلومات غير صحيحة، لأن “أوبن إيه آي” لا تعلن هذه الأرقام، بل تكتفي بالقول إن الأداة تتحسن من خلال عمليات التحديث المنتظمة.

لكن مع ذلك، تتكر الأخطاء بما يكفي، وهي تحدث خلال 5% إلى 10% من الوقت الذي تُستخدم فيه، وهي نسبة كافية لجعل المستخدمين قلقين على نحو متزايد إزاء كل إجاباته.

وعلى الرغم من أدوات الانتقاء والتصفية الصارمة التي تمنع الروبوت من الإدلاء ببيانات سياسية أو خطاب يحضّ على الكراهية، إلا أن مستخدمي منتدى “ريديت” (Reddit) الشهير اكتشفوا سبيلاً لخداع “تشات جي بي تي” ودفعه إلى التحدث بكلمات بذيئة عن منشئيه، عن طريق استخدام حيل الهندسة الاجتماعية. استخدم ربوت الدردشة أيضاً، ولسبب غير مفهوم، الخطاب المؤيد لروسيا عند الإجابة عن أسئلة المتعلقة بقتل المدنيين في أوكرانيا، ما يعطي لمحة عن العثرات المحتملة التي تنتظر هذه التكنولوجيا.

على الجانب الآخر، وللوهلة الأولى، يبدو وكأن “غوغل” باتت أكثر جرأة في كيفية استخدام التكنولوجيا الجديدة. وفي الأمثلة التي نشرتها “مايكروسوفت” لمحرك “بينغ” الجديد، يبدو أن إجابات روبوت الدردشة ستوضع على جانب الصفحة، وليس في المقدمة والوسط حيث تظهر نتائج البحث في العادة. وتتضمن إجابات الروبوت أيضاً حواشي وروابط لمواد المصدر، وهو أمر لا يفعله “تشات جي بي تي”، ولكنه يجعل أداة “مايكروسوفت” تبدو أجدر بالثقة إلى حد بعيد.

نتائج بحث متباينة

على النقيض من ذلك، أظهر مثال “غوغل” الخاص بـ”براد” إجابة واحدة ملخصة في منتصف الصفحة فوق نتائج البحث ومن دون حواش، ما يعني أنه سيكون من المستحيل على المستخدم تحديد المصدر. لماذا؟ ربما لأن “غوغل” تواجه ضغوطاً للتحرك سريعاً.

ليس هذا وحسب، إذ يعمل مختبر الذكاء الاصطناعي “ديب مايند” (DeepMind) التابع للشركة حالياً، على برنامج دردشة آلية يُسمى “سبارو” (Sparrow)، والذي سيستشهد بالمصادر في إجاباته عن الاستفسارات، وفقاً لمقابلة أجرتها مجلة “تايم” في الآونة الأخيرة مع ديميس هاسابيس، الرئيس التنفيذي لـ”ديب مايند”. لكن أداة “غوغل” الجديدة لا تستخدم تقنية “ديب مايند”، على الأقل حتى الآن.

لم يُظهر العرض التوضيحي لأي من الشركتين تحذيراً من أن أداتهما يمكن أن تقدّم إجابات غير دقيقة، مثلما يفعل “تشات جي بي تي”، مع أن مثل هذه التحذيرات يجب أن تظهر أثناء البحث. ويقول أوري جوشين، الشريك المؤسس لـ”إيه آي21 لابس” (AI21 Labs)، وهي شركة إسرائيلية ناشئة تبيع برنامجاً لغوياً ثرياً ينافس “جي بي تي-3.5″ (GPT-3.5) التابع لــ”أوبن إيه آي”: “لقد أضحت هذه التقنية أنضج بكثير مما كانت عليه قبل عام، لكنها لا تزال بعيدة كل البعد عن كونها قوية بدرجة تجعلها في الصدارة”. وأضاف: “لقد دُفعت شركات التكنولوجيا الكبرى دفعاً للتحرك، في وقت لم تكن فيه التقنية اللازمة لذلك موجودة بعد.”.

سعت شركات مثل “أوبن إيه آي” إلى جعل نماذجها اللغوية أدق من خلال إضافة مليارات من الوسائط الدالة والإعدادات المستخدمة لمساعدتها على التنبؤ بالكلمات. لكن جعل مثل هذه النماذج أكبر كثيراً، لا يعني أنها ستصبح أدق، بل إن بعض الباحثين يساورهم الشك في أن دقة نتائج هذه النماذج ستتراجع مع نمو حجمها. وقد يصبح التخلص من هذه الأخطاء القليلة المستمرة تحدياً مزمناً لكل من “مايكروسوفت” و”غوغل”، وهو ما واجهته تقنية السيارات ذاتية القيادة “تقريباً” لأكثر من ست سنوات.

خلافات مع ناشري المحتوى

تخاطر “غوغل” أيضاً بإلحاق الضرر بعلاقاتها مع ناشري المحتوى على الإنترنت الذين يعتمدون على صفحة بحث الشركة لجلب الزيارات إلى مواقعهم. وعلى الرغم من أن الشركة تمتلك التقنية التي كان من الممكن أن تسمح لها بتقديم إجابات مدعومة بالذكاء الاصطناعي عن استفسارات البحث منذ سنوات عديدة –بل إن حديثها عن فعل ذلك يعود إلى عام 2011- إلا أنها لم تفعل ذلك أبداً، لأن هذا من شأنه أن يعطل نشاطاً تجارياً حجمه 150 مليار دولار يتوقف على جعل الناس يستخدمون نتائج بحث “غوغل” للانتقال إلى صفحات ومواقع أخرى في عالم الإنترنت الواسع. لكن ما تحاشته فيما مضى، اضطرت إلى التحرك إزاءه الآن. فعمليات البحث على “غوغل” يمكن أن تبعد الأنظار عن مواقع الإنترنت الأخرى، وقد يثير ذلك غضب الناشرين الذين اتهموا الشركة بالفعل بإساءة استخدام هيمنتها على سوق الإعلان على الإنترنت.

رغم ذلك، لا يمكن للناشرين تأخير المسيرة الحتمية لهذه التكنولوجيا. فشركات التكنولوجيا الكبيرة الأخرى، مثل “ميتا بلاتفورمز” و”أمازون دوت كوم”، ستتحرك لإنشاء نماذج لغوية ثرية خاصة بها، ما سيهدّد الناشرين وصنّاع المحتوى المتعلق بالكتابة والموسيقى والفيديو وغير ذلك مع مرور الوقت. وسيكون التحول إلى استخدام مثل هذه النماذج، مشابهاً لذلك الذي حدث قبل أكثر من عقد من أجهزة الكمبيوتر المكتبية إلى المحمولة، وهو التحوّل الذي حققت فيه شركات مثل “فيسبوك” نجاحاً مذهلاً، في حين خاب مسعى شركات أخرى مثل “مايكروسوفت” من خلال شرائها المشؤوم لـ”نوكيا”. وسيكون هذا النهج فوضوياً، خصوصاً أن اللاعبَين الرئيسيَين يندفعان فيه دون تروٍّ.

المصدر: صحيفة الشرق “بلومبيرغ”

النشرة البريدية

سجل بريدك لتكن أول من يعلم عن تحديثاتنا!

تابعونا على

تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر