سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
أباجيل لوسون
في عامٍ شهد انتشار علاجات زائفة لمرض “كوفيد-19” عبر الإنترنت، والمعلومات الخاطئة عن اللقاحات عبر منصات وسائل التواصل الاجتماعي، وحوادث العنف التي تغذيها المعلومات المضللة وخطاب الكراهية، فمن الواضح أن هناك حاجة إلى إشراف أفضل لما يُقال وينتشر عبر الإنترنت، حيث تبحث الحكومات على نحو متزايد عن طرق لطلب وسائل التواصل الاجتماعي وغيرها من المنصات عبر الإنترنت لتقليل المحتوى الضار. وقد أعلنت العديد من البلدان بما في ذلك الهند والمملكة المتحدة والاتحاد الأوروبي والولايات المتحدة عن قواعد جديدة، أو لديها مقترحات تشريعية مطروحة وقيد الدراسة. تضمن تلك القواعد المزيد من الأحكام التي تتطلب من المنصات استخدام أدوات آلية قائمة على الذكاء الاصطناعي للتعرف الاستباقي على المحتوى غير القانوني وإزالته من مواقعها. ومع ذلك، فإن الاعتماد المُفرط على مثل هذه الأدوات التي غالبًا ما تكون غير مُجهزة للتمييز بين الفروق الدقيقة والسياق في الكلام البشري لحل مشكلة الإشراف على المحتوى ليس كافيًا فحسب، بل يثير أيضًا مخاوف بشأن الحفاظ على الحقوق الأساسية لحرية التعبير والوصول للمعلومات.
فوائد ومخاطر الإشراف الآلي
يتكون الجزء الآلي للإشراف على المحتوى بصفة عامة من التعلم الآلي أو الأدوات القائمة على الذكاء الاصطناعي التي تُحدد عناصر المحتوى وتصفيته وفقًا لقواعد الخوارزمية، ويتضمن ذلك تقنيات متعددة مثل برنامج التعرف على الصور والتجزئة الرقمية (تحويل البيانات إلى توقيع رقمي فريد يستخدم عادةً لتحديد مواد الاعتداء الجنسي على الأطفال وانتهاكات حقوق النشر)، ومرشحات البيانات الوصفية وأدوات معالجة اللغات الطبيعية التي تُستخدم كثيرًا لتحليل النص بحثًا عن خطاب الكراهية والمحتوى المتطرف. يمكن تدريب أنظمة الذكاء الاصطناعي للتعرف على الروبوتات المُستخدمة من الجهات الخبيثة لنشر المعلومات الخاطئة وتقييم مصداقية مصادر المحتوى. ففي نظام الإشراف على محتوى المنصة يمكن أحيانًا إزالة المحتوى المنشور أو حظره بالكامل تلقائيًا، وفي حالات أخرى تُستخدم الأدوات للإبلاغ عن المحتوى لمراجعته بواسطة مُشرف بشري. فكثيرًا ما روجت المنصات للآلية الذاتية كحل فعال في مواجهة الضغط المتزايد من أجل “فعل المزيد” بشأن المحتوى الضار، كما حدث عندما أخبر “مارك زوكربيرج”، الرئيس التنفيذي لشركة “فيسبوك”، الكونغرس الأميركي في عام 2018 أن تطوير أدوات الذكاء الاصطناعي سيكون أفضل طريقة للتخفيف من حدة المحتوى الضار على نطاق واسع.
يمكن تدريب أنظمة الذكاء الاصطناعي للتعرف على الروبوتات المُستخدمة من الجهات الخبيثة لنشر المعلومات الخاطئة وتقييم مصداقية مصادر المحتوى.
وقد اختُبرت فعالية الإشراف الآلي على المحتوى في الوقت الفعلي بعد عامين من تصريح “زوكربيرج”، وذلك عندما ضربت جائحة “كوفيد-19” في مارس 2020، أرسل كل من شركات “فيسبوك” و”يوتيوب” و”تويتر” مشرفيهم البشريين إلى المنزل للراحة واعتمدوا على الأدوات الآلية لسد الفجوة، وكان من الواضح على الفور أن مشرفي الذكاء الاصطناعي كانوا أقل فعالية من البشر، وأدلت العديد من شركات التكنولوجيا الكبرى لاحقًا بتصريحات حول انخفاض فعالية الأنظمة الآلية.
تتمثل إحدى المشكلات الرئيسية في أن الأدوات الآلية تشبه “الآلات غير الحادة” أكثر من كونها مشارط دقيقة، مما يؤدي إلى الإزالة المُفرطة للمحتوى المسموح به (لما يُسمى “الإيجابيات الخاطئة”) والإزالة المنخفضة (“السلبيات الخاطئة”)، حيث يفوت المحتوى الذي ينبغي إزالته. فأنظمة التعلم الآلي ليست جيدة في فهم السياق أو كيف يمكن أن يتغير المعنى اعتمادًا على من ينشر (على سبيل المثال، متى يكون هناك شيء دعاية إرهابية أو دليلاً على جرائم حرب؟)، فهذا صعب جدًا، لأن اللغة تتطور بمرور الوقت ويمكن أن يكون لها تأثير سلبي على مجموعات الأقليات.
نظرًا لأن غالبية مجموعات البيانات المُستخدمة لتدريب أدوات معالجة اللغات الطبيعية باللغة الإنجليزية، فإن المجتمعات ذات اللهجات المحددة أو اللغات النادرة غالبًا ما تخضع للرقابة المفرطة من خلال الأدوات التي لم تُدرب على فهمها.
يمكن أيضًا تعزيز التحيزات الاجتماعية الموجودة في أدوات الذكاء الاصطناعي من خلال مجموعات البيانات التي يتعلمون منها، مثلاً عند تعلم أداة تضمين الكلمات الصور النمطية التقليدية للجنسين من قراءة أخبار جوجل أو من خلال تحيزات المعلقين البشريين الذين يقومون بتسمية البيانات. ونظرًا لأن غالبية مجموعات البيانات المُستخدمة لتدريب أدوات معالجة اللغات الطبيعية باللغة الإنجليزية، فإن المجتمعات ذات اللهجات المحددة أو اللغات النادرة غالبًا ما تخضع للرقابة المُفرطة من خلال الأدوات التي لم تُدرب على فهمها، فحتى مع زيادة تعقيدها (على سبيل المثال، يمكن لبرمجيات التعرف على الصور الآن التمييز بين صناعة الأسلحة ونموذجها في صورة ما)، فإن أدوات الذكاء الاصطناعي ليست حكامًا محايدين يمكنهم استبدال المشرفين البشريين وإعفاء صانعي القرار من المسؤولية في اتخاذ خيارات صعبة حول موازنة قيم حرية التعبير والوصول إلى المعلومات وخلق تجربة آمنة عبر الإنترنت.
الرقابة الآلية
قلق آخر بشأن الاحتفاظ بالرقابة على أنها الوضع الافتراضي عند استخدام مثل هذه الأساليب الفظة للإشراف على قدر هائل من المحتوى. ففي مواجهة احتمال فرض غرامات باهظة على الإخفاق في إزالة المحتوى غير القانوني أو الضار، قد تستخدم المنصات أدوات آلية واسعة النطاق بِمُبَالَغَة وتكتسح الكلام البريء في هذه العملية، وقد تقبل المنصات الأصغر التي تفتقر إلى الموارد اللازمة لتوظيف الآلاف من المُشرفين البشريين مستوى معينًا من الرقابة كمنتج ثانوي ضروري للقدرة على الإشراف بتكلفة منخفضة والتوسع باستخدام الأدوات الآلية.
ومع ذلك، فإن تهديد “الزحف الوظيفي” أكثر خطورة على المجتمعات الديمقراطية، أي استخدام الأدوات المصممة والمُصرح بها لغرض معين في سياقات غير استخدامها المقصود (أو المُصرح به)، وبإمكان الزحف الوظيفي أن يؤدي إلى تقويض الثقة العامة، أو الأسوأ دفع المجتمع إلى نظام رقابة واسع حيث تصبح المراقبة الجماعية الاستباقية والآلية للمحتوى عبر الإنترنت هي القاعدة، وتتوافر بنية تحتية لتكنولوجيا حظر المحتوى للحكومات أو الشركات لاستخدامها دون مساءلة قانونية. وقد أثارت بعض الحوادث هذا القلق بالفعل مثلما طلبت شرطة دلهي استخدام برنامج تصفية الصور المصمم لتحديد مواد الاعتداء الجنسي على الأطفال في حالات غير ذات صلة. وجدت دراسة أجريت عام 2020 أنه في حالة تمرير القوانين التي تتطلب استخدام عوامل تصفية للمحتوى الضار مثل المواد الإباحية للأطفال أو المقامرة غير القانونية، يُنظر إلى زيادة حظر المحتوى على نطاق واسع (بما في ذلك الديمقراطيات التقدمية المفترضة)، فغالبًا ما تكون هذه الإجراءات غامضة وغير مبررة، مما يترك العموم في حيرة من أمرهم بشأن كيفية استخدام حكوماتهم، وحتى مزودي خدمة الإنترنت لهذه الأدوات لتشكيل إمكانية الوصول إلى المعلومات.
ينبغي أن تكون الحكومات والمنصات شفافة بشأن كيفية ومكان استخدام الأدوات الآلية لتجنب الزحف الوظيفي، مما يمكن أن يساعد المُستخدمين على الشعور بمزيد من المسؤولية والثقة في القرارات التي تؤثر في تجربتهم عبر الإنترنت. وينبغي أيضًا أن تتطلب أي سياسة تقترح أو تطلب من المنصات استخدام الأدوات الآلية، تقارير حول دقتها وفعاليتها، بالإضافة إلى عدد ونوع القرارات الآلية التي قد استُئنفت وأُلغِيت، فللشفافية أن توفر بيانات أفضل للباحثين، وبالتالي تحسين قاعدة معارف صنّاع السياسات.
استخدام التكنولوجيا لحل مشكلة بشرية
الأخبار المزيفة والمعلومات المضللة هي في الأساس مشاكل اجتماعية وليست تكنولوجية، فكثيرًا ما كانت العلاجات الطبية المزيفة والدعاية والعصابات العنيفة التي يُحرض عليها دعاة الكراهية ومنظرو المؤامرة موجودة قبل فترة طويلة من ظهور الإنترنت. وليس واقعيًا توقع خلو الإنترنت من المحتوى الضار أو غير القانوني أثناء وجود الكلام الضار والنشاط غير القانوني في العالم، حيث إن الإضراب من أجل تطبيق مثالي على الإنترنت يزيد من مخاطر التحول إلى المراقبة والرقابة الجماعية، التي أصبحت مُمكنة بفضل أدوات الترشيح المتقدمة واكتشاف الصور والكلام.
ومع ذلك، لا بدَّ من معالجة مخاطر المحتوى الضار عبر الإنترنت، والأدوات الآلية ضرورية بلا شك عند دمجها مع الإشراف البشري وضمانات مكافحة إساءة الاستخدام. ويجب أن تتضمن أي سياسة أو لائحة للإشراف على المحتوى رقابة بشرية على القرارات الآلية والأداء، واستخدام مراجعات الأدوات الآلية، وتقارير الشفافية، وآلية الإجراءات القانونية الواجبة للمُستخدمين لطلب الإنصاف. ينبغي على الحكومات والمنصات التعامل مع هذه المشكلة بالكامل، والنظر إلى المحتوى عبر الإنترنت باعتباره انعكاسًا للديناميكيات الاجتماعية والسياسية والاقتصادية للمجتمع، وإدراك أن أي حل لتقليل المحتوى الضار وغير القانوني عبر الإنترنت سيشمل بالضرورة كلاً من التكنولوجيا والعمل الذي يركز على الناس.
إعداد: وحدة الترجمات بمركز سمت للدراسات
المصدر: orfamerica
سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر