سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
Lorraine Finlay
في رواية جورج أورويل “1984”، يمارس وزارة الحقيقة سيطرة مطلقة على المعلومات وفقًا لأخلاق الحزب، “من يسيطر على الماضي يسيطر على المستقبل: ومن يسيطر على الحاضر يسيطر على الماضي”.
إذا كانت وزارة الحقيقة موجودة اليوم، فإن الشعار الأكثر دقة سيكون “من يسيطر على الذكاء الاصطناعي يسيطر على الماضي والحاضر والمستقبل”.
سيكون الارتفاع السريع لمنتجات الذكاء الاصطناعي الإنتاجية مثل ChatGPT وBard أداة مغرية لوزارة الحقيقة الخيالية. ويمكن لهذه المنتجات أن تؤثر في إدراكنا للواقع من خلال عرض الخيال كحقيقة، وتزويدنا بإجابات متحيزة ومعلومات خاطئة التي قد تبدو واقعية. عندما قدَّم Sundar Pichai، الرئيس التنفيذي لشركة Google وAlphabet، Bard في شهر فبراير، وصف الذكاء الاصطناعي بأنه “أكثر التقنيات العميقة التي نعمل عليها اليوم”. وبدون شك، هو على حق.
الذكاء الاصطناعي هو تكنولوجيا تحويلية ستغير عالمنا بشكل كبير. فهو يتمتع بالقدرة على مساعدة في حل المشكلات المعقدة وزيادة الإنتاجية والكفاءة، ويمكن أن يقلل من الأخطاء البشرية ويسهم في ديمقراطة المعلومات. استخدامات هذه التكنولوجيا، التي تمت مناقشتها في مجالات مثل الرعاية الصحية والتعليم، تسلط الضوء على إمكانية تعزيز حقوق الإنسان بشكل كبير.
ومع ذلك، ليس كل شيء إيجابي فيما يتعلق بمنتجات الذكاء الاصطناعي الإنتاجية. تنطوي هذه التكنولوجيا على مخاطر وأضرار محتملة تستحق الاهتمام. في الأسبوع الماضي، صدم “رب الذكاء الاصطناعي” جيفري هينتون، العالم عندما استقال من Google ليتحدث “بحرية عن مخاطر الذكاء الاصطناعي”. وصف أنظمة الذكاء الاصطناعي بأنها تشكل تهديدًا حقيقيًا للبشرية، وحذَّر من صعوبة منع الأطراف السيئة من استغلالها في أغراض سلبية. قام أكثر من 30 ألف شخص – بما في ذلك كبار رواد صناعة التكنولوجيا مثل “ستيف وزنياك” و”إيلون ماسك” – بالتوقيع مؤخرًا على رسالة مفتوحة تدعو إلى تعليق تدريب أنظمة الذكاء الاصطناعي المتقدمة لمدة لا تقل عن ستة أشهر، نظرًا للمخاطر الجوهرية التي تشكلها على المجتمع والإنسانية.
على الرغم من أننا ندرك أنه يمكننا مواصلة تطوير أنظمة الذكاء الاصطناعي لتصبح أكثر تعقيدًا وذكاءً وسرعة، فإن السؤال الأهم هو: هل كان يجب علينا فعل ذلك؟ تظهر الآن بشكل منتظم قصص تحذيرية تثير القلق. وتقوم روبوتات الدردشة المعتمدة على الذكاء الاصطناعي بإنتاج أخبار زائفة، ونشر معلومات خاطئة، وإنتاج محتوى متحيز، والمساهمة في خطابات الكراهية. وتذكر الصفحة الخاصة بـ Bard نفسها أن Bard هو تجريبي وقد يقدم معلومات غير دقيقة، أو إجابات مسيئة.
بالنسبة لأولئك الذين يتطلعون لأن يكونوا وزارات حقيقة “محبي النظام الأورويلي”، توفر أدوات الذكاء الاصطناعي الإنتاجية فرصًا جديدة للسيطرة على المعلومات وإعادة كتابة الماضي والحاضر والمستقبل. وبالنسبة لأولئك الذين يمتلكون اتجاهات أورويلية، يعتبر الذكاء الاصطناعي الإنتاجي عامل تغيير كبيرًا في الساحة. وسيكون الآن أسهل من أي وقت مضى استخدام الذكاء الاصطناعي الإنتاجي بأسعار معقولة وبكفاءة لتنفيذ حملات نشر المعلومات الكاذبة، سواء داخل البلاد، أو في خارجها. وهناك أمثلة عديدة حديثة تبرز التهديد المتزايد الذي يشكله deepfakes والمعلومات الكاذبة التي تم إنشاؤها ونشرها باستخدام أدوات الذكاء الاصطناعي الإنتاجي. وتشمل الأمثلة استخدام شخصيات نشطاء وهمية تم إنشاؤها بواسطة الذكاء الاصطناعي لنشر الدعاية الموالية للصين على وسائل التواصل الاجتماعي، ونشر فيديو عبر الإنترنت مزور يظهر الرئيس الأوكراني “فولوديمير زيلينسكي” وهو يدعو المواطنين الأوكرانيين للاستسلام لروسيا.
وما يثير القلق أنه وجد أن كلاً من ChatGPT وBard قادرين على الكتابة بطريقة مقنعة لصالح نظريات المؤامرة المعروفة.
وصف المدير التنفيذي المشارك لـNewsGuard، الذكاء الاصطناعي بأنه “أقوى أداة لنشر المعلومات المضللة التي ظهرت على الإنترنت على الإطلاق”. وقام باحثون من مركز الإرهاب والتطرف ومكافحة الإرهاب في مونتيري، بتقييم مخاطر استخدام GPT-3 من قبل المتطرفين ووجدوا أنها مهمة ومحتملة بشكل كبير في حالة عدم وجود ضمانات.
سيصبح من الصعب تمييز الحقائق عن الخيال مع وجود الذكاء الاصطناعي بشكل شائع في حياتنا اليومية. وقد يصعب معرفة إن كنا نتفاعل مع إنسان، أم آلة.
يمكن أن يكون لذلك عواقب حقيقية على الحقوق الأساسية للإنسان. وعلى المدى القريب الأكثر أهمية، فإنه يهدد حريات التعبير والفكر. ومع وجود العديد من المؤيدين للذكاء الاصطناعي الإنتاجي، مع الإشارة إلى أنه الجيل القادم من محركات البحث؛ فإن هناك مخاوف حقيقية حول وجود استجابات تكون متحيزة سياسيًا، وتروج للمعلومات الكاذبة، أو تحتوي على الرقابة والمعلومات المضللة.
إصدار الإجراءات الإدارية المسودة لخدمات الذكاء الاصطناعي الإنتاجي من قبل إدارة الفضاء الإلكتروني في الصين، يسلِّط الضوء على هذه المخاوف بشكل واضح. وتتضمن هذه القواعد المسودة متطلبات وهي أن يعكس كل المحتوى الذي يتم إنتاجه باستخدام الذكاء الاصطناعي الإنتاجي “القيم الاشتراكية الأساسية”، بالإضافة إلى أن يتم مراجعة جميع المنتجات الجديدة التي جرى تطويرها باستخدام الذكاء الاصطناعي الإنتاجي في الصين، وأن تخضع لتقييم أمني من خلال إدارات الرقابة على الإنترنت الوطنية قبل إصدارها.
السؤال المركزي هو: كيف نستغل فوائد الذكاء الاصطناعي الإنتاجي دون التسبب في الضرر والإضرار بحقوق الإنسان؟ الجواب يكمن في الإصرار على وضع الإنسان في قلب تفاعلنا مع الذكاء الاصطناعي. لذا نحتاج إلى تطوير ونشر واستخدام تقنية الذكاء الاصطناعي الإنتاجي بطرق مسؤولة وأخلاقية. ويجب حماية الحقوق والحريات الأساسية في جميع مراحل عمر المنتج، بدءًا من الفكرة والتصميم وصولاً إلى البيع والاستخدام. وبعض شركات التكنولوجيا تقوم بذلك بالفعل (بدرجات متفاوتة)، وبعض الحكومات أيضًا تتعامل بنشاط مع هذه القضايا. ومع ذلك، تضع العديد من الحكومات والشركات هذه المشاكل في “سلة الصعوبات الكبيرة”.
أستراليا تحتاج إلى أن تكون رائدة عالميًا في الذكاء الاصطناعي المسؤول والأخلاقي. وإن إطلاق شبكة الذكاء الاصطناعي المسؤولة، التي تهدف إلى تعزيز ممارسة الذكاء الاصطناعي المسؤول في القطاع التجاري الأسترالي، هو مثال على القيادة المباشرة المطلوبة. وكذلك عمل معهد التكنولوجيا البشرية في مجال الذكاء الاصطناعي في الحوكمة الشركاتية هو مثال آخر.
وهناك أطراف في مجال التكنولوجيا تدعو إلى نهج أفضل للذكاء الاصطناعي الإنتاجي في أستراليا. ومع ذلك، إذا لم تكن الحكومة وقطاع الأعمال على استعداد للتقدم وإظهار القيادة، فمن المحتمل أن نشهد زيادة كبيرة في المخاطر المتعلقة بحقوق الإنسان.
إذا لم نضع الإنسان في قلب الذكاء الاصطناعي، فسنشهد ظهور وزارة الحقيقة المشؤومة لأورويل في جميع أنحاء العالم. وهذ ينطوي على مخاطر حقيقية؛ لأن أولئك الذين يسيطرون على تكنولوجيا الذكاء الاصطناعي قد يتمكنون من السيطرة على ماضينا وحاضرنا ومستقبلنا.
إعداد: وحدة الترجمات بمركز سمت للدراسات
المصدر: Human rights
سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر