سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
الذكاء الاصطناعي (AI) يمكن أن يتعامل مع كميات هائلة من المعلومات ويولد محتوى جديدًا. لكن على الرغم من أن ذلك قد يكون له تأثيرات تغييرية على مستوى الصناعة من حيث الكفاءة والإنتاجية، فإنه يمكن أيضًا استخدامه لأغراض ضارة. فمثلاً يمكن أن تنتشر معلومات مضللة وخطرة عبر “ديبفيكس” الذكاء الاصطناعي، الذي لا يمكن التمييز بينه وبين المحتوى الموثوق.
ولحسن الحظ، قد تكون سبب المشكلة هي نفسها مصدر الحل؛ إذ يمكن استخدام نفس الذكاء الاصطناعي التوليدي الذي ينتج مقاطع الفيديو المزيفة في التفريق بين الحقيقي والمزيف في مجموعة كبيرة من المحتوى المشتق.
وعلى الرغم من سوء استخدام التقنية التوليدية لارتكاب التزوير ونشر الأخبار المزيفة، وتنفيذ هجمات إلكترونية على المنظمات الخاصة والعامة، فإنها يمكن أن تساعد أيضًا في تمكين أنظمة الذكاء الاصطناعي من التعرف على الـ”ديبفيكس” ورفع علامات تحذير عليها. وفي هذا الشأن يقول “إد ستانلي”، رئيس أبحاث الموضوعات في مورغان ستانلي بأوروبا: “سيكون للبرامج التي يمكنها تحقيق ذلك دور مهم بشكل خاص في واقع الإنترنت المستقبلي”.
مكافحة النار بالنار
العمليات المزيفة العميقة (ديبفيكس) – وتشمل الصور والصوت والفيديو المعدلة رقميًا بهدف تمثيل أشخاص حقيقيين أو مواقف – ليست جديدة. ولكن سهولة وسرعة وجودة إنشائها أدت إلى زيادة الحاجة لتطبيق الحماية ووضع تدابير مكافحة ذكية.
وبالرغم من أن مقاطع الفيديو المزيفة للمشاهير كانت من بين أول جيل من عمليات التزوير العميق، فإن الأمثلة الحديثة تكشف عن تحولين حاسمين: أولاً، يمكن إنشاء العمليات المزيفة العميقة اليوم في الوقت الفعلي، مما يسبب مشاكل للشركات التي تعتمد أمان البيانات على قياسات الوجه أو الصوت. وثانيًا، عند استخدام الذكاء الاصطناعي في إنتاج حركات وجه واقعية لشخصيات محاكاة لا يمكن التمييز بينها وبين الأشخاص الحقيقيين.
“من المحتمل أن تواجه برامج الأمان السيبراني التقليدية تحديات كبيرة من قبل أنظمة الذكاء الاصطناعي”، يقول “ستانلي”: “لذا قد يكون هناك استثمارات قوية في تقنية الذكاء الاصطناعي الموجهة كأدوات تدريب لمساعدة الموظفين والمستهلكين على فهم المحتوى المضلل بشكل أفضل مقارنة بالمحتوى الأصلي”.
على سبيل المثال، تتخصص بعض الشركات في إنشاء واكتشاف الـ”ديبفيكس” باستخدام مجموعات بيانات كبيرة ومتعددة اللغات، في حين تستخدم الشركات الأخرى كميات هائلة من البيانات لإنشاء أجهزة اكتشاف الـ”ديبفيكس” للوجوه والأصوات وحتى الصور الجوية. ويتم تدريب هذه الأجهزة باستخدام تطوير عمليات تزوير عميقة متقدمة وإدخالها في قاعدة بيانات النماذج. ويقوم هذا النوع من التحليلات الجنائية التي يدفعها الذكاء الاصطناعي بتحليل ملامح الوجه والأصوات والضجيج الخلفي وسمات أخرى يمكن إدراكها، كما يستخرج البيانات الوصفية للملفات لتحديد ما إذا كانت الخوارزميات قد أنشأتها، وفي بعض الحالات يتم العثور على روابط للمواد المصدر.
“بعض أفضل الفرص تبدو قائمة في التطبيقات المتعلقة بالسلامة والإشراف على المحتوى”؛ يقول “ستانلي”: “إن تقييمات نماذج اللغة الكبيرة واللاعبين الرئيسيين في هذا المجال قد أقصوا بعض المشاركين.”
إعداد: وحدة الترجمات بمركز سمت للدراسات
المصدر: morganstanley
سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر