احتياج أسلحة الذكاء الاصطناعي إلى تنظيم أفضل | مركز سمت للدراسات

احتياج أسلحة الذكاء الاصطناعي إلى تنظيم أفضل

التاريخ والوقت : الأربعاء, 20 أبريل 2022

برانكا ماريجان

في ضوء الحرب الروسية الأوكرانية عقدت الأمم المتحدة، مؤخرًا، اجتماعًا لمناقشة استخدام أنظمة الأسلحة المستقلة، التي يشار إليها عادةً باسم الروبوتات القاتلة. فهذه الأسلحة في الأساس مبرمجة للعثور على فئة من الأهداف، ثم تحدد وتهاجم شخصًا أو هدفًا معينًا داخل تلك الفئة، التي بالكاد تخضع أهدافها لتحكم بشري.

احتلت روسيا مركز الصدارة في هذا الجدال، ويرجع ذلك جزئيًا إلى قدراتها المحتملة في هذا المجال، بالإضافة إلى أن دبلوماسييها أحبطوا جميع الجهود المبذولة لمناقشة مدى استخدام هذه الأسلحة، بدعوى أن العقوبات جعلت المشاركة المناسبة أمرًا مستحيلاً. أما بالنسبة للمناقشة التي لم يكفِ أنها تسير ببطء جدًا حتى الآن، فقد أدى تدليل روسيا إلى إبطائها أكثر.

لقد كنت أراقب تطوير الأسلحة المستقلة باستمرار وحضرت بالفعل مناقشات الأمم المتحدة حول هذه المسألة لأكثر من سبع سنوات، والآن أصبحت الأزمة الروسية الأوكرانية اختبارًا حقيقيًا يبين مدى إمكانية استمرار حرب الذكاء الاصطناعي الآن وفي المستقبل.

إذ تُعدُّ التكنولوجيا الكامنة وراء بعض أنظمة الأسلحة هذه غير دقيقة وعرضة للخطأ، وإنه من غير الواضح تمامًا كيفية عمل هذه الأنظمة ومنهاجيتها في اتخاذ القرارات. ونتيجة لذلك، ستصيب بعض هذه الأسلحة أهدافًا خاطئة دائمًا، والأسوأ أن الضغوط التنافسية قد تؤدي إلى نشر المزيد من الأنظمة غير الجاهزة في أرض المعركة.

لتجنب إزهاق أرواح الأبرياء وتدمير البنية التحتية الحيوية في أوكرانيا وخارجها، لا نحتاج إلا إلى جهد دبلوماسي قوي لحظر استخدام هذه الأسلحة والتكنولوجيا التي تكمن وراءها في بعض الحالات وتنظيمها في حالات أخرى، بما في ذلك الذكاء الاصطناعي والتعلم الآلي. وهذا أمر بالغ الأهمية لأنه عندما تسير العمليات العسكرية بشكل سيئ، قد تلجأ الدول إلى استخدام تكنولوجيا جديدة للحصول على امتياز لصالحها. ومثال على ذلك الأسلحة الروسية المتساقطة من نوع KUB-BLA، التي لديها القدرة على تحديد الأهداف باستخدام الذكاء الاصطناعي.

يمكن للبيانات الموجودة في الأنظمة القائمة على الذكاء الاصطناعي أن تبين للأسلحة البعيدة كيف يبدو شكل الهدف وماذا تفعل عند الوصول إلى هذا الهدف. ولكن في حين أن تكنولوجيا الذكاء الاصطناعي للاستخدام العسكري تشبه إلى حدٍ ما أدوات التعرف على الوجه، فإن لها أهدافًا مختلفة، لا سيما عندما تهدف إلى التدمير والقتل. وعلى هذا النحو، أثار الخبراء مخاوفهم تجاه إدراجها في مجالات الحرب الديناميكية. وفي حين تظهر روسيا أنها نجحت في إحباط المناقشة في الوقت الراهن بشأن هذه الأسلحة، إلا أنها ليست الوحيدة، إذ تكافح كل من الولايات المتحدة والهند وإسرائيل تنظيم استخدام هذه الأنظمة الخطيرة أيضًا.

قد يكون الذكاء الاصطناعي أكثر دقة ووضوحًا عند استخدامه في الحرب السيبرانية، بما في ذلك زيادة هجمات البرمجيات الخبيثة أو انتحال شخصية المستخدمين الموثوق بهم بشكل أفضل من أجل الوصول إلى البنية التحتية الحيوية، مثل الشبكة الكهربائية. لكن القوى العظمى تستخدمه لتطوير أسلحة مدمرة ماديًا. إذ حققت روسيا بالفعل تطورات بارزة في الدبابات المستقلة، وهي آلات يمكن أن تعمل بدون مشغلين بشريين يمكنها نظريًا تجاوز الأخطاء. بينما أظهرت الولايات المتحدة عددًا من القدرات، بما في ذلك الذخائر التي يمكن أن تدمر سفينة سطح باستخدام سرب من الطائرات بدون طيار. كما يستخدم الذكاء الاصطناعي في تطوير تكنولوجيا الأسراب والذخائر المتساقطة، التي تسمى أيضًا بطائرات كاميكازي بدون طيار. وبدلاً من الروبوتات المستقبلية التي تظهر في أفلام الخيال العلمي، تستخدم هذه الأنظمة المنصات العسكرية الموجودة سابقًا، التي تستفيد من تكنولوجيا الذكاء الاصطناعي. ببساطة، يمكن لبضعة أسطر من التعليمات البرمجية وأجهزة الاستشعار الجديدة أن تحدث فرقًا فيما إذا كان النظام العسكري يعمل بشكل مستقل أو خاضع للتحكم البشري. وبشكل حاسم، قد يؤدي إدخال الذكاء الاصطناعي في عملية اتخاذ القرار من الجيوش إلى إفراط الاعتماد على التكنولوجيا في تشكيل عملية اتخاذ القرار العسكري، وربما تصعيد النزاعات. 

قد تبدو الحرب القائمة على الذكاء الاصطناعي وكأنها لعبة فيديو، ولكن في سبتمبر الماضي، وفقًا لتصريحات قائد القوات الجوية “فرانك كيندال”، أن القوات الجوية بالولايات المتحدة استخدمت الذكاء الاصطناعي لأول مرة للمساعدة في تحديد هدف أو عدة أهداف في “عملية سلسلة قتل مباشرة.” من المفترض أن هذا يعني أن الذكاء الاصطناعي قد استُخدم لتحديد الأهداف البشرية وقتلها. 

نُشر القليل من المعلومات حول تلك المهمة، ومن ذلك ما إذا كان هناك أي إصابات وقعت من ضمن الأهداف المقصودة. والسؤال هنا يدور حول ماهية المدخلات التي استُخدمت لتحديد هؤلاء الأفراد، وهل يمكن أن تكون هناك أي أخطاء محتملة في تحديد الهوية. بالإضافة إلى ذلك، لقد ثبت أن تكنولوجيا الذكاء الاصطناعي متحاملة، لا سيما ضد النساء والأفراد في مجتمعات الأقليات، إذ يؤثر تحديد الهوية الزائف بالفعل بشكل سلبي وغير متناسب على الفئات المهمشة والمعرضة للتمييز العنصري.

إذا كانت المناقشات الأخيرة على وسائل التواصل الاجتماعي بين مجتمع الذكاء الاصطناعي تشير إلى شيء ما، فإنها حتمًا تشير إلى المطورين، لا سيما من القطاع الخاص، الذين يبتكرون التكنولوجيا الجديدة التي تنشرها بعض الجيوش بالفعل وهم غير مدركين تأثيرها في العموم. يزعم الصحفي التكنولوجي “جيريمي خان” في مجلة “فورتشن” وجود فجوة خطيرة بين المطورين والجيوش الرائدة، بما في ذلك جيوش الولايات المتحدة وروسيا، التي تستخدم الذكاء الاصطناعي في عمليات اتخاذ القرار وتحليل البيانات. ويبدو أن المطورين غير مدركين طبيعة الأغراض العامة لبعض الأدوات التي يبنونها وكيف يمكن للجيوش استخدامها في الحرب، بما في ذلك استهداف المدنيين. 

لا شك أن الدروس المستفادة من الغزو الحالي ستشكل أيضًا المشاريع التكنولوجية المستقبلية التي تسعى الجيوش إلى تحقيقها. وفي الوقت الحالي، تتصدر الولايات المتحدة المجموعة، لكن هناك بيانًا مشتركًا لروسيا والصين في أوائل فبراير الماضي يشير إلى أنهما يهدفان إلى “بناء علاقات دولية مشتركة من نوع جديد”، ويشير على وجه التحديد إلى هدفهما المتمثل في تشكيل حوكمة التكنولوجيا الجديدة، بما في ذلك على ما أعتقد أنه يعني استخدامات عسكرية للذكاء الاصطناعي.

تعمل الولايات المتحدة وحلفاؤها بشكل مستقل على تطوير معايير بشأن الاستخدامات العسكرية المناسبة للذكاء الاصطناعي، ولكن بشكل عام لا يتحدثون مع الخصوم المحتملين. ولكن في الغالب، يبدو أن الدول ذات الجيوش الأكثر تقدمًا من الناحية التكنولوجية غير مستعدة لقبول أي قيود على تطورات تكنولوجيا الذكاء الاصطناعي. وبناءً عليه، فإن هذا هو المكان الذي تبرز فيه أهمية الدبلوماسية الدولية: إذ يجب أن تكون هناك قيود على هذه الأنواع من الأسلحة، وينبغي للجميع الموافقة على المعايير المشتركة ومبدأ الشفافية في استخدام هذه التكنولوجيا. 

يجب أن تكون الحرب في أوكرانيا بمثابة جرس إنذار فيما يتعلق باستخدام التكنولوجيا في الحرب، والحاجة إلى تنظيم تكنولوجيا الذكاء الاصطناعي لضمان حماية المدنيين. وسيستمر التطوير غير الخاضع للرقابة والسريع للتطبيقات العسكرية للذكاء الاصطناعي في تقويض القانون الدولي الإنساني والمعايير المتعلقة بحماية المدنيين. وفي النهاية، على الرغم من أن النظام الدولي في حالة من الفوضى، فإن الحلول للأزمات الحالية والمستقبلية تتمثل في الحلول الدبلوماسية وليست العسكرية، وعلى الاجتماع المقبل للأمم المتحدة أو أي منظمة أخرى أن يبدأ في التصدي بسرعة لهذه الحقبة الجديدة من ويلات الحرب.

إعداد: وحدة الترجمات بمركز سمت للدراسات

المصدرscientificamerican

النشرة البريدية

سجل بريدك لتكن أول من يعلم عن تحديثاتنا!

تابعونا على

تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر