سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
Hannah Green
عندما تفكر في استخدام تقنية الذكاء الاصطناعي في مجال الدفاع، فأي صورة تتبادر لذهنك في المقام الأول؟ هل هي روبوتات تتحرك عبر ساحة المعركة، أم طائرات مسيرة ذاتية تحدد وتهاجم الأهداف الرئيسية، أم نظام ذكي من نوع جارفيس يدير العمليات من مقر القيادة العسكرية؟
على الرغم من إمكانية هذه التطبيقات تقنيًا، فإنها حاليًا تقع في عالم الخيال العلمي بناءً على التجارب والتطبيقات الأولية لقطاع الدفاع مع الذكاء الاصطناعي. في حين يعتقد العديد من الناس أن الذكاء الاصطناعي يغير العالم الآن (وهو يفعل ذلك إلى حد ما في بعض السياقات التجارية)، إلا أن الحقيقة أنه لن يسمح له بالتأثير على عالم الدفاع لسنوات عديدة.
كما كتب أحد زملائي مؤخرًا، فإنه مقبول على نطاق واسع أن للذكاء الاصطناعي إمكانات هائلة في بيئات الدفاع. ومع ذلك، فإن تشغيله – أي جعله واقعًا تشغيليًا من خلال قدرات يستخدمها ويثق بها مستخدمو الدفاع – يأتي مع تحديات كبيرة وهامة ولا يزال على بُعد مسافة.
فهم متطلبات الذكاء الاصطناعي
إن أحد التحديات التي تطرح على القطاعات المختلفة فيما يتعلق بتبني الذكاء الاصطناعي تتعلق بالمنظور. ويميل الناس إلى الإثارة الكبيرة لاستخدام تقنية الذكاء الاصطناعي، ولكنهم غالبًا لا يفهمون تمامًا ما يعني ذلك عمليًا. فهم يقررون أن أحدث أداة للذكاء الاصطناعي هي الحل دون النظر في مدى ملاءمتها للتحديات التجارية التي يبحثون عن حلها.
من أجل استخدام الذكاء الاصطناعي بطريقة تضيف قيمة، يجب أن يندمج في عمليات المنظمة بشكل أوسع مثل تغطية الأشخاص والعمليات، بالإضافة إلى التقنية التراثية. تحتاج الشركات إلى وجود البيانات والبنية التحتية اللازمة لعمل الذكاء الاصطناعي بفعالية، بغض النظر عن القطاع.
عند النظر إلى سيارات الكهرباء، يجب أن نأخذ في الاعتبار ليس فقط وجود السيارات نفسها، ولكن أيضًا البنية التحتية اللازمة لتشغيلها. في بعض الحالات، يستغرق بناء هذه البنية التحتية وقتًا أطول ويشكل تحديًا تقنيًا أكبر من السيارات الكهربائية بحد ذاتها، مما يعوق اعتماد السيارات الكهربائية على نطاق واسع على مستوى الدولة. لن يتم تحقيق اعتماد واسع النطاق حتى يتم وضع البنية التحتية الملائمة لدعمها.
الذكاء الاصطناعي في مجال الدفاع لا يختلف. قبل الحصول على أحدث نظام للذكاء الاصطناعي، يجب على صانعي القرار أن يخصصوا الوقت للنظر فيما إذا كان يمكن دعمه ضمن البنية التحتية التقنية الحالية. ومن الاعتبارات الرئيسية الأخرى محاولة دمج الذكاء الاصطناعي في عملية قائمة وتحديد ما يمكن الحصول عليه من هذه التقنية. هل الهدف هو تحفيز تحسين الكفاءة، أم أتمتة الأعمال القابلة للتكرار لتحرير الجهود البشرية، أم توفير صورة أكثر غنى ودقة عن البيانات التشغيلية؟
أيا كان السبب، فإن هذه الخطوة الأساسية لتحديد الأهداف وتقييم الاستعداد هامة في رحلة تبني الذكاء الاصطناعي على نطاق أوسع. ومع ذلك، بمجرد إنشاء متطلبات الذكاء الاصطناعي، نأتي إلى مشكلة أكثر تعقيدًا وهي: فهم كيفية تنفيذه بطريقة آمنة. وهذا ما يتعلق بالمخاطر والسياسات أكثر من التكنولوجيا.
ضمان قابلية الشرح
من أجل التوقيع على الحلول بأنها مقبولة للاستخدام في مجال الدفاع، يجب اختبارها بشكل كبير. على وجه التحديد، يجب أن توفر أي تقنية جديدة نتائج مكررة قبل نشرها. وهذا تحدٍ خاص في قطاع الدفاع، بالنظر إلى أنه يتضمن سيناريوهات نادرة للغاية، وقد تكون هناك أدلة أو بيانات محدودة حول كيفية رد فعل الأشخاص أو الأنظمة.
لا يزال هناك حاجة سائدة في قطاع الدفاع إلى القدرة على التنبؤ بكيفية استجابة النظام وشرح سبب تصرف نموذج الذكاء الاصطناعي بطريقة معينة، وهو أمر من غير المرجح أن يتغير على المدى القصير أو المتوسط.
ومع ذلك، فإن هذه الحاجة إلى القابلية للشرح تطرح تحديات واضحة فيما يتعلق بنشر أنظمة الذكاء الاصطناعي على نطاق واسع، والتي صُممت لاتخاذ القرارات بشكل مستقل في سياقات تشغيلية. نحن هنا نتحدث عن بيئات معقدة للغاية، إذ يجب اتخاذ القرارات بسرعة بناءً على كم هائل من البيانات القادمة من مصادر وأنظمة متعددة، وعوامل المخاطر التي تتغير باستمرار. فكلما زاد تعقيد الذكاء الاصطناعي، أصبح أقل قابلية للشرح.
وإذا لم يكن بالإمكان شرح الذكاء الاصطناعي أو ضمان اعتماده، فمن غير المرجح أن يثق به المستخدمون النهائيون. فبعد كل شيء، لا يعتبر معقولاً توقع أن يفهم جندي أو بحّار أو ضابط معدل آلية عمل أنظمة الذكاء الاصطناعي، مما يجعل من الأهم بالنسبة للنظام أن يشرح الخطوات والقرارات الكامنة وراء مخرجاته.
ويرتبط استخدام الذكاء الاصطناعي بقضية الثقة. لنأخذ على سبيل المثال قبطان سفينة حربية يتعين عليه اتخاذ قرارات تشغيلية حاسمة بناءً على مخرجات نظام الذكاء الاصطناعي .يختلف هذا الوضع – الذي قد يكون مسألة حياة أو موت – تمامًا عن استخدام الذكاء الاصطناعي في العالم المدني.. التخلي عن السيطرة يثير رد فعل أكثر عمقًا، مما يتطلب ثقة كبيرة بأن التقنية سوف تعمل كما هو متوقع ويمكن الاعتماد عليها.
عادةً ما يعالج الدفاع هذه المشكلة من خلال التخفيف من آثار “الرجل المطلع”، الذي يتضمن الحفاظ على الإشراف البشري فيما يتعلق بكيفية عمل النظام والتواصل مع الأنظمة الأخرى. وفي حين أن هذا يمكن أن يساعد في ضمان الثقة، فإن الوقت الإضافي ومتطلبات الموظفين يزيل قدرًا كبيرًا من المزايا التي كان من الممكن أن يقدمها الذكاء الاصطناعي. قد يعني هذا الفرق بين البقاء في المقدمة أو التخلف عن الركب.
خطوة بخطوة
في النهاية، الطريق ما زال طويلاً قبل السماح باستخدام الذكاء الاصطناعي على نطاق واسع في مجال الدفاع. على الرغم من أن القطاع بالفعل يجرب التقنية في بعض الحالات، فإن هناك فارقًا كبيرًا بين تشغيل الذكاء الاصطناعي بطريقة مدارة خلف الكواليس والسماح له بالتشغيل في بيئة تشغيلية على الطيران.
سيكون تجاوز هذه الفجوة إنجازًا كبيرًا. هناك معوقات تقنية وسياسية ومتعلقة بالمخاطر يجب التغلب عليها من أجل تسهيل الاعتماد والنشر المستقبلي للذكاء الاصطناعي في إعدادات الدفاع التشغيلية. من ناحية أخرى، هناك حاجة إلى إنجاز الكثير من أعمال تمكين الروتين قبل أن يتمكن قطاع الدفاع من الاستفادة من تأثير الذكاء الاصطناعي التحولي.
هذا العمل التأسيسي حاسم. إذا سارع القطاع من خلالها دون عناية كافية، فإنه قد يكون له عواقب وخيمة ومكلفة فيما بعد. ولكن من خلال أخذ الأمور خطوة بخطوة، يمكننا البدء في بناء الأساس الصحيح لدعم مستقبل الدفاع المدفوع بالذكاء الاصطناعي.
المصدر: bcs
سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر