سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
Ross Andersen
لم يسبق لأي تكنولوجيا منذ القنبلة الذرية أن أثارت خيالات ومخاوف مروعة مثلما فعل الذكاء الاصطناعي. فما إن بدأت أنظمة الذكاء الاصطناعي، على غرار برنامج ChatGPT، في إظهار لمحات من التفكير المنطقي في نوفمبر/تشرين الثاني 2023، حتى غدت شبكة الإنترنت تعج بسيناريوهات يوم القيامة.
ورغم أن معظم هذه السيناريوهات خيالية، فإنها تدفعنا إلى تصور مدى السوء الذي قد تؤول إليه الأمور إذا اكتسب الذكاء الاصطناعي فهما مختلفا للعالم بعيدا عن الصورة التي تتجلى أمام مبتكريه البشر. ومع ذلك، سنجد أن ثمة سيناريو واحدا لا يتطلب خيالا جامحا، وهو إدماج الذكاء الاصطناعي تدريجيا في أكثر التقنيات تدميرا اليوم.
لقد بدأت القوى العسكرية الكبرى في العالم سباقا لخلق آصرة تربط بين الذكاء الاصطناعي والحرب عن طريق منح الخوارزميات القدرة على التحكم في أسلحة معينة أو أسراب الطائرات المسيّرة (بدون طيار)، دون منح الذكاء الاصطناعي دورا في وضع الإستراتيجيات العسكرية الكبرى أو الانضمام لاجتماعات القيادات العسكرية العليا.
ولكن هناك جاذبية أو إغراء في فكرة تصعيد استخدام الذكاء الاصطناعي في القيادة العسكرية، بالطريقة ذاتها التي انجذب بها العالم لفكرة سباق التسلح النووي في الماضي. وتعتمد سرعة هذا التحول على مدى سرعة تقدم التكنولوجيا التي يبدو أنها تتقدم بسرعة، كما أن مدى تطبيقه يعتمد على بصيرتنا نحن البشر، وعلى قدرتنا على التصرف بضبط النفس الجماعي.
في هذا السياق، تشير جاكلين شنايدر، مديرة مبادرة محاكاة الألعاب الحربية والأزمات في مؤسسة هوفر بجامعة ستانفورد، مؤخرا إلى لعبة ابتكرتها عام 2018، تُحاكي هذه اللعبة صراعا نوويا سريع التطور، وتم لعبها 115 مرة من قِبل شخصيات بارزة، مثل رؤساء دول سابقين ووزراء خارجية وضباط كبار. ولأن فكرة قرب اندلاع حرب نووية نادرة تاريخيا، فإن لعبة شنايدر تتيح فرصة نادرة لرؤية كيف يمكن للناس أن يتخذوا قراراتهم في ظروف مستعصية تنطوي على أعلى المخاطر البشرية.
تسير القصة على هذا النحو: يُنقل أحد الرؤساء وأعضاء حكومته بصورة عاجلة إلى قبو الجناح الغربي لتلقي إحاطة إعلامية بالغة الخطورة بعدما تأجج صراع إقليمي وتحول إلى صراع محتدم، وبدأ العدو يفكر في توجيه ضربة نووية. في تلك الأثناء، يسود التوتر غرفة العمليات، ويبدأ الاستعداد الفوري لضربة انتقامية، ولكن سرعان ما يتلقى مجلس الوزراء معلومات مقلقة، إذ تبين أن العدو طوّر سلاحا إلكترونيا جديدا. وتشير معلومات استخباراتية حديثة إلى أن هذا السلاح قادر على اختراق نظام الاتصالات الذي يربط الرئيس بقواته النووية؛ ما يعني أن أي أوامر إطلاق قد لا تصل إلى الضباط المسؤولين عن تنفيذها.
وكما سنرى، فالخيارات المتاحة في هذا السيناريو لا تُبشِّر بالخير. يفوّض بعض اللاعبين سلطة إطلاق الصواريخ النووية للضباط في مواقع الصواريخ بحيث يتخذون القرار بشأن ما إذا كان يجب الرد بضربة نووية مضادة، وهو خيار مثير للرعب. لكن ما أزعج جاكلين شنايدر أكثر هو إستراتيجية أخرى اتبعها لاعبون آخرون بتكرار مفاجئ، ففي العديد من المرات عبّر اللاعبون الذين يخشون فقدان السيطرة الكاملة على القيادة عن رغبتهم في أتمتة قدرات الإطلاق النووي بالكامل، إذ دافعوا عن فكرة منح الخوارزميات سلطة تحديد توقيت الرد النووي المناسب، بحيث يكون الذكاء الاصطناعي وحده هو من يقرر ما إذا كانوا سيدخلون في مواجهة نووية.
الواقع أن لعبة شنايدر مُصمَّمة لتكون قصيرة ومجهِدة. أما توجيهات اللاعبين المتعلقة بالأتمتة فلم تكن مفصلة بدقة كما قد يفعل المهندسون، إذ لم يكن واضحا كيفية تنفيذها بالضبط، أو ما إذا كان من الممكن إعداد أي نظام آلي في وقت كافٍ قبل تفاقم الأزمة، ولكن مجرد نزعة اللاعبين نحو الأتمتة أو رغبتهم في الاعتماد على الذكاء الاصطناعي حتى دون تفاصيل دقيقة يكشف عن شيء مهم حول تفكيرهم أو موقفهم. وعن ذلك تقول شنايدر: “ينظر الناس إلى هذه التقنية بتفاؤل مفرِط، وتنبع مخاوفي من زيادة رغبة القادة في استخدام الذكاء الاصطناعي لتقليل حالة عدم اليقين، رغم أنهم لا يدركون إلى أي مدى تنطوي هذه الخوارزميات على احتمالات غير مؤكدة”.
يقدِّم الذكاء الاصطناعي نوعا من وهم الدقة البالغة، وخاصة عند مقارنته بالبشر الذين قد يكونون عرضة للأخطاء وغير مستقرين إزاء قراراتهم. ورغم ذلك، تعتبر أكثر أنظمة الذكاء الاصطناعي تقدما اليوم أشبه بصناديق سوداء، بمعنى أنه يتعذر علينا فهم كيفية عملها. وفي المواقف العدائية المعقدة عالية الخطورة، قد تكون مفاهيم الذكاء الاصطناعي حول ما يشكِّل الفوز مُشوشة أو غير واضحة، وربما غريبة عن الفهم البشري.
وإذا ما تأملنا في الأمور من منظور أعمق وأهم، سندرك أن الذكاء الاصطناعي قد لا يفهم ما كان يعنيه كل من رونالد ريغان (الرئيس الأربعين للولايات المتحدة)*، وميخائيل غورباتشوف (الزعيم الأخير للاتحاد السوفياتي)* عندما قالا: “لا يمكن الانتصار في حرب نووية”.
لا شك من وجود سوابق تاريخية لأتمتة القرارات المتعلقة بالفناء البشري بسبب الحرب النووية، فبعد الحرب العالمية الثانية، ظهرت كل من الولايات المتحدة والاتحاد السوفياتي بوصفهما قوتين عظميين، وبدا أنهما قد يتوجهان نحو حرب عالمية ثالثة، لكنهما تجنبا هذا المصير عبر بناء نظام يعتمد على “التدمير المتبادل المؤكد”، وهو نظام يقوم على مبدأ الردع المتبادل، ويعتمد على توازن دقيق ومرعب، ولكنه قد يتزعزع كلما حقق أي من الطرفين تقدما تكنولوجيا جديدا. وفي العقود الأخيرة من الحرب الباردة، ساور القادة السوفييت قلق من أن قدرتهم على الرد على ضربة نووية أميركية قد لا تكون مؤكدة أو موثوقة (أي أن هناك احتمالا أن تفشل هذه القدرة في العمل عند الحاجة*)، فقاموا بتطوير برنامج أطلقوا عليه “اليد الميتة” (وهو نظام يضمن تنفيذ ضربة نووية تلقائية حتى في حال فقدان القيادة السوفياتية القدرة على الرد*).
كانت آلية عمل “اليد الميتة” السوفياتية بسيطة للغاية، لدرجة أنها تجاوزًا تعتبر خوارزمية. ففي حالة تفعيل النظام أثناء أزمة نووية، إذا توقف مركز القيادة والتحكم خارج موسكو عن تلقي الاتصالات من الكرملين، ستبدأ آلة خاصة في التحقق من الأجواء فوق العاصمة، وإذا اكتشفت هذه الآلة وميضا ساطعا وإشعاعا ناجما عن انفجار نووي، فستُطلَق جميع الصواريخ المتبقية نحو الولايات المتحدة. ورغم تحفظ روسيا حول هذا النظام، إلا أنه في عام 2011 أعلن قائد القوات الصاروخية الإستراتيجية في البلاد أن هذا النظام لا يزال في حالة استعداد للعمل واستخدامه في حالات الطوارئ، ويعمل كما لو كان في وضع قتالي حقيقي. وفي عام 2018، قال قائد سابق لهذه القوات إن هذا النظام قد “أُجريت عليه تحسينات”.
دفع الذكاء الاصطناعي إلى أعلى سلاسل القيادة
في عام 2019 كتب كل من كيرتس ماكجيفن، العميد المساعد في معهد القوات الجوية للتكنولوجيا، وآدم لوثر، مدير الأبحاث والتعليم في معهد أبحاث التكنولوجيا في لويزيانا، مقالا يشير إلى أن التقنيات الحديثة أدت إلى تقليل الفترة الزمنية بين لحظة اكتشاف هجوم محتمل وبين اللحظة الأخيرة التي يمكن فيها للرئيس إصدار أمر بضربة انتقامية. ومن رأيهم أن هذه النافذة الزمنية إذا تقلصتْ أكثر فقد لا تتمكن أي دولة من الرد بهجوم مضاد، لذا يرون أن الحل هو دعم الردع النووي بالذكاء الاصطناعي الذي يمكنه اتخاذ قرارات الإطلاق بسرعة الحوسبة.
إن ماكجيفن ولوثر محقان بشأن تقلص الفترة الزمنية لاتخاذ قرار كهذا، ففي بداية الحرب الباردة كانت الطائرات القاذفة مثل تلك التي استخدمت فوق هيروشيما هي الوسيلة المفضلة للهجمات الأولى. استغرقتْ هذه الطائرات وقتا طويلا في الطيران بين الاتحاد السوفياتي والولايات المتحدة، وبما أنها تحت قيادة بشر، كان من الممكن إصدار أوامر لهم بالعودة وإلغاء الهجوم إذا تغيّرت الظروف، لذلك بنى الأميركيون سلسلة من محطات الرادار عبر القطب الشمالي الكندي وجرينلاند وآيسلندا حتى يتسنى للرئيس الحصول على ساعة أو أكثر من التحذير قبل حدوث انفجار نووي فوق مدينة أميركية. وكانت هذه الفترة الزمنية كافية للتواصل مع الكرملين، ومحاولة إسقاط الطائرات القاذفة، وإن لم تنجح المحاولات، يبقى هناك وقت كافٍ لإصدار أمر بالرد الكامل.
ولكن في عام 1958 نجح الاتحاد السوفياتي في تقليص الفترة الزمنية المتاحة للرد على هجوم نووي من خلال الصواريخ العابرة للقارات (ICBM). فخلال عقد من الزمان، ثُبتت مئات منها في قاع أميركا الشمالية وأوراسيا، والمدهش أنه يمكن لأي منها الطيران عبر نصف الكرة الشمالي في أقل من 30 دقيقة. وللاستفادة من كل دقيقة متاحة للرد، أطلقت كلتا القوتين العظميين أساطيل من الأقمار الصناعية المبرمجة على الكشف عن الأشعة تحت الحمراء المميزة التي تنتج عن إطلاق الصواريخ. وفي النهاية، تمكنت هذه الأقمار الصناعية من تتبع الصاروخ بدقة وتحديد مساره.
وبعد تطوير الغواصات المسلحة نوويا في السبعينات، أصبحت مئات الصواريخ الأخرى المجهزة برؤوس حربية قادرة على أن تجوب محيطات العالم وتكون أقرب إلى أهدافها، وهو ما أدى إلى تقليص فترة اتخاذ القرار إلى النصف، أي إلى 15 دقيقة أو ربما أقل. وحتى لو لم تنجح القوى النووية الكبرى قط في تطوير تقنيات جديدة للصواريخ النووية، فإن 15 دقيقة أو أقل تظل فترة زمنية قصيرة للغاية لاتخاذ قرار بشري مدروس.
ومع ذلك، تعمل هذه الدول على تطوير تكنولوجيا صاروخية جديدة، بما في ذلك الصواريخ الفرط صوتية (وهي أسلحة قادرة على الانطلاق بسرعة تفوق سرعة الصوت*)، والتي بدأت روسيا بالفعل باستخدامها في أوكرانيا لتنفيذ ضربات سريعة وتجنب الدفاعات الصاروخية. بينما على الجانب الآخر، تسعى كل من روسيا والصين لاستخدام هذه الصواريخ الفرط صوتية لحمل رؤوس نووية في المستقبل، ومن المحتمل أن تُقلص هذه التقنيات وقت اتخاذ القرارات النووية إلى النصف مرة أخرى.
إطلاق ضربات قاتلة من تلقاء أنفسها
لا يزال الهجوم النووي المباغت مخاطرة كبيرة لأن بعض الدول حتى بعد الهجوم الأول عليها قد تحتفظ بقدرة على الرد، خصوصا من خلال غواصاتها النووية العصية على التدمير. ومع ذلك، قد يتصرف بعض قادة الدول النووية بتهور، خاصة بعد تقلص الوقت المتاح لاتخاذ القرار بالضرب النووي، وهو ما سيجعل هجمات “قطع الرأس” (أي تدمير القيادة) أكثر إغراء بالنسبة إليهم. لذلك، قد تفكر الدول في إنشاء نظام “يد ميتة” لضمان رد نووي تلقائي حتى إذا دُمرتْ القيادة. بعد نشر مقال ماكجيفين ولوثر، سُئل الفريق جون شاناهان، مدير مركز الذكاء الاصطناعي المشترك في وزارة الدفاع الأميركية، عن رأيه بشأن أتمتة الأسلحة النووية، وجاءت إجابته بأنه على الرغم من كونه من أقوى المؤيدين لاستخدام الذكاء الاصطناعي في الجيش، فإن التحكم في الأسلحة النووية هو المجال الوحيد الذي يتردد بشأنه.
ثمة مشاريع قائمة لتطوير الذكاء الاصطناعي منذ بداية عام 2021، وما زالت تسعى الدول منذ ذلك الحين إلى زيادة تمويل الذكاء الاصطناعي. وعلى الرغم من أن هذه المشاريع ليست كلها معروفة، فإن ملامح بعض هذه القوى الآلية بدأت تتضح. فمثلا ستتمكن الدبابات المستقبلية من رصد التهديدات بنفسها، بحيث يمكن للمشغّلين ببساطة لمس المواقع المميزة على الشاشة للقضاء على المهاجمين المحتملين. كما أن طائرات F-16 الحربية ستتضمن خوارزميات تساعد الطيارين في تنفيذ مناورات جوية معقدة؛ ما يتيح لهم التركيز على إطلاق الأسلحة والتنسيق مع أسراب الطائرات المسيّرة ذاتية التشغيل.
على المنوال ذاته، قررت بعض الدول تحديث سياستها لتوضيح أنه سيُسمَح بتطوير أسلحة تعتمد على الذكاء الاصطناعي يمكنها إطلاق النار بصورة مستقلِّة عن البشر، وهي قدرة تثير أسئلة أخلاقية كبيرة. لكن حتى هذه الأنظمة ستعمل في الأساس كجنود ميدانيين، أي أنها ستبقى تحت توجيهات البشر في أرض المعركة. ومع ذلك، فإن دور الذكاء الاصطناعي في قيادة المعارك ووظائف التخطيط الإستراتيجي لا يزال محدودا في استخدام الخوارزميات الاستخباراتية التي تجمع وتختصر كميات كبيرة من البيانات من مئات المستشعرات، مثل الميكروفونات تحت الماء، ومحطات الرادار الأرضية، والأقمار الصناعية التجسسية.
لن يُطلَب من الذكاء الاصطناعي التحكم في تحركات القوات أو إطلاق هجمات منسقة في المستقبل القريب، ولكن من الممكن أن تتسارع وتيرة الحرب وتصبح أكثر تعقيدا جرّاء الأسلحة المعتمدة على الذكاء الاصطناعي. فإذا واجه القادة العسكريون صعوبة في مجاراة الذكاء الاصطناعي للعدو الذي قد يتمكن من فهم وتحليل مواقف إستراتيجية ديناميكية تتضمن ملايين المتغيرات بصورة مستمرة وبدون توقف، أو إذا خشيت وزارة الدفاع من هذا السيناريو، فقد يلعب الذكاء الاصطناعي أدوارا مهمة في اتخاذ القرارات العسكرية.
صحيح أن قدرات المعالجة الهائلة للذكاء الاصطناعي تُستخدَم بالفعل بصورة مفيدة في أنظمة الإنذار المبكر، إلا أن الأتمتة قد تؤدي إلى مخاطر جسيمة. ففي عام 1983 على سبيل المثال، أخطأ نظام إنذار مبكر سوفييتي حينما فسّر السحب المتلألئة فوق الغرب الأوسط الأميركي على أنها صواريخ قادمة، ونجحوا في تجنب هذه الكارثة النووية بفضل العقيد السوفياتي ستانيسلاف بيتروف الذي راوده شعور داخلي بأن الأمر كان إنذارا خاطئا، وتصرف بناء على هذا الشعور. وعلى الرغم من أن خوارزميات الرؤية الحاسوبية اليوم أكثر تطورا، فإن آلية عملها لا زال يشوبها بعض الغموض. ففي عام 2018، أثبت باحثون في مجال الذكاء الاصطناعي أن التعديلات الطفيفة في صور الحيوانات يمكن أن تخدع الشبكات العصبية وتجعلها تصنِّف حيوان الباندا باعتباره قرد جيبون. وهو ما يثير المخاوف إزاء رد فعل الذكاء الاصطناعي إذا ما واجه ظواهر جوية غير مألوفة لم تندرج في بياناته التدريبية، فقد “يتخيل” هجمات قادمة و يُصدر إنذارات كاذبة.
توليد سرديات نصية واضحة للأزمات
مع استمرار تطور النماذج الكبيرة للغة، قد يُطلَب من الذكاء الاصطناعي في نهاية المطاف توليد سرديات نصية واضحة للأزمات سريعة التطور، بما في ذلك الأزمات النووية. وبمجرد أن تتجاوز هذه السرديات المعلومات البسيطة حول عدد ومواقع الصواريخ القريبة، فإنها ستصبح أشبه بتصريحات المستشارين التي تنطوي على التفسير والإقناع. وقد يثبت الذكاء الاصطناعي أنه مستشار ممتاز بفضل طبيعته الموضوعية أو المحايدة، ومعلوماته الغنية، وموثوقيته الدائمة. وهذا هو الأمل المرجو، لأنه حتى لو لم يُطلَب منه تقديم توصيات للرد، فإن أسلوب عرض المعلومات الذي يستخدمه سيؤثر بلا شك على قرارات الرئيس.
ولكن إذا ما أُتيحت للذكاء الاصطناعي الذي لا يملك سلطة الأسلحة النووية حرية التصرف الكافية في التعامل مع الحروب التقليدية، فإنه قد يلجأ إلى حيلة تؤدي بدون قصد إلى تأجيج الصراع وتصعيده للحد الذي قد يفضي إلى إطلاق صاروخ نووي في حالة من الذعر. أو قد يصمم عمدا مواقف في ساحة المعركة تُفضي إلى إطلاق نووي إذا كان يعتقد أن استخدام الأسلحة النووية من شأنه أن يحقق الأهداف الموكلة إليه. وقد تكون خطوات الذكاء الاصطناعي غير قابلة للتنبؤ مثلما حدث مع قائد بسيط صممته شركة OpenAI، حيث تغلب على لاعبين بشريين في نسخة معدلة من لعبة Dota 2، وهي لعبة محاكاة للمعارك، باستخدام إستراتيجيات لم يفكروا فيها قط (ومن الجدير بالذكر أن هذا القائد أثبت استعداده للتضحية بمقاتليه).
هذه السيناريوهات البعيدة لن تتحقق في القريب العاجل، إذ يُنظَر إلى الذكاء الاصطناعي اليوم بريبة، وإذا ما أدى استخدامه المتزايد إلى أزمة مثل انهيار في سوق الأسهم، فقد تتراجع احتمالات استخدامه بصورة أوسع، على الأقل لفترة من الزمن. ولكن لو افترضنا أن الذكاء الاصطناعي يؤدي أداء جيدا لعدة سنوات أو حتى عقود بعد تخطيه بعض العقبات الأولية، فقد يُسمح له مستقبلا بالتحكم في القيادة والسيطرة النووية أثناء الأزمات مثلما تصور بعض المشاركين في لعبة الحرب التي صممتها شنايدر. وفي مرحلة ما، قد يقرر رئيس جديد، في أول يوم له في منصبه، برمجة خوارزميات القيادة والتحكم مسبقا، وربما يمنح الذكاء الاصطناعي صلاحية الارتجال والتصرف بناء على تقييمه للوضع إذا ما نشب هجوم.
سيعتمد الموقف فيما بعد على كيفية فهم الذكاء الاصطناعي لأهدافه في سياق المواجهة النووية. وقد واجه الباحثون -الذين دربوا الذكاء الاصطناعي على لعب ألعاب مختلفة مرارا وتكرارا- نسخة من هذه المشكلة، وذلك لأن مفهوم “النصر” بالنسبة للذكاء الاصطناعي قد يكون غامضا. ففي بعض الألعاب، يعمل الذكاء الاصطناعي بأسلوب متوقع إلى أن يطرأ تغيير طفيف على بيئته، وهو ما قد يدفعه فجأة لتغيير إستراتيجيته بالكامل.
على سبيل المثال، تلقى الذكاء الاصطناعي تعليمات عن لعبة يبحث فيها اللاعبون عن مفاتيح لفتح صناديق مليئة بالكنوز والحصول على مكافأة، نجح الذكاء الاصطناعي بالفعل في تأدية هذه المهمة إلى أن بدأ المهندسون بتغيير بيئة اللعبة، بحيث أصبح عدد المفاتيح أكثر من الصناديق، بعد هذا التغيير بدأ الذكاء الاصطناعي بجمع المفاتيح على الرغم من أن العديد منها كانت عديمة الفائدة، وقل تركيزه على فتح الصناديق. وعلى المنوال ذاته، قد يؤدي أي ابتكار جديد في الأسلحة النووية أو أنظمة الدفاع إلى تحول جذري مماثل.
إن أي دولة ستُدخِل الذكاء الاصطناعي في نظام قيادتها وتحكمها النووي، ستدفع الدول الأخرى لتبني النهج ذاته، ولو لمجرد إبقاء القوى النووية في حالة توازن وردع متبادل. في السياق ذاته، حذَّر مايكل كلير، أستاذ دراسات السلام والأمن العالمي في كلية هامبشاير بالولايات المتحدة، من أن الاعتماد المتعدد للدول على الذكاء الاصطناعي في اتخاذ قرارات الإطلاق النووي قد يؤدي إلى “حرب خاطفة”.
تخيل أن الذكاء الاصطناعي الأميركي أساء تفسير المراقبة الصوتية للغواصات في بحر الصين الجنوبي على أنها حركات تنذر بهجوم نووي، وهو ما سيدفعه للتحضير لهجوم مضاد، حينها سيلاحظ الذكاء الاصطناعي الصيني هذا التحرك، فيبدأ بتجهيز منصات الإطلاق؛ ما يؤدي إلى سلسلة من التصعيدات التي من شأنها أن تنتهي بتبادل نووي كارثي.
عاد التاريخ ليستأنف مساره بتراجع المعاهدات التي كانت تحدّ من انتشار الأسلحة النووية، انتهت بعض هذه المعاهدات، فيما تراجعت أخرى مع تدهور العلاقات بين الولايات المتحدة وروسيا على سبيل المثال. أصبح البلدان الآن أقرب إلى الحرب المباشرة مما كانا عليه منذ أجيال. في 21 فبراير 2023، وبعد أقل من 24 ساعة من زيارة جو بايدن إلى كييف، أعلن فلاديمير بوتين تعليق مشاركة بلاده في معاهدة “نيو ستارت”، التي كانت آخر معاهدة قائمة للحد من الترسانات النووية.
وفي الوقت نفسه، يبدو أن الصين أصبحت تمتلك صواريخ كافية لتدمير جميع المدن الأميركية الكبرى، ويقال إن جنرالاتها ازدادوا تمسكا بترسانتهم النووية بعدما رأوا كيف ساعدت الأسلحة النووية روسيا على تعزيز نفوذها خلال الحرب في أوكرانيا. وكما نرى فالردع المتبادل لم يعد يقتصر على طرفين، بل أصبح يشمل ثلاثة أطراف، وكل طرف منها يسعى لتطوير تقنيات قد تزعزع منطق الردع.
إذا تحقق السلام مستقبلا، يمكننا التعلم من معاهدات الردع النووي التي ركزت على إعادة السيطرة للبشر، وينبغي السعي لعقد اتفاق عالمي يمنع الذكاء الاصطناعي من التحكم في الأسلحة النووية. ورغم أن بعض السيناريوهات تبدو بعيدة، لكن من المهم التفكير في طرق لتجنبها الآن، قبل أن يحقق الذكاء الاصطناعي نجاحات كبيرة في ساحة المعركة ويصبح من الصعب مقاومة إغراء استخدامه.
لكن يمكن دائما لاتفاقيات كهذه أن تُنتهَك، ومراقبة الامتثال لها ستكون صعبة، لأن تطوير الذكاء الاصطناعي لا يتطلب منشآت ملحوظة كمخازن الصواريخ أو منشآت لتخصيب اليورانيوم. ومع ذلك، يمكن أن تسهم الاتفاقية في خلق تحريم قوي ضد استخدام الذكاء الاصطناعي في التحكم النووي، وربما يكون هذا التحريم هو أفضل ما يمكننا تحقيقه. لا يمكننا قبول فكرة نشر ترسانات نووية مؤتمتة تجعلنا عرضة لكارثة بسبب خلل تقني. وإن كان لا بد للأخطاء أن تؤدي إلى حرب نووية، فلتكن أخطاء بشرية على الأقل لا أخطاء تقنية، فالاعتماد على الذكاء الاصطناعي في مثل هذه القرارات الحاسمة سيكون استسلاما كاملا للآلة، وتنازلا عن حق البشر في اتخاذ قراراتهم المصيرية بأنفسهم.
المصدر : أتلانتك
سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر