هل تصبح الروبوتات القاتلة أكثر خطرا من الأسلحة النووية؟
يشير تقرير لمجلس الأمن أنها استخدمت للمرة الأولى في الحرب الليبية العام الماضي
طارق الشامي
تشير تقارير رسمية أميركية إلى تزايد إنفاق كثير من الدول المتقدمة على تطوير نظم الأسلحة المستقلة ذاتية التشغيل أو ما يعرف باسم الروبوتات القاتلة التي يبدو أنها استخدمت بالفعل في أول عملية قتل للبشر في ليبيا العام الماضي. لكن ما يثير قلق الخبراء هو أن هذه الأسلحة قد تدمج مستقبلاً مع أسلحة نووية أو كيماوية أو بيولوجية، ما يسبب اضطراباً شديداً للاستراتيجيات النووية القائمة الآن. فما الخطورة التي تشكلها هذه الأسلحة، وما طبيعة التغيير الذي يمكن أن يطرأ على الاستراتيجيات العسكرية بسببها؟
السباق الأخير
وفقاً لتقرير صدر، أخيراً، عن مجلس الأمن التابع للأمم المتحدة بشأن الحرب الليبية، من المرجح أن تكون الروبوتات القاتلة، قد قتلت البشر لأول مرة على الإطلاق العام الماضي، وهو ما سوف يسجله التاريخ رسمياً على أنه نقطة البداية لسباق تسلح رئيس يشهده العالم الآن بخطى متسارعة، وقد يكون السباق الأخير للبشرية ما لم تقنن استخدامات هذه الأسلحة الخطيرة. فعندما تتخذ الروبوتات قرارات بقتل مجموعة من الأشخاص لن يشكل ذلك انقلاباً في الموازين، ولكن عندما تقرر استخدام الأسلحة النووية في المستقبل، فإن مصير البشرية سيكون على المحك.
ولا تعد هذه التوقعات من قبيل المبالغة. ففي عام 1983 حين بلغت الحرب الباردة بين القوتين العظميين ذروتها، خلص نظام الإنذار المبكر السوفياتي إلى أن الولايات المتحدة أطلقت خمسة صواريخ نووية على الاتحاد السوفياتي، وفيما أبدى الكمبيوتر أعلى درجة من الثقة في الاستنتاج، ما يعني أن الرد المحتمل هو انتقام نووي فوري لتدمير المدن الأميركية وقتل ملايين المدنيين الأميركيين، إلا أن ستانيسلاف بيتروف، الضابط السوفياتي المسؤول عن نظام الإنذار المبكر، استنتج لحسن الحظ أن الكمبيوتر أخطأ، وكان محقاً، ومن دونه كان العالم سيشهد حرباً نووية تقتل مئات الملايين من البشر حول العالم.
زعزعة الاستراتيجيات
ويحذر خبراء السياسة الخارجية من أن تقنيات الأسلحة المستقلة التخريبية والروبوتات القاتلة ستزعزع بشكل خطير الاستراتيجيات النووية الحالية، لأنها قد تغير بشكل جذري تصورات السيطرة الاستراتيجية لدى الدول، وتزيد من مخاطر الهجمات الوقائية والاستباقية، بخاصة حينما يقرر القادة السياسيون والعسكريون دمج هذه الأسلحة مع المواد الكيماوية والبيولوجية والإشعاعية وكذلك الأسلحة النووية، حيث تعتبر الأجهزة والمركبات ذاتية القيادة أدوات جذابة لإيصال الأسلحة الكيماوية والبيولوجية والإشعاعية والنووية إلى الخصوم والأعداء.
وما يجعل هذه الأدوات أسلحة مغرية للاستخدام أنه لا يمكن للمركبة المستقلة ذاتية القيادة والتشغيل أن تمرض بالجمرة الخبيثة أو تختنق بالكلور في أثناء استهدافها الأعداء بشكل مباشر، وهو ما جعل عناصر من تنظيم “داعش” الإرهابي يهتمون باستخدام طائرات درون لتنفيذ هجمات إشعاعية وربما كيماوية وفقاً لبعض التقارير الاستخباراتية، أوردتها مجلة “فورين بوليسي” العام الماضي. كما تمتلك كوريا الشمالية أيضاً ترسانة من الأسلحة الكيماوية والبيولوجية والنووية وأسطولاً من ألف طائرة درون، وفقاً للتقديرات الغربية.
ونظراً لأن أنظمة الأسلحة المستقلة هي عبارة عن روبوتات بأسلحة فتاكة يمكنها العمل بشكل ذاتي، واختيار الأهداف ومهاجمتها من دون أن يتدخل الإنسان في تلك القرارات، زادت الجيوش في جميع أنحاء العالم بشكل كبير من استثماراتها في البحث والتطوير في مجال الأسلحة المستقلة. فعلى سبيل المثال، خصصت الولايات المتحدة وحدها 18 مليار دولار أميركي لتطوير الأسلحة المستقلة ذاتية التشغيل بين عامي 2016 و2020.
قدرات هائلة
تعد القدرات العسكرية للأسلحة المستقلة ذاتية القيادة والتشغيل كبيرة جداً. فهي تحمي السفن من هجمات القوارب الصغيرة، وتبحث عن الإرهابيين وتقف كحارس يقظ وتدمر الدفاعات الجوية للعدو. وعلى سبيل المثال، أقر مسؤولون روس بأن طائرات مسيرة حلقت بشكل مستقل بعدما بُرمجت مسبقاً لإلقاء قنابل على قاعدة حميميم الروسية في سوريا عام 2018، مستهدفة أنظمة الدفاع الجوي الروسية التي تصل قيمتها إلى مئات الملايين من الدولارات.
وقبل بضعة أشهر، تغلب نظام محاكاة للذكاء الاصطناعي على طيار بشري يقود طائرة من طراز “أف 16” بنتيجة خمسة إلى صفر في محاكاة قتال متلاحم. كما تشكل أسراب الطائرات المسيرة تهديداً أكبر للجيوش القوية، لأنها رخيصة السعر ويمكن أن تنطلق واحدة تلو الأخرى ضد مدمرة تحمل صواريخ موجهة بقيمة 1.8 مليار دولار في محاولة لتعطيلها أو تدميرها. وإذا كانت الأسراب أكثر فاعلية عند استخدامها بشكل جماعي ضد منصات عسكرية كبيرة باهظة الثمن، فإن القوى الكبرى التي تمتلك مثل هذه المعدات باهظة الثمن ستخسر أكثر، ما يؤكد أن التكنولوجيا سوف تنمو وتنضج وتصبح أكثر إغراء، ولن تتخلى أي قوة عسكرية جادة عن مثل هذه الإمكانات.
أخطاء قاتلة
لكن هناك عدة أخطاء قاتلة لهذه النوعية من الأسلحة المستقلة والروبوتات القاتلة، أولها مشكلة التعريف الخطأ، لأنها عندما تختار الهدف لا يكون من الواضح بعد ما إذا كانت قادرة على التمييز بين الجنود المعادين والأطفال الذين يلعبون بمسدسات الألعاب أو بين المدنيين الفارين من موقع الصراع والمتمردين الذين يقومون بتراجع تكتيكي. ولا تكمن المشكلة في أن الآلات سترتكب مثل هذه الأخطاء بينما البشر لن يفعلوا ذلك، بل تتمثل في الفارق الشاسع في حجم ونطاق وسرعة الاستجابة، فالأسلحة الذاتية المستقلة تكون أكثر خطراً حينما تكون معيبة، إذ إنها لا تعرف أنها ترتكب خطأ، في حين أن مشغلي الأسلحة من البشر يمكنهم التدخل لوقف الأخطاء.
الأهم من ذلك، أن هناك العديد من الدراسات التي تشير إلى أخطاء اللوغاريتمات (الخوارزميات) في العديد من الصناعات، إذ إن أفضلها يمكن أن تولد نتائج صحيحة في المعامل والتجارب لكنها قد تنشر أخطاء فادحة بسرعة بين السكان. فعلى سبيل المثال، حدد برنامج التعرف على الصور الذي تستخدمه شركة “غوغل” الأميركيين الأفارقة على أنهم غوريلا. كما منحت أداة للتعلم الآلي تستخدمها شركة “أمازون” لتصنيف وترتيب كفاءة المرشحين للوظائف، النساء درجات سلبية بشكل منهجي.
ولا تكمن المشكلة فقط في أنه عندما تخطئ أنظمة الذكاء الاصطناعي، فإنها تخطئ بشكل جماعي، ولكن لأن المُصنعين لا يعرفون غالباً سبب ارتكاب الخطأ، ناهيك عن كيفية تصحيحه، ولهذا فإن مشكلة الصندوق الأسود للذكاء الاصطناعي تجعل من المستحيل تقريباً تطوير مسؤولية أخلاقية لأنظمة هذه الأسلحة.
مشاكل الانتشار
تعمل الجيوش التي تطور أسلحة مستقلة ذاتية القيادة والتشغيل على افتراض أنها ستكون قادرة على التحكم في بيع واستخدام الأسلحة المستقلة. ولكن الأسلحة تنتشر بلا توقف كما يقول ديفيد هامبلينغ في موقع “ببيولار ميكانيكس الأميركي”، بخاصة أن الروبوتات القاتلة رخيصة وفعالة ويكاد يكون من المستحيل احتواءها أثناء تداولها في جميع أنحاء العالم. ومثلما انتشرت أسلحة كلاشينكوف وغيرت تاريخ الحروب، يمكن أن تصل أسلحة كلاشينكوف ذاتية التشغيل إلى أيدي أشخاص خارج سيطرة الحكومات، بمن في ذلك الإرهابيون الدوليون والمحليون. لكن الخطر الأكبر يتمثل في أن الدول تتنافس على تطوير نسخ مدمرة بشكل متزايد من الأسلحة المستقلة ذاتية التشغيل، بما في ذلك تلك القادرة على تركيب أسلحة كيماوية وبيولوجية وإشعاعية ونووية، وكلما زادت قدرتها على القتل والفتك تضخمت المخاطر الأخلاقية حول استخدامها.
حروب أكثر
ومن المحتمل أن تؤدي الأسلحة المستقلة المتطورة إلى اندلاع حروب أكثر وبشكل متكرر لأنها ستقلل من عاملين اثنين أسهما في منع الحروب وتقصير مدتها على مر التاريخ، وهما الاهتمام بالمدنيين والقلق على الجنود، حيث من المتوقع تجهيز الأسلحة بأدوات مصممة لتقليل الأضرار الجانبية، باستخدام ما وصفته المقررة الخاصة للأمم المتحدة بالضربات الجراحية في إشارة إلى دقة استهدافاتها. كما ستعمل الأسلحة المستقلة على تقليل الحاجة إلى الجنود وخفض حجم المخاطر التي يتعرضون لها، ما يؤدي إلى تغيير الحسابات في ما يسمى بتحليل التكلفة والعائد، الذي تجريه الدول أثناء شن الحروب لاتخاذ قرارات الاستمرار فيها أو وقفها.
ولهذا من المرجح أن تصبح الحروب غير المتكافئة، أي تلك التي تشن على أرض الدول التي تفتقر إلى تكنولوجيا منافسة، أكثر شيوعاً. وهو أمر سيزيد عما كان عليه الحال خلال الحرب الباردة، حينما ارتفعت حالة عدم الاستقرار العالمي الناجمة عن التدخلات العسكرية السوفياتية والأميركية.
تقويض قوانين الحرب
قننت معاهدات تعود إلى اتفاقية جنيف عام 1864، قوانين الحرب الدولية التي تمثل الخط الدولي الرفيع الذي يفصل بين الحرب بشرف والمذبحة، فهي تقوم على فكرة أنه يمكن محاسبة الناس على أفعالهم حتى أثناء الحرب، وأن الحق في قتل جنود آخرين أثناء القتال لا يعطي الحق في قتل المدنيين. ومن الأمثلة البارزة على ذلك، محاكمة سلوبودان ميلوسيفيتش، الرئيس السابق لجمهورية يوغوسلافيا الاتحادية، الذي وجهت إليه اتهامات بارتكاب جرائم حرب وضد الإنسانية من قبل المحكمة الجنائية الدولية التابعة للأمم المتحدة.
ولكن كيف يمكن محاسبة الأسلحة المستقلة، ومن المسؤول عن الروبوت الذي يرتكب جرائم حرب، من سيُحاكم، هل السلاح أم الجندي أم القادة أم الشركة التي صنعت السلاح؟ حيث تشعر المنظمات غير الحكومية والخبراء في القانون الدولي بالقلق من أن الأسلحة المستقلة ستؤدي إلى فجوة خطيرة في تحقيق المساءلة والمحاسبة، وستكون هناك جرائم مع عدم مساءلة مجرمي الحرب بينما ستضعف بشكل كبير بنية قوانين الحرب وقيمتها الرادعة.
سباق تسلح عالمي
ومع هذا الواقع الذي تستطيع فيه الجيوش والجماعات المتمردة والإرهابيون الدوليون نشر قوة مميتة غير محدودة نظرياً من دون أي خطر وفي الأوقات والأماكن التي يختارونها، من دون أي مساءلة قانونية ناتجة، يمكن لهذه الأخطاء التي لا يمكن تجنبها والتي ابتليت بها حتى عمالقة شركات التكنولوجيا مثل “أمازون” و”غوغل” أن تؤدي إلى القضاء على مدن بأكملها، وهو ما لا ينبغي للعالم أن يكرر معها الأخطاء الكارثية نفسها لسباق التسلح النووي.
وكما قال الأمين العام للأمم المتحدة أنطونيو غوتيريش على “تويتر”، فإن الآلات المستقلة التي تتمتع بالسلطة التقديرية لاختيار الأهداف وتودي بحياة الأرواح من دون تدخل بشري غير مقبولة سياسياً وبغيضة أخلاقياً ويجب أن يحظرها القانون الدولي، لكن إغراء امتلاك وتطوير هذه الأسلحة المستقلة سيظل حافزاً قوياً.
قد لا تكون الدول على استعداد لحظر هذه الأسلحة تماماً، ولكن حظر الأكثر خطورة منها، مثل أسراب الطائرات المسيرة والأسلحة المستقلة المسلحة بعناصر كيماوية أو بيولوجية أو إشعاعية أو نووية، يمكن أن يوفر أساساً لتقليل المخاطر.