مخاوف من "الروبوتات القاتلة" ودعوات للتحكم بالذكاء الاصطناعي
أطلقت النمسا دعوة لتجديد الجهود لتنظيم الذكاء الاصطناعي في أنظمة الأسلحة، مما سلط الضوء على التهديد الناشئ المتمثل في "الروبوتات القاتلة" المستقلة. وفي مؤتمر عقد يوم الاثنين، بهدف إطلاق الحوار الراكد حول هذه القضية الملحة، اجتمع مسؤولون نمساويون، إلى جانب ممثلين من ١٤٣ دولة ومنظمة غير حكومية وهيئات دولية، لمناقشة التقدم السريع في تكنولوجيا الذكاء الاصطناعي وآثاره. للحرب المستقبلية.
وقد سلط المؤتمر، الذي حمل عنوان "الإنسانية على مفترق الطرق: أنظمة الأسلحة الذاتية التشغيل وتحديات التنظيم"، الضوء على المعضلات الأخلاقية والقانونية التي تفرضها الأسلحة القادرة على العمل دون إشراف بشري. وشدد وزير الخارجية النمساوي ألكسندر شالنبرغ على الحاجة الملحة إلى وضع معايير دولية للحفاظ على السيطرة البشرية على قرارات الحياة والموت. وقال شالينبرج: "لا يمكننا أن ندع هذه اللحظة تمر دون اتخاذ إجراء. لقد حان الوقت للاتفاق على القواعد والمعايير الدولية لضمان السيطرة البشرية"، مشددًا على أهمية الحفاظ على العنصر البشري في الحرب.

وعلى الرغم من سنوات من المناقشات في الأمم المتحدة، فإن التقدم الملموس في هذه القضية كان بعيد المنال، حيث أشار كثيرون في المؤتمر إلى أن نافذة العمل الهادف تتضاءل بسرعة. وقد رددت ميريانا سبولجاريك، رئيسة اللجنة الدولية للصليب الأحمر، هذا الشعور خلال حلقة نقاش، وسلطت الضوء على الإخفاقات الأخلاقية التي شهدتها مختلف الصراعات واحتمال تفاقم هذه القضايا من خلال تفويض أعمال العنف إلى الآلات.
هامش الخطأ في الذكاء الاصطناعي ومخاطر الاعتماد عليه
وقدم جان تالين، مطور البرمجيات والمستثمر التكنولوجي، أمثلة ملموسة على قابلية الذكاء الاصطناعي للخطأ، من الأخطاء التافهة في التعرف على الهوية إلى الحوادث المميتة التي تنطوي على السيارات ذاتية القيادة. تعتبر هذه الأمثلة بمثابة قصة تحذيرية ضد الاعتماد المفرط على أنظمة الذكاء الاصطناعي في السياقين العسكري والمدني. وحذر تالين من أنه "يجب أن نكون حذرين للغاية بشأن الاعتماد على دقة هذه الأنظمة"، مشيراً إلى المخاطر الكامنة في إسناد القرارات الحاسمة إلى الخوارزميات.
كان مؤتمر فيينا بمثابة خطوة حاسمة نحو مواجهة التحديات التي تفرضها أنظمة الأسلحة المستقلة. مع استمرار تكنولوجيا الذكاء الاصطناعي في التطور بسرعة، يواجه المجتمع الدولي حاجة ملحة لوضع حدود ومبادئ توجيهية تضمن أن تخدم هذه التطورات أفضل مصالح البشرية، بدلا من أن تؤدي إلى عصر من الحرب الروبوتية غير المنظمة. وشدّدت المناقشات على الضرورة الجماعية لمعالجة هذه القضايا بشكل مباشر، ودعت إلى اتخاذ إجراءات فورية لحماية المعايير الأخلاقية والحفاظ على الرقابة البشرية على استخدام القوة المميتة.