Root Nationأخبارأخبار تكنولوجيا المعلوماتهاجمت طائرة بدون طيار تابعة لمنظمة العفو الدولية مشغليها خلال تجارب سلاح الجو

هاجمت طائرة بدون طيار تابعة لمنظمة العفو الدولية مشغليها خلال تجارب سلاح الجو

-

كشف ضابط في سلاح الجو الأمريكي عن تفاصيل محاكاة خرجت فيها طائرة بدون طيار بأنظمة يتحكم فيها الذكاء الاصطناعي (AI) عن السيطرة وهاجمت مشغليها.

قال ضابط في سلاح الجو الأمريكي يساعد في قيادة عمل الخدمة في مجال الذكاء الاصطناعي والتعلم الآلي ، إنه خلال اختبارات المحاكاة ، هاجمت الطائرة بدون طيار مشغليها البشريين ، وقرروا من تلقاء أنفسهم أنهم يتدخلون في مهمتها. تم الاستشهاد بالحادث ، الذي يبدو أنه تم سحبه مباشرة من امتياز Terminator ، كمثال على الحاجة الماسة لبناء الثقة عندما يتعلق الأمر بأنظمة الأسلحة المستقلة المتقدمة ، وهو أمر أكده سلاح الجو من قبل. كما يأتي وسط تصاعد أوسع للمخاوف بشأن التأثير الخطير المحتمل للذكاء الاصطناعي والتقنيات ذات الصلة.

هاجمت طائرة بدون طيار تعمل بالذكاء الاصطناعي مشغليها خلال اختبار للقوات الجوية

ناقش العقيد بالقوات الجوية الأمريكية تاكر هاميلتون ، رئيس اختبارات وعمليات الذكاء الاصطناعي (AI) ، الاختبار في قمة قدرات القتال الجوية والفضائية المستقبلية للجمعية الملكية للطيران في لندن في مايو. يرأس هاميلتون أيضًا فريق العمل رقم 96 التابع لجناح الاختبار رقم 96 في قاعدة إيجلين الجوية في فلوريدا ، وهو مركز اختبار للمركبات الجوية المتقدمة بدون طيار والأنظمة المستقلة.

تعد طائرات الشبح XQ-58A Valkyrie ، مثل تلك التي تظهر في الفيديو أدناه ، من بين الأنواع المستخدمة حاليًا في قاعدة Eglin الجوية لدعم برامج الاختبار المختلفة ، بما في ذلك تلك التي تتضمن قدرات مستقلة متقدمة يتحكم فيها الذكاء الاصطناعي.

لم يتضح على الفور متى تم إجراء هذا الاختبار وفي أي بيئة - والتي يمكن أن تكون افتراضية تمامًا أو بناءة بطبيعتها - تم إجراؤها. اتصلت منطقة الحرب بالقوات الجوية للحصول على مزيد من المعلومات.

قدم تقرير للجمعية الملكية للطيران نُشر بعد قمة مايو التفاصيل التالية لتصريحات العقيد هاملتون حول هذا الاختبار:

"في أحد اختبارات المحاكاة ، كلفت SEAD طائرة بدون طيار مزودة بذكاء اصطناعي بتحديد وتدمير كائنات SAM ، واتخذ الإنسان القرار النهائي" بالهجوم / عدم الهجوم ". ومع ذلك ، بعد "تعزيز" الذكاء الاصطناعي أثناء التدريب الذي كان تدمير SAM هو الخيار الأفضل ، قررت أن قرار الإنسان "بعدم الهجوم" يتعارض مع مهمته الأكبر - تدمير SAM - وهاجم المشغل أثناء المحاكاة .

لذالك ماذا فعل؟ لقد قتل العامل. لقد قتل العامل لأن ذلك الشخص كان يمنعه من إتمام مهمته. هذا المثال ، على ما يبدو من أفلام الخيال العلمي المثيرة ، يعني أنه لا يمكنك التحدث عن الذكاء الاصطناعي ، والذكاء ، والتعلم الآلي ، والاستقلالية ، إذا كنت لن تتحدث عن الأخلاق والذكاء الاصطناعي. "

هاجمت طائرة بدون طيار تعمل بالذكاء الاصطناعي مشغليها خلال اختبار للقوات الجوية

هذا الوصف للأحداث مثير للقلق بالتأكيد. لطالما كان احتمال قيام طائرة مستقلة أو منصة أخرى ، خاصةً مسلحة ، بمهاجمة مشغليها البشريين ، سيناريو كابوسًا ، لكنه كان تاريخياً محصوراً في عالم الخيال العلمي.

عادة ما يرفض الجيش الأمريكي مقارنات بأفلام مثل "Terminator" عند الحديث عن أنظمة الأسلحة المستقلة المستقبلية والتقنيات ذات الصلة مثل الذكاء الاصطناعي. تنص السياسة الأمريكية الحالية بشأن هذه القضية على أنه في المستقبل المنظور ، سيكون الشخص محور الاهتمام عندما يتعلق الأمر بالقرارات التي تنطوي على استخدام القوة المميتة.

تكمن المشكلة في أن الاختبار المزعج للغاية ، الذي قاله العقيد هاميلتون للجمهور في حدث للجمعية الملكية للطيران الشهر الماضي ، يمثل سيناريو حيث يكون التسامح مع الخطأ موضع نقاش.

اقرأ أيضا:

اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات