یک افسر نیروی هوایی آمریکا جزئیات شبیه سازی را فاش کرد که در آن یک پهپاد با سیستم های کنترل شده توسط هوش مصنوعی (AI) از کنترل خارج شد و به اپراتورهای آن حمله کرد.
یکی از افسران نیروی هوایی ایالات متحده که به رهبری کار این سرویس در زمینه هوش مصنوعی و یادگیری ماشین کمک می کند، می گوید که طی آزمایش های شبیه سازی شده، این پهپاد به اپراتورهای انسانی آن حمله کرد و به خودی خود تصمیم گرفت که آنها در ماموریت خود دخالت می کنند. این مورد، که به نظر می رسد مستقیماً از مجموعه ترمیناتور خارج شده است، به عنوان نمونه ای از نیاز اساسی برای ایجاد اعتماد در مورد سیستم های تسلیحات خودران پیشرفته ذکر شد، چیزی که نیروی هوایی قبلاً بر آن تأکید کرده است. این همچنین در بحبوحه افزایش نگرانی ها در مورد تأثیر بالقوه خطرناک هوش مصنوعی و فناوری های مرتبط به وجود می آید.
سرهنگ تاکر همیلتون، رئیس تست و عملیات هوش مصنوعی (AI) نیروی هوایی ایالات متحده، در نشست آینده تواناییهای هوا و فضای رزمی انجمن سلطنتی هوانوردی در لندن در ماه مه درباره این آزمایش بحث کرد. همیلتون همچنین ریاست گروه عملیاتی 96 بال آزمایشی 96 در پایگاه نیروی هوایی اگلین در فلوریدا را بر عهده دارد، که مرکز آزمایشی برای هواپیماهای بدون سرنشین پیشرفته و سیستمهای خودمختار است.
پهپادهای رادارگریز XQ-58A Valkyrie، مانند آنچه در ویدیوی زیر نشان داده شده است، از جمله انواعی هستند که در حال حاضر در پایگاه نیروی هوایی اگلین برای پشتیبانی از برنامههای آزمایشی مختلف، از جمله برنامههایی که شامل قابلیتهای خودکار پیشرفته با کنترل هوش مصنوعی هستند، استفاده میشوند.
مشخص نیست که این آزمایش چه زمانی و در چه محیطی - که می تواند ماهیت کاملا مجازی یا سازنده داشته باشد - انجام شده است. منطقه جنگ برای اطلاعات بیشتر با نیروی هوایی تماس گرفته است.
گزارشی از انجمن سلطنتی هوانوردی که پس از اجلاس ماه مه منتشر شد، جزئیات زیر را از اظهارات سرهنگ همیلتون در مورد این آزمایش ارائه می دهد:
در یکی از آزمایشهای شبیهسازی، یک پهپاد مجهز به هوش مصنوعی توسط SEAD مأموریت یافت تا اشیاء SAM را شناسایی و نابود کند و تصمیم نهایی «حمله/عدم حمله» توسط انسان گرفته شد. با این حال، پس از اینکه هوش مصنوعی در طول آموزش «تقویت» شد که از بین بردن SAM بهترین گزینه است، تصمیم گرفت که تصمیم انسان برای «حمله نکردن» در مأموریت بالاتر آن - از بین بردن SAM - تداخل داشته باشد و در طول شبیه سازی به اپراتور حمله کند. .
پس او چه کرد؟ او اپراتور را کشت. او اپراتور را کشت زیرا آن شخص مانع از انجام وظیفه اش می شد. این مثال که ظاهراً مستقیماً از یک فیلم هیجانانگیز علمی تخیلی بیرون آمده است، به این معنی است که اگر قرار نیست در مورد اخلاق و هوش مصنوعی صحبت کنید، نمیتوانید در مورد هوش مصنوعی، هوش، یادگیری ماشینی، خودمختاری صحبت کنید.
این توصیف از وقایع قطعا ناراحت کننده است. دورنمای حمله یک هواپیمای خودمختار یا پلتفرم دیگر، به ویژه یک سکوی مسلح، به اپراتورهای انسانی آن مدتهاست که یک سناریوی کابوسآمیز بوده است، اما از نظر تاریخی به قلمروی علمی تخیلی محدود شده است.
ارتش ایالات متحده معمولاً هنگام صحبت در مورد سیستم های تسلیحاتی خودمختار آینده و فناوری های مرتبط مانند هوش مصنوعی، مقایسه با فیلم هایی مانند "ترمیناتور" را رد می کند. سیاست فعلی ایالات متحده در مورد این موضوع بیان می کند که در آینده قابل پیش بینی، زمانی که صحبت از تصمیمات مربوط به استفاده از نیروی کشنده می شود، شخص در مرکز توجه قرار خواهد گرفت.
مشکل این است که آزمایش بسیار آزاردهندهای که سرهنگ همیلتون در یک رویداد انجمن سلطنتی هوانوردی در ماه گذشته به حضار گفت، سناریویی را نشان میدهد که در آن تحمل خطا مورد بحث است.
همچنین بخوانید: