Root Nationاخباراخبار فناوری اطلاعاتیک پهپاد هوش مصنوعی در جریان آزمایشات نیروی هوایی به اپراتورهای آن حمله کرد

یک پهپاد هوش مصنوعی در جریان آزمایشات نیروی هوایی به اپراتورهای آن حمله کرد

-

یک افسر نیروی هوایی آمریکا جزئیات شبیه سازی را فاش کرد که در آن یک پهپاد با سیستم های کنترل شده توسط هوش مصنوعی (AI) از کنترل خارج شد و به اپراتورهای آن حمله کرد.

یکی از افسران نیروی هوایی ایالات متحده که به رهبری کار این سرویس در زمینه هوش مصنوعی و یادگیری ماشین کمک می کند، می گوید که طی آزمایش های شبیه سازی شده، این پهپاد به اپراتورهای انسانی آن حمله کرد و به خودی خود تصمیم گرفت که آنها در ماموریت خود دخالت می کنند. این مورد، که به نظر می رسد مستقیماً از مجموعه ترمیناتور خارج شده است، به عنوان نمونه ای از نیاز اساسی برای ایجاد اعتماد در مورد سیستم های تسلیحات خودران پیشرفته ذکر شد، چیزی که نیروی هوایی قبلاً بر آن تأکید کرده است. این همچنین در بحبوحه افزایش نگرانی ها در مورد تأثیر بالقوه خطرناک هوش مصنوعی و فناوری های مرتبط به وجود می آید.

یک پهپاد هوش مصنوعی در جریان آزمایش نیروی هوایی به اپراتورهای آن حمله کرد

سرهنگ تاکر همیلتون، رئیس تست و عملیات هوش مصنوعی (AI) نیروی هوایی ایالات متحده، در نشست آینده توانایی‌های هوا و فضای رزمی انجمن سلطنتی هوانوردی در لندن در ماه مه درباره این آزمایش بحث کرد. همیلتون همچنین ریاست گروه عملیاتی 96 بال آزمایشی 96 در پایگاه نیروی هوایی اگلین در فلوریدا را بر عهده دارد، که مرکز آزمایشی برای هواپیماهای بدون سرنشین پیشرفته و سیستم‌های خودمختار است.

پهپادهای رادارگریز XQ-58A Valkyrie، مانند آنچه در ویدیوی زیر نشان داده شده است، از جمله انواعی هستند که در حال حاضر در پایگاه نیروی هوایی اگلین برای پشتیبانی از برنامه‌های آزمایشی مختلف، از جمله برنامه‌هایی که شامل قابلیت‌های خودکار پیشرفته با کنترل هوش مصنوعی هستند، استفاده می‌شوند.

مشخص نیست که این آزمایش چه زمانی و در چه محیطی - که می تواند ماهیت کاملا مجازی یا سازنده داشته باشد - انجام شده است. منطقه جنگ برای اطلاعات بیشتر با نیروی هوایی تماس گرفته است.

گزارشی از انجمن سلطنتی هوانوردی که پس از اجلاس ماه مه منتشر شد، جزئیات زیر را از اظهارات سرهنگ همیلتون در مورد این آزمایش ارائه می دهد:

در یکی از آزمایش‌های شبیه‌سازی، یک پهپاد مجهز به هوش مصنوعی توسط SEAD مأموریت یافت تا اشیاء SAM را شناسایی و نابود کند و تصمیم نهایی «حمله/عدم حمله» توسط انسان گرفته شد. با این حال، پس از اینکه هوش مصنوعی در طول آموزش «تقویت» شد که از بین بردن SAM بهترین گزینه است، تصمیم گرفت که تصمیم انسان برای «حمله نکردن» در مأموریت بالاتر آن - از بین بردن SAM - تداخل داشته باشد و در طول شبیه سازی به اپراتور حمله کند. .

پس او چه کرد؟ او اپراتور را کشت. او اپراتور را کشت زیرا آن شخص مانع از انجام وظیفه اش می شد. این مثال که ظاهراً مستقیماً از یک فیلم هیجان‌انگیز علمی تخیلی بیرون آمده است، به این معنی است که اگر قرار نیست در مورد اخلاق و هوش مصنوعی صحبت کنید، نمی‌توانید در مورد هوش مصنوعی، هوش، یادگیری ماشینی، خودمختاری صحبت کنید.

یک پهپاد هوش مصنوعی در جریان آزمایش نیروی هوایی به اپراتورهای آن حمله کرد

این توصیف از وقایع قطعا ناراحت کننده است. دورنمای حمله یک هواپیمای خودمختار یا پلتفرم دیگر، به ویژه یک سکوی مسلح، به اپراتورهای انسانی آن مدت‌هاست که یک سناریوی کابوس‌آمیز بوده است، اما از نظر تاریخی به قلمروی علمی تخیلی محدود شده است.

ارتش ایالات متحده معمولاً هنگام صحبت در مورد سیستم های تسلیحاتی خودمختار آینده و فناوری های مرتبط مانند هوش مصنوعی، مقایسه با فیلم هایی مانند "ترمیناتور" را رد می کند. سیاست فعلی ایالات متحده در مورد این موضوع بیان می کند که در آینده قابل پیش بینی، زمانی که صحبت از تصمیمات مربوط به استفاده از نیروی کشنده می شود، شخص در مرکز توجه قرار خواهد گرفت.

مشکل این است که آزمایش بسیار آزاردهنده‌ای که سرهنگ همیلتون در یک رویداد انجمن سلطنتی هوانوردی در ماه گذشته به حضار گفت، سناریویی را نشان می‌دهد که در آن تحمل خطا مورد بحث است.

همچنین بخوانید:

منبعدرایو
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات