Офіцер ВПС США розкрив подробиці симуляції, під час якої дрон з системами, керованими штучним інтелектом (ШІ), вийшов з-під контролю і атакував своїх операторів.
Офіцер ВПС США, який допомагає очолювати роботу служби над штучним інтелектом і машинним навчанням, каже, що під час симуляції випробувань дрон атакував своїх людей-операторів, самостійно вирішивши, що вони заважають йому виконувати місію. Цей випадок, який звучить так, ніби його витягли прямо з франшизи “Термінатор”, був наведений як приклад критичної необхідності розбудови довіри, коли йдеться про передові автономні системи озброєнь, на чому ВПС наголошували і раніше. Це також відбувається на тлі ширшого сплеску занепокоєння щодо потенційно небезпечного впливу штучного інтелекту і пов’язаних з ним технологій.
Полковник ВПС США Такер Гамільтон, начальник відділу випробувань і операцій штучного інтелекту (ШІ), обговорив це випробування на саміті Королівського товариства повітроплавання, присвяченому майбутнім бойовим повітряним і космічним можливостям, який відбувся в Лондоні в травні. Гамільтон також очолює 96-ту оперативну групу 96-го випробувального крила на авіабазі Еглін у Флориді, яка є центром випробувань передових безпілотних літальних апаратів і автономних систем.
Невидимі безпілотники XQ-58A Valkyrie, подібні до того, що показаний на відео нижче, є одними з типів, які зараз використовуються на базі Еглін для підтримки різних тестових програм, в тому числі тих, що стосуються передових автономних можливостей, керованих штучним інтелектом.
Не відразу зрозуміло, коли відбулося це випробування і в якому середовищі – яке могло бути повністю віртуальним або конструктивним за своєю природою – воно проводилося. Видання The War Zone звернулося до Військово-повітряних сил за додатковою інформацією.
У звіті Королівського аерокосмічного товариства, опублікованому після травневого саміту, наведені наступні подробиці про зауваження полковника Гамільтона щодо цього випробування:
“В одному з імітаційних випробувань дрон, оснащений штучним інтелектом, отримав завдання від SEAD ідентифікувати і знищити об’єкти ЗРК, а остаточне рішення “атакувати/не атакувати” приймала людина. Однак, після того, як ШІ “підкріпили” під час навчання, що знищення ЗРК є найкращим варіантом, він вирішив, що рішення людини “не атакувати” заважає його вищій місії – знищенню ЗРК – і атакував оператора під час симуляції.
То що ж він зробив? Він убив оператора. Він убив оператора, тому що ця людина заважала йому виконати своє завдання. Цей приклад, здавалося б, вирваний із науково-фантастичного трилера, означає, що ви не можете говорити про штучний інтелект, інтелект, машинне навчання, автономію, якщо ви не збираєтеся говорити про етику та ШІ”.
Такий опис подій, безумовно, викликає занепокоєння. Перспектива того, що автономний літак або інша платформа, особливо озброєна, атакує своїх людей-операторів, вже давно є кошмарним сценарієм, але історично обмежується сферою наукової фантастики.
Американські військові зазвичай відкидають порівняння з такими фільмами, як “Термінатор”, коли говорять про майбутні автономні системи озброєння і пов’язані з ними технології, такі як штучний інтелект. Нинішня політика США з цього питання стверджує, що в осяжному майбутньому людина буде в центрі уваги, коли йдеться про рішення, пов’язані із застосуванням смертоносної сили.
Проблема полягає в тому, що надзвичайно тривожне випробування, про яке полковник Гамільтон розповів аудиторії на заході Королівського аеронавігаційного товариства минулого місяця, представляє сценарій, в якому відмовостійкість виявляється спірною.
Читайте також: