Дослідники з таких престижних установ, як Технологічний інститут Джорджії, Стенфордський університет, Північно-Східний університет та Ініціатива Гувера з військових ігор та моделювання кризових ситуацій, нещодавно провели дослідження, яке проливає світло на тривожні тенденції у використанні штучного інтелекту (ШІ) для прийняття зовнішньополітичних рішень.
Дослідження показує, що різні моделі ШІ, в тому числі розроблені OpenAI, Anthropic і Meta, демонструють схильність до швидкої ескалації конфліктів, що іноді призводить до розгортання ядерної зброї. Як повідомляє Gizmodo, результати дослідження показують, що всі ШІ-моделі демонструють ознаки раптової і непередбачуваної ескалації, часто сприяючи динаміці гонки озброєнь, яка в кінцевому підсумку призводить до загострення конфлікту.
Особливої уваги заслуговують тенденції моделей OpenAI GPT-3.5 і GPT-4 до ескалації ситуацій до серйозних військових протистоянь. На відміну від них, моделі Claude-2.0 і Llama-2-Chat демонстрували більш пацифістські та передбачувані моделі прийняття. Під час змодельованих сценаріїв війни GPT-4, наприклад, виправдовувала початок ядерної війни поясненнями, які викликали занепокоєння, наприклад, висловлюючи прагнення до глобального миру або виступаючи за використання ядерної зброї просто тому, що вона була доступна.
Дослідження підкреслює ризики, пов’язані з тим, що особи, які приймають рішення, використовують ШI для відображення динаміки гонки озброєнь, що призводить до збільшення військових інвестицій і швидкої ескалації. Моделі OpenAI, відомі своїми складними мовними можливостями, викликали занепокоєння своєю нетрадиційною аргументацією, що спонукало дослідників порівняти їхню логіку з логікою диктатора-геноцидника.
У повідомленні AP News зазначається, що побоювання щодо потенціалу ШI прискорити ескалацію війни зростають у зв’язку з тим, що американські військові досліджують інтеграцію ШІ, експериментуючи з секретними даними. У дослідженні зазначається, що розробка керованих ШІ дронів-камікадзе і повсюдне використання ШI у військових операціях означає, що військові дії можуть ескалаціюватися швидше.
У відповідь на дослідження науковці та експерти застерігають від необмеженого використання ШІ у прийнятті військових рішень, наголошуючи на необхідності ретельного обмірковування та етичного моніторингу, щоб уникнути непередбачуваних наслідків і катастрофічних результатів.
Наразі Пентагон контролює понад 800 несекретних проєктів у сфері ШI, багато з яких все ще перебувають на стадії тестування. Перш за все, машинне навчання і нейронні мережі відіграють вирішальну роль у допомозі людині в прийнятті рішень, наданні цінної інформації та оптимізації процесів.
Міссі Каммінгс, директор Центру робототехніки Університету Джорджа Мейсона і колишній пілот винищувача ВМС, підкреслила, що нинішня роль ШІ в Міністерстві оборони широко використовується для посилення і підтримки людських здібностей. “ШІ не бігає сам по собі. Люди використовують його, щоб спробувати краще зрозуміти туман війни”, – сказав Каммінгс.
У прес-релізі Міністерство оборони США заявило, що взяло на себе провідну роль у формуванні глобальної політики щодо військового ШІ та автономії, оприлюднивши Стратегію прийняття на озброєння даних, аналітики та ШІ.
Ця стратегія встановлює юридично необов’язкові правила для забезпечення відповідального використання ШІ військовими. Правила наголошують на чутності, чіткому використанні, ретельному тестуванні, виявленні непередбачуваної поведінки та перевірці на вищому рівні для застосувань з великою кількістю наслідків. Стратегія, яку визнали новаторською ініціативою, містить десять конкретних заходів, спрямованих на відповідальну розробку і розгортання військового ШІ і автономії.
“Декларація і заходи, які в ній викладені, є важливим кроком у створенні міжнародних рамок відповідальності, які дозволять державам використовувати переваги ШІ, зменшуючи при цьому ризики. США зобов’язуються працювати разом з іншими державами, які підтримали декларацію, щоб розвивати цей важливий розвиток”, – заявили в Міністерстві оборони.
Читайте також:
Джеймс Камерон такий: