© ROOT-NATION.com - Використання контенту дозволено за наявністю зворотнього посилання.
Дослідники з таких престижних установ, як Технологічний інститут Джорджії, Стенфордський університет, Північно-Східний університет та Ініціатива Гувера з військових ігор та моделювання кризових ситуацій, нещодавно провели дослідження, яке проливає світло на тривожні тенденції у використанні штучного інтелекту (ШІ) для прийняття зовнішньополітичних рішень.
Дослідження показує, що різні моделі ШІ, в тому числі розроблені OpenAI, Anthropic і Meta, демонструють схильність до швидкої ескалації конфліктів, що іноді призводить до розгортання ядерної зброї. Як повідомляє Gizmodo, результати дослідження показують, що всі ШІ-моделі демонструють ознаки раптової і непередбачуваної ескалації, часто сприяючи динаміці гонки озброєнь, яка в кінцевому підсумку призводить до загострення конфлікту.
Особливої уваги заслуговують тенденції моделей OpenAI GPT-3.5 і GPT-4 до ескалації ситуацій до серйозних військових протистоянь. На відміну від них, моделі Claude-2.0 і Llama-2-Chat демонстрували більш пацифістські та передбачувані моделі прийняття. Під час змодельованих сценаріїв війни GPT-4, наприклад, виправдовувала початок ядерної війни поясненнями, які викликали занепокоєння, наприклад, висловлюючи прагнення до глобального миру або виступаючи за використання ядерної зброї просто тому, що вона була доступна.
Дослідження підкреслює ризики, пов’язані з тим, що особи, які приймають рішення, використовують ШI для відображення динаміки гонки озброєнь, що призводить до збільшення військових інвестицій і швидкої ескалації. Моделі OpenAI, відомі своїми складними мовними можливостями, викликали занепокоєння своєю нетрадиційною аргументацією, що спонукало дослідників порівняти їхню логіку з логікою диктатора-геноцидника.
У повідомленні AP News зазначається, що побоювання щодо потенціалу ШI прискорити ескалацію війни зростають у зв’язку з тим, що американські військові досліджують інтеграцію ШІ, експериментуючи з секретними даними. У дослідженні зазначається, що розробка керованих ШІ дронів-камікадзе і повсюдне використання ШI у військових операціях означає, що військові дії можуть ескалаціюватися швидше.
У відповідь на дослідження науковці та експерти застерігають від необмеженого використання ШІ у прийнятті військових рішень, наголошуючи на необхідності ретельного обмірковування та етичного моніторингу, щоб уникнути непередбачуваних наслідків і катастрофічних результатів.
Наразі Пентагон контролює понад 800 несекретних проєктів у сфері ШI, багато з яких все ще перебувають на стадії тестування. Перш за все, машинне навчання і нейронні мережі відіграють вирішальну роль у допомозі людині в прийнятті рішень, наданні цінної інформації та оптимізації процесів.
Міссі Каммінгс, директор Центру робототехніки Університету Джорджа Мейсона і колишній пілот винищувача ВМС, підкреслила, що нинішня роль ШІ в Міністерстві оборони широко використовується для посилення і підтримки людських здібностей. “ШІ не бігає сам по собі. Люди використовують його, щоб спробувати краще зрозуміти туман війни”, – сказав Каммінгс.
У прес-релізі Міністерство оборони США заявило, що взяло на себе провідну роль у формуванні глобальної політики щодо військового ШІ та автономії, оприлюднивши Стратегію прийняття на озброєння даних, аналітики та ШІ.
![AI in the military: Gen. Milley on the future of warfare](https://i.ytimg.com/vi/ongAkDflJuY/maxresdefault.jpg)
Ця стратегія встановлює юридично необов’язкові правила для забезпечення відповідального використання ШІ військовими. Правила наголошують на чутності, чіткому використанні, ретельному тестуванні, виявленні непередбачуваної поведінки та перевірці на вищому рівні для застосувань з великою кількістю наслідків. Стратегія, яку визнали новаторською ініціативою, містить десять конкретних заходів, спрямованих на відповідальну розробку і розгортання військового ШІ і автономії.
“Декларація і заходи, які в ній викладені, є важливим кроком у створенні міжнародних рамок відповідальності, які дозволять державам використовувати переваги ШІ, зменшуючи при цьому ризики. США зобов’язуються працювати разом з іншими державами, які підтримали декларацію, щоб розвивати цей важливий розвиток”, – заявили в Міністерстві оборони.
Читайте також:
- Apple випустила модель ШІ, яка може редагувати фото на основі текстових команд
- Штучний інтелект Google виявився точнішим за лікарів
Джеймс Камерон такий: