Bigme KIVI KidsTV
Categories: Новини IT

Пентагон хоче підвищити можливості ядерного озброєння США за допомогою AI

Сполучені Штати тривалий час дотримувалися суворої політики, згідно з якою людський нагляд необхідний для управління ядерною зброєю, і прямо обіцяли не допускати ухвалення автономних рішень штучним інтелектом, коли йдеться про запуск ракет. Однак Міністерство оборони США виявляє дедалі більший інтерес до інтеграції ШІ в системи управління, контролю і зв’язку ядерних сил для «підвищення» їхньої ефективності.

Щоб дізнатись останні новини, слідкуйте за нашим каналом Google News онлайн або через застосунок.

У заяві, зробленій наприкінці минулого місяця, генерал Ентоні Дж. Коттон, голова Стратегічного командування США, наголосив, що Америка активно вивчає всі можливі технології, прийоми та методи для модернізації можливостей ядерних технологій. Дослідження вже викликали дискусію, оскільки присутність ШІ у військових операціях з високими ставками не позбавлена прецедентів. Автономні системи, як-от винищувачі, безпілотники та навіть кулемети з ШІ, тепер є частиною арсеналу США, що посилює побоювання з приводу можливості катастрофічних помилок. Крім того, думка про те, що ШІ може ненавмисно вплинути на ядерні рішення, здається тривожно близькою до сюжету антиутопічного фільму.

Генерал Коттон, відповідаючи на ці побоювання на конференції з інформаційних систем розвідки Міністерства оборони 2024 року, знову заявив, що хоча ШІ справді сприятиме ухваленню рішень у структурах ядерного командування, він не замінить людське судження.

«Ми ніколи не повинні дозволити штучному інтелекту ухвалювати ці рішення за нас».

Коттон зазначив, що мета полягає в тому, щоб швидко і точно обробляти інформацію, залишаючи при цьому роль людини в ухваленні рішень. Передові системи ШІ, на його думку, можуть значно поліпшити час оперативного реагування, надавши командирам розширений простір для прийняття рішень.

Побоювання з приводу надійності ШІ в сценаріях з високими ставками небезпідставні. У лютому дослідники провели симуляцію міжнародних конфліктів із використанням п’яти основних мовних моделей: GPT-4, GPT-3.5, Claude 2.0, Llama-2-Chat і GPT-4-Base. У результаті було отримано тривожні результати: деякі моделі призвели до ескалації конфліктів і навіть до розгортання ядерної зброї без попереднього дозволу.

Якщо вам цікаві статті та новини про авіацію та космічну техніку — запрошуємо вас на наш новий проєкт AERONAUT.media.

Читайте також:

Share
Oleksii Diomin

Leave a Reply

Your email address will not be published. Required fields are marked*