KIVI KidsTV
Root NationНовиниНовини ITКерувати надрозумним штучним інтелектом буде неможливо

Керувати надрозумним штучним інтелектом буде неможливо

-

Ідея про штучний інтелект, що скидає людство, обговорювалася протягом багатьох десятиліть, і в січні 2021 року вчені винесли свій вердикт про те, чи зможемо ми контролювати високорівневий комп’ютерний суперінтелект. Відповідь? Майже, напевно, ні.

Проблема в тому, що для управління надрозумом, що виходить далеко за межі людського розуміння, буде потрібна симуляція цього надрозуму, яку ми можемо проаналізувати. Але якщо ми не в змозі це зрозуміти, неможливо створити таку симуляцію.

Такі правила, як «не завдавати шкоди людям», не можуть бути встановлені, якщо ми не розуміємо, які сценарії вигадуватиме штучний інтелект (ШІ), вважають автори статті 2021 року. Щойно комп’ютерна система працюватиме на рівні, що перевищує можливості наших програмістів, ми більше не зможемо встановлювати обмеження.

Artificial Intelligence

«Надрозум є принципово іншою проблемою, ніж ті, які зазвичай вивчаються під вивіскою «етики роботів»», – пишуть дослідники. «Це пов’язано з тим, що надрозум багатогранний і, отже, потенційно здатний мобілізувати різноманітні ресурси для досягнення цілей, які потенційно незбагненні для людини, не кажучи вже про те, щоб їх можна було контролювати».

Частина міркувань команди виходить із проблеми зупинки, висунутої Аланом Тюрінгом у 1936 році. Проблема полягає в тому, щоб зрозуміти, чи прийде комп’ютерна програма до висновку та відповіді (і зупиниться) або просто вічно зациклюватиметься, намагаючись знайти відповідь.

Як довів Тюрінг за допомогою розумної математики, хоча ми можемо знати це для деяких конкретних програм, логічно неможливо знайти спосіб, який дозволить нам знати це для кожної потенційної програми, яка будь-коли може бути написана. Це повертає нас до ШІ, який у надінтелектуальному стані міг би зберігати у своїй пам’яті всі можливі комп’ютерні програми одночасно.

Теж цікаво:

Будь-яка програма, написана, наприклад, для того, щоб зупинити ШІ, що завдає шкоди людям і руйнує світ, може дійти висновку (і зупинитися) чи ні – математично неможливо бути абсолютно впевненим у будь-якому випадку, що означає, що вона не може бути стримуваною. «По суті це робить алгоритм стримування непридатним для використання», – сказав у січні комп’ютерний учений Іяд Рахван з Інституту розвитку людини імені Макса Планка в Німеччині.

Альтернативою навчанню ШІ етики та заборони на знищення світу, в чому жоден алгоритм не може бути абсолютно впевненим, кажуть дослідники, є обмеження можливостей надрозуму. Наприклад, він може бути відрізаний від частини Інтернету або певних мереж.

Автори недавнього дослідження відкидають і цю ідею, вважаючи, що це обмежить сферу застосування штучного інтелекту – мовляв, якщо ми не збираємося використовувати його для розв’язання проблем, що виходять за межі людських можливостей, то навіщо взагалі його створювати?

Artificial Intelligence

Якщо ми збираємося просувати штучний інтелект, ми можемо навіть не дізнатися, коли з’явиться надінтелект, непідвладний нашому контролю, настільки він незбагненний. Це означає, що нам потрібно почати ставити серйозні питання про те, в якому напрямку ми рухаємось.

«Надрозумна машина, яка керує світом, звучить як наукова фантастика», – каже комп’ютерний вчений Мануель Кебріан з Інституту розвитку людини імені Макса Планка. Але вже існують машини, які самостійно виконують деякі важливі завдання, при цьому програмісти не до кінця розуміють, як вони цьому навчилися.

Тому і постає питання, чи може він в якийсь момент стати неконтрольованим та небезпечним для людства…

Читайте також:

Джерелоsciencealert
Підписатися
Сповістити про
guest

0 Comments
Найновіше
Найстаріші Найбільше голосів
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі
Підписатися на оновлення