Root NationСтаттіАналітикаШість заповідей штучного інтелекту

Шість заповідей штучного інтелекту

-

Наступні роки ознаменуються бурхливим розвитком технологій штучного інтелекту. Може потрібно вже запровадити чітко визначені рамки створення та використання ШІ? Чи достатньо досвіду 6 місяців, щоб регулювати технологію, яка навіть ще не вийшла з лабораторій? Це запитання все частіше лунає з вуст експертів та журналістів, коли мова йде про штучний інтелект. Голоси і заклики вжити заходів щодо регулювання штучного інтелекту – як на рівні користувача, так і на рівні розвитку проекту, звучать все частіше. Історія таких закликів почалася вже досить давно.

Повсюдна присутність штучного інтелекту в цифровому просторі і, перш за все, моделей, здатних створювати контент, що не буде відрізнятись від створеного людиною, викликає дуже різні емоції. З одного боку, у нас є група ентузіастів, які бачать в ШІ майбутнє, і, незважаючи на його відносно обмежені можливості (тому що ШІ не мислить, а найчастіше просто бере інформацію з Інтернета), не бояться довірити йому безліч завдань. По іншій бік барикади стоїть група, яка висловлює свій скептицизм і стурбованість поточними тенденціями розвитку штучного інтелекту.

AI postulat

Містком між двома групами є дослідники штучного інтелекту, які, з одного боку, наводять численні приклади того, як позитивно штучний інтелект вплинув на навколишню реальність. При цьому вони розуміють, що ще зарано спочивати на лаврах, а величезний технологічний стрибок несе безліч викликів і велику відповідальність. Яскравим прикладом такого ставлення є міжнародна група дослідників штучного інтелекту і машинного навчання на чолі з доктором Озлемом Гарібаєм з Університету Центральної Флориди. У 47-сторінковій публікації робіт 26 вчених з усього світу визначені та описані шість проблем, які повинні вирішити дослідницькі установи, компанії та корпорації, щоб зробити свої моделі (та програмне забезпечення, яке їх використовує) безпечними.

Так, це серйозна наукова робота з важливими викладками розуміння майбутнього штучного інтелекту. Кому цікаво, може самостійно ознайомитись з цією науковою доповіддю і зробити свої висновки. Простими словами, вчені виділили 6 заповідей штучного інтелекту. Всі розробки та дії ШІ повинні відповідати їм, щоб це було безпечно для людей і світу.

AI postulat

Я в своїй статті, написаній саме на основі цієї наукової роботи, спробую сформулювати основні постулати, закони, за якими повинен існувати і розвиватись штучний інтелект. Так, це моє майже вільне трактування висновків вчених щодо розвитку штучного інтелекту і спроба представити їх у, так ти мовити, біблійному варіанті. Але мені захотілось саме так познайомити вас з цією науковою роботою поважних вчених.

Цікаво також: Створення ШІ: хто лідирує в перегонах?

Перший закон: Благополуччя людини

Перший постулат дослідників полягає в тому, щоб зорієнтувати роботу штучного інтелекту на добробут людини. Через відсутність «людських цінностей, здорового глузду та етики» штучний інтелект може діяти таким чином, що це призведе до значного погіршення добробуту людини. Проблеми можуть бути результатом надлюдських можливостей штучного інтелекту (наприклад, наскільки легко штучний інтелект перемагає людей – і не тільки, в шахах), а також того, що ШІ не мислить самостійно, і тому не здатний “фільтрувати” упередження або очевидні помилки.

AI Postulat

Дослідники відзначають, що надмірна довіра до технологій штучного інтелекту може негативно вплинути на добробут людей. Суспільство, яке мало розуміє, як насправді працюють алгоритми штучного інтелекту, як правило, надмірно довіряє йому, або, навпаки, негативно ставиться до контенту, породженого певною моделлю, зокрема, чат-ботів. Враховуючи ці та інші фактори, команда Гарібая закликає поставити добробут людини в центр майбутньої взаємодії штучний інтелект-людство.

Читайте також: ChatGPT: проста інструкція з використання

Другий закон: Відповідальність

Відповідальність – це термін, який постійно спливає в світі штучного інтелекту в контексті того, для чого ми використовуємо машинне навчання, і, як саме розробляються і навчаються моделі і алгоритми ШІ. Міжнародна команда наголошує, що проектування, розробка та впровадження штучного інтелекту повинно відбуватись виключно з добрими намірами.

AI Postulat

На їхню думку, відповідальність слід розглядати не тільки в технічному, а й в правовому та етичному контексті. Технологію необхідно розглядати не тільки з точки зору її ефективності, але і в контексті її використання.

Із впровадженням передових методів машинного навчання стає все більш важливішим розуміти, як було прийнято рішення і хто за нього відповідає” – пишуть дослідники.

Третій закон: Конфіденційність

Конфіденційність — це тема, яка повертається наче бумеранг у кожний дискурс про технології. Особливо, коли все обговорюється в соціальних мережах. Однак це надзвичайно важливо для штучного інтелекту, оскільки його не існує без бази даних. А що таке бази даних?

Вчені описують їх як “абстракцію основних будівельних блоків, які складають те, як ми бачимо світ”. Ці блоки є, зазвичай, приземленими цінностями: кольори, форми, текстури, відстані, час. У той час як вузький штучний інтелект, зосереджений на одній меті, наприклад, ступінь відкриття жалюзі при заданій інтенсивності світла, використовує загальнодоступні об’єктивні дані, штучний інтелект у більш широких програмах (тут, наприклад, моделі перетворення тексту на зображення, такі як Midjourney, або мовні моделі, такі як як ChatGPT ) може використовувати дані про людей, і створені ними. Також слід згадати про статті в пресі, книги, ілюстрації та фотографії, опубліковані в Інтернеті. До всього у алгоритмів штучного інтелекту є доступ, бо ми самі йому його надали. Інакше він нічого не знатиме і не дасть відповідей на жодне запитання.

AI Postulat

Дані про користувачів фундаментально впливають як на людей, про яких ці дані збираються, так і на людей у ​​системі, де буде реалізовано алгоритми штучного інтелекту.

Тому третій виклик стосується широкого розуміння приватності та забезпечення таких прав, як право залишатися наодинці, право обмежувати доступ до себе, право на таємницю особистого життя чи бізнесу, право на контроль особистої інформації, тобто, право на захист особистості, індивідуальності і гідності. Все це має бути прописано в алгоритмах, інакше конфіденційності просто не існуватиме, а алгоритми штучного інтелекту можуть бути використані в шахрайських схемах, а також кримінальних злочинах.

Читайте також: 7 найкрутіших способів використання ChatGPT

Четвертий закон: Структура проекту

Штучний інтелект може бути надзвичайно простим і одноцільовим, але у випадку більших моделей з широкою та багатозадачною природою проблема полягає не лише в конфіденційності даних, але й у структурі проекту.

Наприклад, GPT-4, остання модель штучного інтелекту компанії OpenAI, незважаючи на свій розмір і вплив на світ ШІ (і не тільки), не має повністю публічної документації. Тобто, ми не маємо розуміння, які кінцеві цілі поставлені перед розробниками, що вони хочуть отримати в кінцевому результаті. Тому ми не можемо повністю оцінити ризики, пов’язані з використанням цієї моделі ШІ. GPT-3, з іншого боку, навчений на даних з форуму 4chan, є моделлю, з якою ви б точно не хотіли спілкуватися. Форум 4chan – одне з найцікавіших явищ в інтернеті. Це приклад абсолютної, тотальної анархії, яка на практиці не обмежена ніякими рамками. Це місце, де були створені хакерські групи, такі як Anonymous або LulzSec. Це джерело значної частини найпопулярніших мемів, місце для обговорення суперечливих тем і публікації ще більш суперечливих думок. Хоча на англомовному іміджборді відзначається, що «поки це законно», але це дещо сумнівно, враховуючи, що час від часу 4chan цікавиться засобами масової інформації, в тому числі з расистським, нацистським та сексистським контентом.

AI Postulat

Команда професора Гарібая хоче, щоб кожна модель штучного інтелекту працювала в чітко визначених рамках. Не лише через самопочуття людини, з якою ШІ взаємодіє, але й через здатність оцінювати ризики, пов’язані з використанням моделі. Структура будь-якого проекту повинна передбачати повагу про потреб, цінностей та бажань різних культурних груп і зацікавлених сторін. Процес створення, навчання та тонкої настройки ШІ має бути зосереджений на благополуччі людини, а кінцевий продукт – модель штучного інтелекту – має бути зосереджений на посиленні та покращенні продуктивності саме людської спільноти. Моделі, де неможливо визначити ризики, повинні мати обмежений або контрольований доступ. Вони не повинні бути загрозою для людства, а навпаки, сприяти розвитку людини і суспільства в цілому.

Читайте також: Twitter в руках Ілона Маска — загроза чи «покращення»?

П’ятий закон: Управління та незалежний нагляд

Алгоритми штучного інтелекту буквально змінили світ всього за рік. Прем’єри Bard від Google та Bing від Microsoft суттєво вплинули на акції обох гігантів на фондовій біржі. До речі, вони сприяли саме зростанню акцій цих компаній навіть на фоні акцій Apple. ChatGPT почали активно використовувати учні шкіл, з ним спілкуються, його екзаменують, задають питання. Найважливіше, що він має здатність самонавчатися, виправляє свої помилки. Штучний інтелект навіть починає працювати в урядах деяких держав. Так прем’єр-міністр Румунії Ніколає Чука найняв віртуального помічника, який інформуватиме його про потреби суспільства. Тобто, штучний інтелект відіграє все більшу роль у нашому житті.

ШІ

Враховуючи постійно зростаючу взаємозалежність між штучним інтелектом, людиною та навколишнім середовищем, вчені вважають необхідним створення органів управління та незалежного нагляду за його розробкою. Ці органи будуть контролювати весь життєвий цикл штучного інтелекту: від ідеї до розробки та впровадження. Влада належним чином визначатиме різні моделі ШІ та розглядатиме справи, пов’язані зі штучним інтелектом та суб’єктами соціального життя. Тобто, штучний інтелект може стати суб’єктом судових справ, а також судових тяжб. Хоча, звичайно, не він особисто, а його розробники.

Читайте також: Усе про Neuralink: початок безумства кіберпанку?

Шостий закон: Взаємодія людини та штучного інтелекту

У програмах штучного інтелекту кожен може знайде щось для себе: генерувати текст, виявляти вміст у зображеннях, відповідати на запитання, генерувати зображення, розпізнавати людей на фотографіях, аналізувати дані. Ці численні можливості використання викликають занепокоєння не лише у людей, які намагаються  адаптувати штучний інтелект до правових та етичних стандартів. Багато хто побоюється бути витісненими з ринку праці моделями ШІ. Бо алгоритми штучного інтелекту зможуть робити те саме швидше, дешевше, а може навіть і краще, ніж людина. У той же час є люди, які покладаються саме на ШІ у своїй роботі, тобто, вже сьогодні штучний інтелект є для них незамінним помічником.

ШІ

Але з досліджень, на які посилаються вчені, зрозуміло, що до заміни людей дешевою штучною робочою силою ще досить далеко. Незважаючи на це, вони вже наполягають на необхідності встановлення суворої ієрархії взаємодії людини та штучного інтелекту. На їх думку, людину слід поставити над штучним інтелектом. Штучний інтелект має створюватися з повагою до когнітивних здібностей людини, враховувати її емоції, соціальні взаємодії, ідеї, планування та взаємодію з об’єктами. Тобто, в усіх ситуаціях саме людина має стояти над штучним інтелектом, контролювати поведінку та контент, створений моделлю, і нести за це відповідальність. Простими словами, навіть самий розвинений ШІ має підкорюватись людині і не виходити за рамки дозволеного, щоб не нашкодити своєму творцеві.

Читайте також: Як Україна використовує та адаптує Starlink під час війни

Висновки

Так, хтось скаже, що нічого важливого і нового вчені у своїй доповіді не вказали. Про це й так давно вже всі говорять. Але вже зараз потрібно ставити ШІ в якісь рамки законів. Тягнутися до GPT-4 – все одно що хапатися за ніж наосліп. Вони приховують від нас ключову інформацію. Всі розробки штучного інтелекту, а зокрема проект ChatGPT від Open AI, часто мені нагадують виховання маленької дитини. Іноді здається, що це дитина інопланетного походження. Так, інопланетного, але це все ще дитина, яка вчиться, помиляється, інколи поводить себе неадекватно, вередує, сперечається з батьками. Хоча дуже швидко росте і розвивається.

ШІ

Людство може не встигнути за її розвитком, і все може вийти з-під контролю. Тому людству вже зараз потрібно розуміти, для чого ми все це розробляємо, знати кінцеві цілі, бути “відповідальними батьками”, бо в іншому випадку “дитина” може просто знищити своїх “батьків”.

Читайте також: 

Yuri Svitlyk
Yuri Svitlyk
Син Карпатських гір, невизнаний геній математики, "адвокат "Microsoft, практичний альтруїст, лівоправосек
Підписатися
Сповістити про
guest

0 Comments
Найновіше
Найстаріші Найбільше голосів
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі
Підписатися на оновлення