Bigme KIVI KidsTV
Categories: Аналітика

Чому ЄС прагне стати регулятором ШІ і як він планує це зробити

Європейський парламент схвалив законопроєкт, який стане основою майбутнього закону щодо правил регулювання ШІ. Давайте спробуємо розібратись, що собою являє EU AI Act.

Перш за все Закон ЄС про штучний інтелект (EU AI Act) має стати першим у світі законом, який комплексно регулює проблеми, пов’язані зі ШІ. Поки що схвалили тільки проєкт, а не сам закон. Тепер його представлять парламентам 27 країн-членів ЄС задля прийняття остаточного варіанту. Тобто, ЄС намагається стати своєрідним регулятором ШІ, встановити певні рамки і обмеження при розробці та впровадженні алгоритмів ШІ та машинного навчання.

Також цікаво: Роботи майбутнього: чи отримає штучний інтелект тіло?

Європейський Союз хоче регулювати штучний інтелект

Європейський Союз прагне покласти кінець безладу на ринку використання алгоритмів ШІ і береться за регулювання нових різновидів штучного інтелекту. Європейський парламент прискорив роботу над запропонованим Законом про штучний інтелект, який має ввести правила впровадження нових програм ШІ, і навіть заборонити їх використання у певних сферах життя.

Зараз ведуться дискусії щодо форми такого регулювання з огляду на поточний розвиток ШІ. По суті, депутати Європарламенту хочуть прописати в законі різницю між штучним інтелектом загального призначення та фундаментальними моделями, причому очікується, що до останніх закони застосовуватимуться більш строго. Ця модифікація раніше запропонованих положень викликана бурним розвитком ШІ останніми місяцями. Обидві форми штучного інтелекту відрізняються одна від одної масштабом навчальних даних, адаптивністю та ймовірністю використання для непередбачених цілей.

Всі ці параметри вищі саме в фундаментальних моделях, особливо в генеративному ШІ, який лежить в основі таких моделей, як GPT-3 і GPT-4. Вони обробляють величезну кількість даних, які постійно розширюються у процесі роботи. Тому вони можуть швидко вивчати нові дані, які можуть використовуватися зовсім не так, як це передбачалось творцями.

На основі нових рекомендацій буде розроблений триетапний розподіл груп на основі потенційних загроз, до яких може призвести ШІ. Найвищі ступені ризиків означатимуть обмеження використання технологій машинного навчання у чутливих секторах, а в деяких випадках навіть їх повну заборону.

Після введення Закону про штучний інтелект розробник технології повинен буде виконати низку умов, перш ніж випустити її на ринок, наприклад, перевірити її на предмет загроз демократії чи безпеці під наглядом незалежних експертів, відповідність вимогам прозорості, або розкриття обчислювальної потужності моделі. Водночас фундаментальні моделі не можна буде використовувати для створення систем соціального скорингу (як у Китаї) чи біометричної ідентифікації.

Цікаво також: Що таке мережі 6G і для чого вони потрібні?

Що являє собою Закон ЄС про штучний інтелект?

EU AI Act – це запропонований Євросоюзом закон про штучний інтелект, і є першим законом у сфері ШІ, який буде прийнятий великим регулюючим органом. Закон врегулює застосування ШІ відповідно до трьох категорій ризиків. По-перше, будуть заборонені програми та системи, які створюють неприйнятні соціальні ризики, як-от державне соціальне оцінювання, яке використовується в Китаї. По-друге, це програми з високим ризиком, наприклад, інструменти сканування резюме, що ранжують претендентів на роботу, які повинні відповідати певним вимогам законодавства. Нарешті, програми, які явно не заборонені або не внесені до списку високих ризиків, і які, здебільшого, не регулюються.

Європейський Союз працює над AI Act, тобто законами та правилами використання штучного інтелекту, спрямованими на обмеження шкоди, яку він може завдати людям.

Це підхід, заснований на загальних етичних цінностях, важливих для Союзу, що ставить його в опозицію до китайського підходу – заснованого на тотальному державному контролі та незначній важливості індивідуальних прав, і в опозицію до американської моделі, яка ігнорує права найбільш незахищених громадян.

Європейська комісія прагне створити європейське регуляторне середовище для принципів штучного інтелекту. Метою Закону про штучний інтелект (Artificial Intelligence Act) є регулювання ринку технологій не за типом послуги чи продукту, а з урахуванням рівня ризику, який може спричинити ШІ.

Цікаво також: Щоденник сварливого старого ґіка: Bing vs Google

Навіщо нам потрібні правила щодо ШІ?

Запропонований регламент штучного інтелекту гарантує, що європейці можуть довіряти тому, що може запропонувати штучний інтелект. Хоча більшість систем штучного інтелекту майже не становлять ризику та можуть сприяти вирішенню багатьох суспільних проблем, певні системи штучного інтелекту створюють загрози, які ми повинні враховувати, щоб уникнути небажаних результатів.

Наприклад, часто неможливо з’ясувати, чому система штучного інтелекту прийняла певне рішення, дала прогноз, або вжила відповідну дію. Таким чином, може стати складно оцінити, чи була якась людина несправедливо ущемлена, наприклад, у рішенні про прийом на роботу або в заявці на програму суспільного благоустрою.

Хоча чинне законодавство забезпечує певний захист, його недостатньо для вирішення конкретних проблем, які можуть створити системи ШІ.

Були запропоновані ось такі правила:

  • усунути ризики, створені спеціально програмами ШІ
  • запропонувати список програм з високим ризиком
  • встановити чіткі вимоги до систем штучного інтелекту для додатків із високим ризиком
  • визначити конкретні зобов’язання для користувачів штучного інтелекту та постачальників програм із високим ризиком
  • запропонувати оцінку відповідності перед тим, як систему ШІ буде введено в експлуатацію або розміщено на ринку
  • запропонувати сфери застосування після того, як така система ШІ буде розміщена на ринку;
  • запропонувати структуру управління на європейському та національному рівнях.

Теж цікаво: Найкращі інструменти на основі штучного інтелекту

Чотири рівні ризику в ШІ

Юристи Єропейського союзу визначили нормативно-правову базу, яка визначає 4 рівні ризику в ШІ:

  • Неприйнятний ризик
  • Високий ризик
  • Обмежений ризик
  • Мінімальний або відсутній ризик

Давайте більш детально розберемо кожен з них.

Неприйнятний ризик

Як зрозуміло з назви, цей ступінь ризику недопустимий при розробці та використанні алгоритмів ШІ. Тобто, усі системи штучного інтелекту, які вважаються явною загрозою безпеці, засобам існування та правам людей, будуть заборонені, від соціальних оцінок урядів до іграшок з використанням голосової допомоги, яка заохочує до небезпечної поведінки.

Високий ризик

До категорії високих ризиків віднесли системи ШІ, які використовуються в таких сферах:

  • критична інфраструктура (наприклад, транспорт), що може поставити під загрозу життя та здоров’я громадян
  • освітня або професійна підготовка, яка може визначати доступ до освіти та професійний шлях людини (наприклад, підрахунок результатів іспитів)
  • компоненти безпеки продуктів або застосування штучного інтелекту, наприклад, в хірургії
  • працевлаштування, управління працівниками та доступ до самозайнятості (наприклад, програмне забезпечення для сортування резюме для процедур найму)
  • основні приватні та державні послуги (наприклад, оцінка кредитоспроможності, що позбавляє громадян можливості отримати кредит)
  • правоохоронні дії, які можуть обмежити основні права людей у сфері судочинства (наприклад, оцінка достовірності доказів)
  • управління міграцією, наданням притулку та прикордонним контролем (наприклад, перевірка автентичності проїзних документів)
  • здійснення правосуддя та демократичні процеси (наприклад, застосування закону до конкретної сукупності фактів).

Було визначено, що системи штучного інтелекту високого ризику відповідатимуть суворим вимогам, перш ніж їх можна буде вивести на ринок:

  • адекватні системи оцінки та пом’якшення ризиків
  • висока якість наборів даних, що живлять систему, щоб мінімізувати ризики та дискримінаційні результати
  • реєстрація діяльності для забезпечення відстеження результатів
  • детальна документація, що містить усю необхідну інформацію про систему та її призначення, щоб органи влади могли оцінити її відповідність вимогам
  • чітка та адекватна інформація для користувача
  • належні заходи людського нагляду для мінімізації ризиків
  • високий рівень надійності, безпеки та точності.

Тепер про один з найважливіших аспектів, який злякав майже всіх. Усі системи дистанційної біометричної ідентифікації вважаються такими, що несуть високі ризики, та підпадають під строгі вимоги. Використання дистанційної біометричної ідентифікації в загальнодоступних місцях для правоохоронних цілей в принципі заборонено.

Передбачені строго визначені та регламентовані винятки, наприклад, коли це необхідно для пошуку зниклої дитини, для запобігання конкретним і безпосереднім терористичним загрозам або для виявлення, встановлення місцезнаходження, ідентифікації чи притягнення до відповідальності злочинця чи підозрюваного у вчиненні серйозного кримінального правопорушення.

Таке використання потребує дозволу судового чи іншого незалежного органу та має відповідні обмеження у часі, географічному охопленні та базах даних, у яких здійснюється пошук.

Обмежений ризик

Обмежений ризик відноситься до систем ШІ з певними зобов’язаннями щодо прозорості. Використовуючи системи штучного інтелекту, такі як чат-боти, користувачі повинні знати, що вони взаємодіють з машиною, щоб вони могли прийняти обґрунтоване рішення – продовжити або відступити.

Тобто, це означає, що ChatGPT ніхто не збирається забороняти, але розробники мають розкрити деталі своєї роботи і майбутніх планів. Користувачі ж повинні розуміти ризики, що на них чекають, якщо спиратись на достовірність отриманої від чат-ботів інформації.

Мінімальний або відсутній ризик

Єврокомісія дозволяє безкоштовно використовувати ШІ з мінімальним ризиком. Це включає такі програми, як, наприклад, відеоігри з підтримкою штучного інтелекту або фільтри спаму. Переважна більшість систем штучного інтелекту, які зараз використовуються в ЄС, підпадають під цю категорію.

Коли система штучного інтелекту виходить на ринок, органи влади відповідають за нагляд за ринком, користувачі забезпечують людський нагляд і моніторинг, а постачальники мають систему постмаркетингового моніторингу. Постачальники та користувачі також повідомлятимуть про серйозні інциденти та несправності.

Читайте також: 7 найкрутіших варіантів використання ChatGPT

Чому це має вас хвилювати?

Програми штучного інтелекту впливають на те, яку інформацію ви бачите в Інтернеті, передбачаючи, який вміст вас цікавить, збирають і аналізують дані, щоб забезпечити виконання законів або персоналізувати рекламу, а також використовуються для діагностики та лікування, наприклад, раку. Іншими словами, ШІ впливає на багато сфер вашого життя.

Подібно до Загального регламенту захисту даних ЄС (GDPR) від 2018 року, Закон ЄС про штучний інтелект може стати глобальним стандартом, який визначає, чи буде ШІ мати позитивний, а не негативний вплив на ваше життя, де б ви не були. Регулювання штучного інтелекту в ЄС вже викликає певний міжнародний резонанс. Наприкінці вересня 2021 року Конгрес Бразилії також прийняв законопроект, який створює правову базу для використання штучного інтелекту. Його ще має схвалити Сенат країни.

Законодавство, орієнтоване на майбутнє

Оскільки штучний інтелект є технологією, що швидко розвивається, пропозиція має перспективний підхід, що дозволяє правилам адаптуватися до технологічних змін. Програми штучного інтелекту повинні залишатися надійними навіть після того, як вони були розміщені на ринку. Це вимагає від постачальників постійного управління якістю та ризиками.

Такий закон має примусити виробників та постачальників алгоритмів ШІ бути більш відповідальними за свої розробки. Бути більш соціальними, а не просто думати про ріст доходів і неконтрольовані експерименти.

EU AI Act – перша регуляція штучного інтелекту

Закон ЄС про штучний інтелект має стати першим у світі законом, який комплексно регулює проблеми, пов’язані зі штучним інтелектом.

Це революційне рішення, яке має регулювати штучний інтелект залежно від його потенціалу заподіяння шкоди. Його буде заборонено використовувати, наприклад, у системах соціальних оцінок, біометричної ідентифікації в реальному часі або у маніпуляціях з підсвідомістю. Також виявлено групу програм з високим ризиком, наприклад, у медичній діагностиці чи судовій системі. У групі систем з обмеженим ризиком мають бути встановлені лише зобов’язання щодо прозорості.

У запропонованому законопроекті є кілька лазівок і винятків. Ці недоліки обмежують здатність Закону гарантувати, що ШІ залишатиметься силою добра у вашому житті. Зараз, наприклад, розпізнавання облич поліцією заборонено, якщо зображення не зроблено із затримкою, або якщо технологія використовується для пошуку зниклих дітей.

Крім того, закон негнучкий. Якщо через два роки небезпечний застосунок ШІ буде використано в непередбаченій сфері, закон не передбачає механізму, щоб позначити його як “високоризиковий”.

AI act — це насамперед прозорість, здатність пояснювати події та здатність відповідати за них, тобто можливість визначати, хто або що несе відповідальність за ту чи іншу подію. Закон про штучний інтелект також має стати правовою основою для створення нового Управління зі штучного інтелекту, яке має допомагати державам-членам у технічних питаннях.

Читайте також: Від CUDA до ШІ: секрети успіху NVIDIA

Технічні гіганти дорого заплатять за порушення законодавства ЄС щодо штучного інтелекту

Запропонована директива поширюватиметься лише на претензії щодо відшкодування збитків, спричинених результатом використання ШІ, або якщо система штучного інтелекту не змогла створити результат з вини особи, наприклад, постачальника чи користувача. Однак, Директива не стосується позовів про цивільну відповідальність, якщо шкоду було спричинено оцінкою людини, а потім її діями чи бездіяльністю, тоді як система штучного інтелекту лише надала інформацію чи поради, які були враховані відповідним актором. В останньому випадку можна відстежити збитки в результаті дій або бездіяльності людини, оскільки вихідні дані системи штучного інтелекту не вставляються між діями або бездіяльністю людини та збитком.

Порушення заборони призведе до фінансових санкцій для постачальників певних технологій. Вони можуть досягати 30 мільйонів євро або 6 відсотків річного глобального доходу компанії.

Звичайно, ухвалення таких рішень залежатиме від рішень держав-членів Євросоюзу, але вже зараз можна сказати, що це справді історичний крок. Технологія штучного інтелекту має величезний потенціал, який можна позитивно використати для розвитку економіки. Водночас є чимало ризиків. Тому законодавство намагається їх обмежити, але не заборонити.

Окрім ухвалення нового законодавства щодо штучного інтелекту, ЄС також має намір працювати зі США над створенням добровільного кодексу дій щодо цієї технології, який, як очікується, буде готовий незабаром, і може бути запропонований іншим країнам, які дотримуються подібних принципів.

Закон про штучний інтелект також має стати основою для створення Управління зі штучного інтелекту. Він призначений для підтримки держав-членів та їхніх органів влади у впровадженні нового регламенту за допомогою технічної експертизи, а також для сприяння координації рішень у разі виникнення проблем, які стосуватимуться більш ніж однієї країни.

Читайте також:

Share
Yuri Svitlyk

Син Карпатських гір, невизнаний геній математики, "адвокат "Microsoft, практичний альтруїст, лівоправосек

Leave a Reply

Your email address will not be published. Required fields are marked*