Root NationНовиниНовини ITНове дослідження проливає світло на темний бік штучного інтелекту

Нове дослідження проливає світло на темний бік штучного інтелекту

-

Штучний інтелект сьогодні рекламують як панацею майже для всіх обчислювальних проблем – від медичної діагностики до безпілотних автомобілів і запобігання шахрайству. Але коли ШІ зазнає невдачі, він робить це “досить ефектно”, каже Верн Глейзер з Альбертської школи бізнесу. У своєму нещодавньому дослідженні “Коли панують алгоритми, цінності можуть зів’янути” Глейзер пояснює, як імператив ефективності ШІ часто підміняє людські цінності, і чому ціна може бути високою. “Якщо ви не будете активно намагатися продумувати ціннісні наслідки, це призведе до поганих наслідків”, – каже він.

Глейзер наводить приклад невдалого бота Tay від Microsoft. Коли цей чат-бот був представлений у Twitter у 2016 році, його відкликали протягом 24 годин після того, як тролі навчили його вивергати расистські висловлювання.

Нове дослідження проливає світло на темний бік штучного інтелекту

Потім був скандал з “рободебетом” у 2015 році, коли австралійський уряд використовував штучний інтелект для виявлення переплат по безробіттю та допомозі з інвалідності. Але алгоритм вважав, що кожна розбіжність свідчить про переплату, і автоматично надсилав листи-повідомлення з вимогою погасити заборгованість. Якщо хтось не відповідав, справу передавали колекторам. До 2019 року програма виявила понад 734 тисяч переплат на суму 2 млрд австралійських доларів. “Ідея полягала в тому, що, усунувши людське судження, яке формується упередженнями та особистими цінностями, автоматизована програма прийматиме кращі, справедливіші та раціональніші рішення за значно менші кошти”, – каже Глейзер.

Але людські наслідки були жахливими, каже він. Парламентські перевірки виявили “фундаментальну відсутність процедурної справедливості” і назвали програму “неймовірно безправною для тих людей, які постраждали від неї, спричинивши значну емоційну травму, стрес і сором”, в тому числі щонайменше два самогубства.

Хоча ШІ обіцяє принести величезні переваги суспільству, ми також починаємо бачити його темне підґрунтя, каже Глейзер. У нещодавній колонці для Globe and Mail Лоуренс Мартін вказує на антиутопічні можливості ШІ, зокрема, на автономну зброю, яка може стріляти без нагляду людини, кібератаки, фейки та дезінформаційні кампанії. Колишній генеральний директор Google Ерік Шмідт попереджає, що ШІ може бути легко використаний для створення вбивчої біологічної зброї.

Нове дослідження проливає світло на темний бік штучного інтелекту

Свій аналіз Глейзер базує на понятті “техніка” французького філософа Жака Еллюля, запропонованому в його книзі “Технологічне суспільство” 1954 року, згідно з яким імперативи ефективності та продуктивності визначають кожну сферу людської діяльності.

“Еллюль був дуже прозорливим, – каже Глейзер. – Він стверджував, що коли ви проходите через цей процес техніки, ви по суті позбавляєтесь цінностей і створюєте цей механістичний світ, де ваші цінності по суті зводяться до ефективності. Не має значення, чи це штучний інтелект, чи ні. Штучний інтелект у багатьох відношеннях – це, можливо, лише крайній приклад цього”.

Глейзер пропонує дотримуватися трьох принципів, щоб захиститися від “тиранії техніки” в ШІ. По-перше, визнати, що оскільки алгоритми є математичними, вони покладаються на “проксі”, або цифрові представлення реальних явищ. Наприклад, Facebook вимірює дружбу за кількістю друзів у користувача або за кількістю лайків, отриманих від друзів. “Чи це справді міра дружби? Це міра чогось, але чи є це насправді дружбою – це вже інше питання”, – каже Глейзер, додаючи, що інтенсивність, природу, нюанси та складність людських стосунків можна легко випустити з уваги. “Коли ви оцифровуєте явища, ви, по суті, представляєте щось у вигляді числа. І коли ви отримуєте таку операціоналізацію, легко забути, що це урізана версія якоїсь ширшої концепції”.

Розробникам ШІ Глейзер рекомендує стратегічно вбудовувати людське втручання в алгоритмічне прийняття рішень і створювати оціночні системи, які враховують кілька значень. “Існує тенденція, коли люди впроваджують алгоритмічне прийняття рішень, щоб зробити це один раз, а потім відпустити”, – каже він, але ШІ, який втілює людські цінності, вимагає пильного і постійного нагляду, щоб запобігти появі його потворного потенціалу.

Нове дослідження проливає світло на темний бік ШІ

Іншими словами, ШІ просто відображає те, ким ми є – в найкращому і найгіршому сенсі. Останнє може взяти гору без доброго, уважного погляду в дзеркало. “Ми хочемо переконатися, що розуміємо, що відбувається, щоб ШІ не керував нами”, – каже він. “Важливо пам’ятати про темну сторону. Якщо ми зможемо це зробити, він може стати силою для суспільного блага”.

Теж цікаво:

Джерелоtechnology
Підписатися
Сповістити про
guest

0 Comments
Найновіше
Найстаріші Найбільше голосів
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі
Підписатися на оновлення