П’ятниця, 29 Березня, 2024

desktop v4.2.1

Root NationНовиниНовини ITШІ становить "ризик вимирання" на рівні з ядерною війною, кажуть лідери галузі

ШІ становить “ризик вимирання” на рівні з ядерною війною, кажуть лідери галузі

-

З появою ChatGPT, Bard та інших великих моделей ШІ ми чули застереження від людей, причетних до них, таких як Ілон Маск, про ризики, які несе в собі штучний інтелект. Тепер група відомих лідерів галузі зробила заяву з одного речення, яка фактично підтверджує ці побоювання.

ШІ

Заява була розміщена на сайті Центру безпеки штучного інтелекту (Center for AI Safety) – організації, місією якої є “зменшення ризиків, пов’язаних зі штучним інтелектом, у масштабах суспільства”. Серед підписантів – відомі представники індустрії штучного інтелекту, в тому числі виконавчий директор OpenAI Сем Альтман і керівник Google DeepMind Деміс Хассабіс. Лауреати премії Тьюринга Джеффрі Хінтон і Йошуа Бенгіо, яких багато хто вважає хрещеними батьками сучасного ШІ, також поставили свої підписи під цією заявою.

Це вже друга подібна заява за останні кілька місяців. У березні Маск, Стів Возняк і ще понад 1000 осіб закликали до шестимісячної паузи у розвитку ШІ, щоб дати можливість промисловості та громадськості ефективно освоїти технологію. “Останніми місяцями лабораторії штучного інтелекту втягнуті в неконтрольовану гонку з розробки та впровадження все більш потужних цифрових розумів, які ніхто – навіть їхні творці – не може зрозуміти, передбачити або надійно контролювати”, – йдеться в листі.

Хоча ШІ (ймовірно) не є самосвідомим, як дехто побоюється, він вже створює ризики зловживань і шкоди через глибокі підробки, автоматизовану дезінформацію тощо. ШІ також може змінити спосіб виробництва контенту, мистецтва та літератури, що потенційно може вплинути на численні робочі місця.

Президент США Джо Байден нещодавно заявив, що “ще належить з’ясувати”, чи є ШІ небезпечним, додавши: “На мою думку, технологічні компанії зобов’язані переконатися, що їхні продукти безпечні, перш ніж випускати їх у світ… ШІ може допомогти впоратися з деякими дуже складними проблемами, такими як хвороби та зміна клімату, але він також повинен враховувати потенційні ризики для нашого суспільства, нашої економіки, нашої національної безпеки”. На нещодавній зустрічі в Білому домі Альтман закликав до регулювання ШІ через потенційні ризики.

Зважаючи на велику кількість думок, нова коротка заява має на меті продемонструвати загальну стурбованість ризиками, пов’язаними зі штучним інтелектом, навіть якщо сторони не згодні з тим, що це за ризики.

ШІ

“Експерти зі штучного інтелекту, журналісти, політики та громадськість все частіше обговорюють широкий спектр важливих і нагальних ризиків, пов’язаних зі штучним інтелектом, – йдеться в преамбулі до заяви. “Незважаючи на це, може бути важко висловити занепокоєння з приводу деяких з найбільш серйозних ризиків, пов’язаних зі штучним інтелектом. Лаконічна заява, наведена нижче, має на меті подолати цю перешкоду і відкрити дискусію. Вона також покликана поінформувати про зростаючу кількість експертів і громадських діячів, які також серйозно ставляться до деяких з найсерйозніших ризиків, пов’язаних зі штучним інтелектом”.

Читайте також :

ДжерелоEngadget
Підписатися
Сповістити про
guest

0 Comments
Вбудовані Відгуки
Переглянути всі коментарі
Інші статті
Підписатися на оновлення

Останні коментарі

Популярне зараз
0
Ми любимо ваші думки, будь ласка, прокоментуйте.x