Багато людей стурбовані розвитком штучного інтелекту, особливо коли мова йде про створення машин, розумніших за людину. Навіть автор ChatGPT, компанія OpenAI, усвідомлює потенційні небезпеки суперінтелекту, включаючи вимирання людської раси, і зібрала команду, щоб зменшити ці ризики.
OpenAI пише, що управління системами ШІ, набагато розумнішими за людей, вимагає науково-технічних проривів, щоб керувати ними та контролювати їх. Щоб розв’язати цю проблему протягом чотирьох років, компанія створює нову команду і виділяє на ці цілі 20% своїх обчислювальних ресурсів.
OpenAI вважає, що суперінтелект стане найвпливовішою технологією з усіх коли-небудь винайдених і може допомогти вирішити багато світових проблем. Але його величезна потужність також може бути небезпечною і призвести до безправ’я людства або навіть до його вимирання. Такий штучний інтелект може здатися дуже далекою перспективою, але компанія вважає, що він може з’явитися вже в цьому десятилітті.
“Наразі у нас немає рішення, як керувати або контролювати потенційно надрозумний ШІ і не дати йому вийти з-під контролю”, – пишуть співзасновник OpenAI Ілля Суцкевер і Ян Лейке, співголова нової команди.
Оскільки люди не зможуть контролювати ШІ-системи, які набагато розумніші за нас, а існуючі методи вирівнювання не підходять для суперінтелекту, потрібні нові прориви. Мета команди супервирівнювання – створити “автоматизованого дослідника вирівнювання на рівні людини”. Під дослідженням узгодження мається на увазі забезпечення відповідності ШІ людським цінностям і слідування людським намірам. Мета полягає в тому, щоб навчити ШІ-системи, використовуючи людський зворотний зв’язок, потім навчити ШІ, який може допомогти оцінити інші ШІ-системи, і, нарешті, побудувати ШІ, який може виконувати дослідження вирівнювання швидше і краще, ніж людина.
OpenAI визнає, що вирішити технічні виклики суперінтелекту за чотири роки – амбітна мета, і немає жодних гарантій, що вона буде успішною, але компанія налаштована оптимістично. Зараз вона набирає дослідників та інженерів, щоб приєднатися до команди.
Ми бачили багато тривожних повідомлень про те, куди рухається ШІ, зокрема, один з “хрещених батьків ШІ” Джеффрі Хінтон, залишив Google з попередженням про те, що в міру того, як компанії користуються перевагами потужніших систем ШІ, вони стають все небезпечнішими.
Керівник OpenAI Сем Альтман був одним з кількох експертів, які нещодавно попередили про можливість того, що ШІ може призвести до вимирання людської раси, порівнявши ці системи з ризиками, які несуть ядерна війна та пандемії. Понад дві третини американців стурбовані загрозою для цивілізації, а Уоррен Баффет порівняв створення ШІ з атомною бомбою.
Однак не всі поділяють ці страхи. Головний науковий співробітник компанії Meta і ще один з трьох “хрещених батьків” ШІ, професор Ян Лекун, заявив, що застереження про те, що ШІ становить загрозу для людства, “сміховинні”.
Читайте також: