Команди OpenAI, покликаної захищати людство від штучного інтелекту, більше немає, її колишній керівник звільнився, заявивши, що проблеми безпеки “відійшли на задній план перед блискучими продуктами”.
Влітку 2023 року OpenAI створила команду Superalignment, метою якої було керувати і контролювати майбутні системи штучного інтелекту, які можуть стати настільки потужними, що призведуть до вимирання людства. Менш ніж через рік ця команда померла.
OpenAI повідомила Bloomberg, що компанія “глибше інтегрує групу у свої дослідницькі зусилля, щоб допомогти компанії досягти своїх цілей у сфері безпеки”. Але серія твітів Яна Лейке, одного з лідерів команди, який нещодавно звільнився, виявила внутрішню напруженість між командою з безпеки і великою компанією.
У заяві, опублікованій на X в п’ятницю, Лейке сказав, що команда Superalignment боролася за ресурси для проведення досліджень. “Створення розумніших за людину машин – небезпечна за своєю суттю справа, – написав Лейке. “OpenAI несе величезну відповідальність від імені всього людства. Але за останні роки культура і процеси безпеки відійшли на другий план, поступившись місцем блискучим продуктам”. OpenAI не відразу відповів на запит Engadget про коментар.
Відхід Лейке на початку цього тижня стався через кілька годин після того, як головний науковий співробітник OpenAI Суцкевар оголосив, що залишає компанію. Суцкевар був не тільки одним з лідерів команди Superalignment, але й одним із співзасновників компанії. Рішення Суцкевара було прийнято через шість місяців після того, як він брав участь у прийнятті рішення про звільнення генерального директора Сема Альтмана через занепокоєння, що Альтман не був “послідовно відвертим” з радою директорів. Надто швидке звільнення Альтмана спричинило внутрішній бунт у компанії: майже 800 співробітників підписали листа, в якому погрожували звільнитися, якщо Альтман не буде поновлений на посаді. Через п’ять днів Альтман повернувся на посаду генерального директора OpenAI після того, як Суцкевар підписав листа, в якому заявив, що шкодує про свої дії.
Оголошуючи про створення команди Superalignment, OpenAI заявила, що протягом наступних чотирьох років присвятить 20% своїх комп’ютерних потужностей розв’язанню проблеми управління потужними системами штучного інтелекту майбутнього. “[Вирішення] цього завдання має вирішальне значення для досягнення нашої місії”, – писала тоді компанія. На X Лейке писав, що команда Superalignment “бореться за обчислювальні потужності, і стає все важче і важче” проводити важливі дослідження з безпеки ШІ. “Останні кілька місяців моя команда пливе проти вітру”, – написав він і додав, що досяг “переломного моменту” в стосунках з керівництвом OpenAI через розбіжності щодо основних пріоритетів компанії.
За останні кілька місяців з команди Superalignment пішло ще більше людей. У квітні OpenAI звільнила двох дослідників, Леопольда Ашенбреннера та Павла Ізмайлова, за нібито витік інформації. OpenAI повідомила Bloomberg, що її майбутні зусилля з безпеки очолить Джон Шульман, ще один співзасновник, чиї дослідження зосереджені на великих мовних моделях. Якуб Пахоцький, директор, який керував розробкою GPT-4 – однієї з флагманських моделей великих мов OpenAI – замінить Суцкевара на посаді головного наукового співробітника.
Superalignment була не єдиною командою OpenAI, яка зосередилася на безпеці ШІ. У жовтні компанія створила нову команду “готовності”, щоб запобігти потенційним “катастрофічним ризикам” від систем ШІ, включаючи питання кібербезпеки, а також хімічні, ядерні та біологічні загрози.
Читайте також:
- OpenAI навчатиме свої ШІ-моделі на даних з Reddit
- На I/O 2024 Google анонсувала нові сервіси та застосунки зі ШІ