Технологічні лідери та видатні дослідники ШІ підписали відкритого листа, у якому закликають лабораторії та компанії, що займаються штучним інтелектом, «негайно призупинити» свою роботу.
Підписанти, серед яких, наприклад, є Стів Возняк та Ілон Маск, погоджуються, що ризики вимагають щонайменше шестимісячної перерви у виробництві технологій, що виходять за рамки GPT-4. Це потрібно для того, щоб отримати радість та задоволення від тих систем ШІ, які існують зараз, і дозволити людям пристосуватися до них і переконатися, що вони приносять користь.
У листі додається, що для забезпечення безпеки систем штучного інтелекту необхідні обережність і продуманість, проте їх ігнорують. Посилання на GPT-4, нову модель OpenAI, яка може відповідати текстом на письмові або візуальні повідомлення, з’являється в той час, коли компанії змагаються у створенні складних чат-систем, що використовують цю технологію. Наприклад, Microsoft нещодавно підтвердила, що її оновлена пошукова система Bing працює на основі моделі GPT-4 вже понад 7 тижнів, а Google нещодавно офіційно представила Bard – власну генеративну систему штучного інтелекту на основі LaMDA.
Занепокоєння навколо ШІ існує вже давно, але очевидна гонка за впровадженням найсучаснішої технології штучного інтелекту першою вже викликає тривогу. «В останні місяці лабораторії ШІ втягнуті в неконтрольовану гонку з розробки та впровадження все потужніших цифрових розумів, які ніхто – навіть їхні автори – не може зрозуміти, передбачити або надійно контролювати», – йдеться в листі.
Лист був опублікований некомерційною організацією Інститут майбутнього життя (Future of Life Institute, FLI), яка працює над мінімізацією глобальних катастрофічних та екзистенціальних ризиків і зловживань новими технологіями, зокрема ШІ. Раніше Маск пожертвував FLI $10 млн на дослідження безпеки штучного інтелекту. Окрім нього та Возняка, серед підписантів – низка світових лідерів у галузі ШІ, таких як президент Центру ШІ та цифрової політики Марк Ротенберг, фізик Массачусетського технологічного інституту та президент FLI Макс Тегмарк, а також письменник Юваль Ной Гарарі.
Минулого тижня Гарарі також виступив співавтором статті в New York Times, в якій попередив про ризики, пов’язані зі штучним інтелектом, над якою разом з ним працювали засновники Центру гуманних технологій та інші підписанти відкритого листа Трістан Харріс і Аза Раскін.
Цей заклик є наступним кроком після опитування, проведеного минулого року серед понад 700 дослідників машинного навчання, в якому майже половина учасників заявили, що ймовірність «надзвичайно поганих наслідків» від ШІ, включно з вимиранням людей, складає приблизно 10%. Відповідаючи на питання про безпеку в дослідженнях штучного інтелекту, 68% опитуваних сказали, що потрібно робити більше або набагато більше.
Читайте також: