Categories: Новини IT

OpenAI формує команду для контролю над створенням “надрозумних” систем ШІ

За останніми даними, компанія OpenAI, яка започаткувала перегони ШІ, презентувавши надзвичайно ефективного чат-бота ChatGPT, сформувала спеціальну команду для управління і контролю над “надрозумними” ШІ-системами. Її головою став один із засновників компанії та її головний науковий співробітник Ілля Суцкевер.

Згідно з публікацією в блозі OpenAI, ШІ, що перевершує за можливостями людський розум, може з’явитися протягом десятиліття. При цьому зовсім не обов’язково, що цей “надрозум” буде доброзичливо налаштований до людства – тому необхідно шукати шляхи контролю та обмежень можливостей подібних систем.

Як заявляють в OpenAI, сьогодні відсутні рішення для ефективного контролю і управління надрозумними ШІ та запобігання “агресії” з його боку. Наявні технології налаштування штучного інтелекту засновані на навчанні з підкріпленням на основі зворотного зв’язку від людини. При цьому такі методики розраховують на те, що люди в принципі можуть контролювати ШІ, що малоймовірно з системами, потенційно розумнішими, ніж люди. Для вивчення цього питання спеціальна команда отримає доступ до 20% обчислювальних потужностей компанії. До них приєднаються вчені та програмісти з відділу, зайнятого налаштуванням ШІ в компанії, а також інших підрозділів – у найближчі чотири роки команда має намір впоратися з ключовими технічними викликами, пов’язаними з контролем надрозумного ШІ.

Фактично йдеться про тренування ШІ з використанням зворотного зв’язку. При цьому використовуватиметься спеціальний штучний інтелект, призначений для оцінки інших ШІ-систем і забезпечення бажаних результатів, а також забезпечення безпеки їхньої експлуатації. В OpenAI вважають, що штучний інтелект впорається з цим краще і швидше, ніж люди. У міру розвитку ШІ-системи компанії, ймовірно, братимуть на себе дедалі більше завдань і в підсумку стануть створювати і впроваджувати кращі технології налаштування, ніж є зараз. Вони працюватимуть разом із людьми для того, щоб їхні власні наступники більше відповідали потребам людей, а ті здійснюватимуть лише нагляд, не беручи в дослідженнях безпосередньої участі.

Звісно, жоден метод не має абсолютного захисту від помилок, про що й заявили в OpenAI. Використання одного ШІ для оцінки інших може призвести до зростання кількості помилок і вразливостей у створюваних ШІ, і взагалі може виявити, що найскладніша частина налаштування може бути пов’язана з найнесподіванішими аспектами роботи ШІ. Утім, у компанії переконані, що налаштування надрозуму в основі своїй є завданням машинного навчання, і критично важливу роль відіграватимуть фахівці в цій галузі. У компанії розраховують у майбутньому поділитися плодами своїх розвідок для налаштування та гарантування безпеки проєктів, навіть не пов’язаних з OpenAI.

За даними Reuters, противники ініціативи вважають, що ШІ з мисленням на рівні людського зможе вийти з-під контролю ще до того, як займеться забезпеченням безпечної роботи інших ШІ-систем. У квітні представники експертної та бізнес-спільноти опублікували відкритого листа, в якому застерігали від створення ШІ, досконалішого, ніж GPT-4.

Читайте також:

Share
Julia Alexandrova

Кофеман. Фотограф. Пишу про науку та космос. Вважаю, нам ще рано зустрічатися з прибульцями. Стежу за розвитком робототехніки, на всяк випадок ...

Leave a Reply

Your email address will not be published. Required fields are marked*