Root NationНовиниНовини ITOpenAI формує нову команду для оцінки "катастрофічних ризиків" ШІ

OpenAI формує нову команду для оцінки “катастрофічних ризиків” ШІ

-

OpenAI формує нову команду для зменшення “катастрофічних ризиків”, пов’язаних зі штучним інтелектом. В оновленому повідомленні, опублікованому в четвер, OpenAI заявляє, що команда з підготовки буде “відстежувати, оцінювати, прогнозувати та захищати” від потенційно серйозних проблем, викликаних ШІ, в тому числі від ядерних загроз.

Команда також працюватиме над пом’якшенням “хімічних, біологічних і радіологічних загроз”, а також “автономної реплікації”, коли ШІ сам себе відтворює. Серед інших ризиків, на які звертатиме увагу команда з питань готовності, – здатність ШІ обманювати людей, а також загрози кібербезпеці.

OpenAI

“Ми віримо, що граничні моделі ШІ, які перевершать можливості найсучасніших існуючих моделей, можуть принести користь усьому людству, – пише OpenAI в оновленому звіті. “Але вони також створюють все серйозніші ризики”.

Олександр Мадрі, який наразі перебуває у відпустці з посади директора Центру розгорнутого машинного навчання Массачусетського технологічного інституту, очолить команду готовності. OpenAI зазначає, що команда з питань готовності також розробить і підтримуватиме “політику розробки з урахуванням ризиків”, в якій буде описано, що компанія робить для оцінки та моніторингу моделей ШІ.

Генеральний директор OpenAI Сем Альтман раніше вже попереджав про можливість катастрофічних подій, спричинених ШІ. У травні Альтман та інші видатні дослідники ШІ опублікували заяву з 22 слів про те, що “пом’якшення ризику вимирання через ШІ має бути глобальним пріоритетом”. Під час інтерв’ю в Лондоні Альтман також запропонував урядам ставитися до ШІ “так само серйозно, як і до ядерної зброї”.

Читайте також:

ДжерелоOpenAI
Subscribe
Notify of
guest

0 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
Підписатися на оновлення