Categories: Новини IT

Керівник відділу довіри та безпеки OpenAI залишає компанію

Керівник відділу довіри та безпеки OpenAI Дейв Вілнер залишив свою посаду, про що він повідомив у своєму пості на Linkedin. Вілнер залишиться в “ролі радника”, але попросив підписників Linkedin “звернутися до нього”, якщо у них з’являться відповідні можливості. Колишній керівник проєкту OpenAI стверджує, що цей крок пов’язаний з рішенням проводити більше часу з сім’єю. Так, так завжди кажуть, але Вілнер підкріплює це реальними деталями.

“У місяці, що минули після запуску ChatGPT, мені ставало все важче і важче виконувати свою частину угоди, – пише він. “OpenAI проходить через фазу високої інтенсивності у своєму розвитку – так само як і наші діти. Кожен, у кого є маленькі діти та надзвичайно інтенсивна робота, може відчути цю напругу”.

Він продовжує говорити, що “пишається всім”, чого досягла компанія за час його перебування на посаді, і зазначає, що це була “одна з найкрутіших і найцікавіших робіт” у світі.

Звичайно, цей перехід відбувається по гарячих слідах деяких юридичних перешкод, з якими стикається OpenAI і його фірмовий продукт, ChatGPT. Нещодавно FTC почала розслідування проти компанії через побоювання, що вона порушує закони про захист прав споживачів і займається “нечесною або оманливою” практикою, яка може зашкодити приватності та безпеці людей. Розслідування стосується помилки, яка призвела до витоку приватних даних користувачів, що, безумовно, підпадає під сферу довіри та безпеки.

Вілнер каже, що його рішення було “досить легким вибором, хоча й не таким, який люди на моїй посаді часто роблять так відверто публічно”. Він також заявляє, що сподівається, що його рішення допоможе нормалізувати більш відкриті дискусії про баланс між роботою та особистим життям.

В останні місяці зростає занепокоєння щодо безпеки штучного інтелекту, і OpenAI – одна з компаній, яка погодилася на вимогу президента Байдена і Білого дому запровадити певні гарантії безпеки для своїх продуктів. Вони включають надання доступу до коду незалежним експертам, позначення ризиків для суспільства, таких як упередженість, обмін інформацією про безпеку з урядом і водяні знаки на аудіо- та відеоконтенті, щоб люди знали, що він створений штучним інтелектом.

Читайте також:

Share
Oleksii Diomin

Leave a Reply

Your email address will not be published. Required fields are marked*