Технології підробки голосу за допомогою штучного інтелекту є досить небезпечним інструментом – вони здатні правдоподібно відтворити людський голос навіть за коротким зразком. Не допустити створення штучної підробки зможе запропонований американським ученим алгоритм AntiFake.
Діпфейки являють собою досить небезпечне явище – з їхньою допомогою можна приписати знаменитому артисту або політику висловлювання, якого він ніколи не робив. Були також прецеденти, за яких зловмисник дзвонив жертві і голосом друга просив терміново переказати гроші у зв’язку з якоюсь надзвичайною ситуацією. Доцент кафедри комп’ютерних наук та інженерії Вашингтонського університету в Сент-Луїсі Нін Чжан запропонував технологію, яка значно ускладнює створення голосових діпфейків.
Принцип роботи алгоритму AntiFake полягає у формуванні умов, за яких системі ШІ виявляється набагато складніше зчитувати ключові характеристики голосу під час запису розмови реальної людини. “В інструменті використовується техніка змагального ШІ, яку спочатку застосовували кіберзлочинці, але тепер ми спрямували її проти них. Ми трохи спотворюємо записаний аудіосигнал, створюючи збурення рівно тою мірою, щоб для людини він звучав так само, а для ШІ – зовсім інакше”, – прокоментував свій проєкт пан Чжан.
Це означає, що під час спроби створити діпфейк на основі зміненого у такий спосіб запису згенерований ШІ голос не буде схожий на голос людини у зразку. Як показали проведені випробування, алгоритм AntiFake на 95% ефективний для запобігання синтезу переконливих діпфейків. “Що буде з голосовими ШІ-технологіями далі, я не знаю – нові інструменти та функції розробляються постійно, – але все ж таки вважаю, що наша стратегія використання техніки противника проти нього самого так і залишиться ефективною”, – підсумував автор проєкту.
Читайте також:
Leave a Reply