Безліч компаній, включаючи Microsoft і Facebook, і навіть дослідників з Університету Південної Каліфорнії, розробляють технології для боротьби з діпфейками і запобіганню їх поширення жовтими медіа та дезінформації загалом. Однак групі вчених все ж вдалося їх обдурити.
Група комп’ютерних вчених з Каліфорнійського університету в Сан-Дієго попередила, що все ще можна обдурити існуючі системи виявлення діпфейків, вставляючи вхідні дані, звані «змагальними прикладами», в кожен відеокадр. Вчені представили свої висновки на конференції з комп’ютерного зору WACV 2021, яка пройшла онлайн в минулому місяці.
Змагальні приклади – це злегка змінені вхідні дані, які змушують системи штучного інтелекту, такі як моделі машинного навчання, робити помилки. Крім того, команда показала, що атака все ще працює після стиснення відео. На відео вище вчені показують, що XceptionNet, детектор діпфейків, маркує створене ними змагальне відео як «справжнє».
Більшість цих детекторів працюють, відстежуючи обличчя на відео і відправляючи дані обрізаних облич в нейронну мережу для аналізу. Потім нейронна мережа проаналізує ці дані і знайде елементи, які зазвичай погано відтворюються в діпфейках, такі як миготіння.
Шляхом вставки змагальних прикладів вчені виявили, що вони можуть обдурити ці детектори діпфейків, повіривши в те, що відео – справжні.
Вони стверджують в статті, що «для використання цих детекторів діпфейка на практиці важливо оцінювати їх проти адаптивного противника, який знає про цей захист і навмисно намагається зірвати його. Ми показуємо, що сучасні методи виявлення діпфейка можна легко обійти, якщо зловмисник повністю або навіть частково знає про детектор».
Як довели ці вчені, технології автоматизації, що розробляються для боротьби з дезінформацією, можуть ще не впоратися з цим завданням.
Читайте також: