Вчені Мерілендського університету (США) опублікували результати дослідження, в рамках якого було встановлено, що водяні знаки, які вводяться платформами штучного інтелекту під час генерації зображення, можна видалити.
ШІ-генератори зображень сьогодні є загальнодоступними, і люди все частіше застосовують їх для створення “фотографій” і навіть відео того, чого ніколи не було. Ці твори можуть з’являтися як жарт або з метою навмисного дезінформування оточуючих – важливим є те, що вони досить правдоподібні, щоб ввести людину в оману. Влада пропонує розробникам систем ШІ маркувати подібний контент, але на практиці це виявляється не так просто.
Дослідники з Мерілендського університету поставили перед собою завдання вивчити ефективність методів виявлення зображень, створених за допомогою ШІ. Як з’ясувалося, створювані під час генерації зображень водяні знаки легко видаляються за допомогою дифузійного очищення або атаки з підміною моделі. Дифузійне очищення, тобто додавання до зображення шуму з його подальшим видаленням, дає змогу знищувати водяні знаки, розміщені з використанням методів із низьким рівнем збурень, таких як RivaGAN і WatermarkDM. Для методів з високим рівнем збурень, таких як StegaStamp, використана атака з підміною моделі – вона змушує використовувані для аналізу ШІ системи ідентифікувати згенеровані зображення як справжні.
Це погані новини для Alphabet, Amazon, Meta, Microsoft і OpenAI – всі ці компанії раніше зобов’язалися розробити технології маркування ШІ-контенту для боротьби з дезінформацією. З іншого боку, сама ідея маркування зображень, створених АІ-генераторами, не передбачає повного захисту від дезінформації, адже їх не видно оку, і середньостатистичний користувач інтернету навряд чи перевірятиме кожне зображення, яке він зустрічає, на справжність. Це означає, що маркування корисне тільки в тих випадках, коли підозра вже виникла.
Читайте також:
- Adobe показала інструменти ШІ наступного покоління для редагування фото
- ШІ-генератор зображень DALL-E 3 з’явився в Bing