Categories: Технологии

Что такое дипфейк, чем он опасен и как его распознать

Сегодня расскажем о дипфейке, который стал распространенным и уже довольно привычным явлением. Благодаря этой технологии, информационные манипуляции вышли на новый уровень.

Вы видели, как королева Елизавета танцует на столе во время трансляции новогоднего послания? Или слушали речь Ким Чен Ына о демократии, восхищались ли Сальвадором Дали, рассказывающим о своей смерти (почему он не в нее верит)?

Все эти удивительные видео объединяет одно – они фальшивые. Deepfake – это методика создания и публикации ложной информации в виде видео, аудио и фотографий. Попасть на такие материалы сейчас все легче, поэтому мы подготовили для вас инструкцию о создании, распознавании и поиске дипфейковых видео в Интернете.

Читайте также: Блокчейны завтрашнего дня. Простыми словами о будущем криптовалютной индустрии

Дипфейк – что это?

Дипфейк (Deepfake) – это, по сути, фото, видео или аудио материал, который является ненастоящим, поддельным, то есть фейковым. Deepfake (сочетание двух слов – deep learning “глубокое обучение” и fake “подделка”) использует искусственный интеллект (AI) для глубокого обучения, чтобы создать сходство одного человека с другим в видео и других цифровых медиа материалах. Его создают алгоритмы на основе реальных образцов голоса, звука, видео или фотографий, которые сшиваются вместе. Алгоритм берет избранную информацию из разных мест, а затем объединяет ее в один материал. В результате создается нечто новое (ненастоящее), базирующееся на сочетании различных реальных данных.

Но это еще не всё. Дипфейк также может «нарисовать» фотографию с нуля, например, создав лица персонажей, которых никогда не существовало.

Какова цель таких действий? Среди прочего, Deepfake используется для распространения некорректной информации в Интернете (например, о политических деятелях или событиях), кражи (например, подделка голосовых команд) и создания порнографии (фильмы со знаменитостями – порно deepfake). Его можно использовать в образовательных и развлекательных целях.

Читайте также: О квантовых компьютерах простыми словами

Deepfake – как это работает?

Вообще существует два способа создания материалов deepfake. Первый способ использует два алгоритма. Сначала первый алгоритм (кодер) ищет общие черты двух изображений (тех, которые нужно объединить в одно), затем второй (декодер) может перенести их на вновь созданное изображение. Например, если мы хотим создать видео, в котором актер двигался бы, как мы, кодер берет движение с видео, где мы танцуем, а декодер уже заменит наше лицо на лицо актера и заставит его воспроизводить наши движения. Ключевыми здесь являются выбранные действия, которые копируются на новое изображение (например, движения, жесты, мимика).

Второй способ – с помощью генеративных соревновательных сетей (GAN), где два алгоритма работают вместе. Первый называется генератором, потому что, используя общую информацию, он создает образы (например, образ человека), объединяющие его отличительные признаки (у человека есть тело, лицо, есть глаза). Второй алгоритм является дискриминатором, который оценивает, являются ли изображения, предоставленные ему генератором, правдивыми или нет.

Со временем оба алгоритма становятся все более развитыми, поэтому обучаясь, они самосовершенствуются. Если генератор обучен так, что дискриминатор не распознает фейковое фото (считает его подлинным), процесс завершен.

Большое количество поддельного программного обеспечения можно найти на GitHub, сообществе с открытым кодом для сценариев, программ и кодов. Некоторые из этих программ используются исключительно в развлекательных целях, поэтому создание deepfake не запрещено, однако многое может использоваться и в преступных целях.

Многие эксперты считают, что в будущем с развитием технологий дипфейки станут гораздо сложнее и могут создать более серьезные угрозы обществу, связанные, например, с вмешательством в выборы, созданием политического напряжения или криминальной деятельностью.

Читайте также:

Угроза Deepfake – с каких пор она существует?

Впервые подобная поддельная информация появилась в 2017 году. Тогда пользователь под псевдонимом deepfake опубликовал на Reddit несколько порнографических фильмов, в которых были задействованы знаменитости, в т.ч. Скарлетт Йоханссон, Галь Гадот и Тейлор Свифт. С того времени эта отрасль стремительно развивается, ведь фильмы deepfake может снимать практически каждый.

В последние годы технология дипфейка развилась настолько, что сейчас становится все труднее определить, сфабриковано ли это видео, или настоящая запись реальных людей. Примером может служить видео с посланием Елизаветы II или речью Барака Обамы, которые быстро опубликовали на многих сайтах. Видео с заявлением бывшего президента США касалось вопроса мировых угроз, которые могут быть вызваны дезинформацией и фейковыми новостями, опубликованными в Интернете. В материале, опубликованном каналом BuzzFeedVideos, голосом 44 президента США стал американский режиссер и актер Джордан Пил. Однако искусственный интеллект уже способен сгенерировать голос на основе архивных записей человека, который должен появиться в фейковом фильме.

Такие передовые технологии могут стать опасным инструментом в руках киберпреступников и интернет-мошенников. Публикация фейковых видео с выступлениями важных политиков может нанести реальный ущерб на международном уровне. Такие фильмы, основанные на технологии deepfake, могут создавать дипломатические конфликты и скандалы, а значит, влиять на общественное мнение и поведение людей.

Еще одной потенциальной угрозой является контент для взрослых, который всегда генерировал наибольший трафик в виртуальном пространстве. Неудивительно, что технология deepfake так быстро попала в Интернет. Согласно отчету нидерландской компании Deeptrace, занимающейся кибербезопасностью, 96% сфабрикованных видео, созданных с помощью технологии дипфейка, являются контентом на такие темы. Чаще всего для изготовления подобных материалов используются образы кинозвезд, спортсменов и даже политиков и представителей власти.

Читайте также: Почему космическая миссия не может лететь в любой момент: Что такое стартовое окно?

Как сделать дипфейк?

Если дипфейковые видео может создавать любой, можно ли их сделать дома? Однозначно да, но их качество, конечно, не будет идеальным. Для создания таких видео требуются большие вычислительные ресурсы и мощные видеокарты. Тех, которые обычно имеются в домашних компьютерах, недостаточно, а сам процесс разработки может длиться неделями. Качество фильмов также оставит желать лучшего – будут видны ошибки, движения рта могут не соответствовать звуку, будут видны места перекрытия “старого” контента с “новым”.

Однако, если мы хотим немного “подправить” фотографию или сделать короткое видео deepfake, приложение для этого можно скачать прямо на смартфон. Очень простая в использовании программа за несколько минут устранит недостатки внешности, превратит вас в выбранную знаменитость или позволит вашей собаке говорить человеческим голосом.

Как распознать дипфейк?

Профессиональные дипфейковые видео становится все труднее и труднее распознать. Сначала алгоритмы имели проблемы с элементарным поведением (например, моргание глазами), и сразу было ясно, что фильм является подделкой. Сейчас эта ошибка исправлена. Фальшивые персонажи моргают, двигаются естественно и свободно говорят. Однако, иногда они все еще испытывают проблемы с естественным движением глаз.

Итак, как распознать дипфейк? Вот на что стоит обратить внимание при просмотре видео:

  • Успевает ли звук за движениями рта? Иногда они не совсем совпадают, и человек на видео двигает губами с опозданием относительно звука или неправильно формулирует слова.
  • Всевозможные явления, которые кажутся неестественными. Мы говорим здесь, среди прочего, о положении всего тела или головы по отношению к туловищу, неправильному отражению света на предметах, неправильному отражению света в украшениях и т.д. Признаком того, что плёнка является подделкой, также может быть неестественный цвет кожи.
  • Качество аудио и видео. Разница между ними поможет обнаружить deepfake. Обычно звуковая дорожка худшего качества.
  • Неровности изображения. Чаще они появляются на стыке тела и головы. Когда голова знаменитости “приклеена” к другому телу, в области шеи может появиться размытость. Иногда встречаются пробелы кадров (прерывность) и ошибки кадра (различный угол света, тип или направление).
  • Изменение хэштега во время видео – может означать, что перед нами deepfake-видео.

Просматривая материалы с точки зрения дипфейка, следует также полагаться на собственные ощущения. Иногда у нас создается впечатление, что что-то “не так”. Такое случается, среди прочего, когда эмоции человека, изображенного на экране, не совпадают с тем, что показывает выражение лица или тон голоса. Это также свидетельствует о том, что видео, возможно, было подделано.

Также интересно:

Как защититься от дипфейка?

Чтобы избежать глубокого фейкового мошенничества, специалисты советуют придерживаться таких шагов:

  • Создайте тайное слово или слоган с близкими людьми, такими как члены семьи или коллеги, которые докажут реальность ситуации с видео или записью. Это позволит быстро убедиться в неправдивости ситуации и избежать, например, вымогания денег.
  • Согласуйте с родственниками или коллегами перечень информации, о которой никогда не будут спрашивать через сообщения, например, в соцсетях или СМС. Важно, чтобы все заинтересованные стороны были проинформированы о реальной степени опасности.
  • Реализация каналов многофакторной аутентификации для проверки каждого запроса. Если общение начинается с текстового сообщения, то безопасным будет подтвердить информацию, связавшись с отправителем сообщения в форме разговора по предварительно согласованному и безопасному каналу связи.
  • Постоянное совершенствование компетенции в сфере безопасности, например, в форме обучения персонала по безопасности и киберпреступности. Повышение осведомленности о том, что такое дипфейк и как противодействовать этой угрозе.
  • Поддержка и развитие систем безопасности в информационно-коммуникационных технологических (ИКТ) средах.

Где можно столкнуться с дипфейком?

Фальшивый материал можно найти везде, где он может охватывать обширную аудиторию, то есть потенциальную аудиторию deepfake. Facebook, Instagram, TikTok и другие сайты социальных сетей полны такого рода материалов.

Это не только удивительные видео, но и “доработанные” фотографии и аудиозаписи. Бывало, что некоторые аутентичные профили знаменитостей полностью заполнялись дипфейковым материалом!

Это не единственное место, где можно найти дипфейк. На этой технологии также основано приложение для смартфона, позволяющее добавить к фотографии усы и бороду или другие спецэффекты (например, старение на несколько десятилетий). Так что может оказаться, что последнее фото, которое вы получили от друзей, немного “подрисовано”.

Также интересно: Почему космические аппараты оснащены процессорами 20 века

Deepfake-фильмы не только порнографические

Применение deepfake может быть как положительным, так и отрицательным. Фильмы с дипфейком могут быть игривыми или развлекательными. Здесь следует упомянуть видео, в котором королева Елизавета танцует на столе во время новогоднего послания. Это также цель большинства модификаций фотографий, которые мы делаем с помощью deepfake приложения на наших смартфонах. Это должно быть забавно и весело.

Материалы Deepfake также могут играть образовательную роль, например, “воскрешать” уже умерших художников, певцов или музыкантов. Некоторые музеи, в частности Музей Сальвадора Дали во Флориде, используют эту технологию, где посетителям свои работы “представляет” сам художник, с которым можно пообщаться и даже сфотографироваться.

Технология дипфейка используется в голосовых генераторах – устройствах, предназначенных для людей, потерявших способность говорить. Благодаря им, такие люди все еще могут разговаривать с нами своим голосом. Голос Велла Килмера, который он потерял из-за рака гортани, именно так был смоделирован в фильме “Топ Ган: Меверик”.

К сожалению, мы также имеем много примеров негативного использования дипфейка. Политика является примером, когда такого рода ложная информация может иметь далеко идущие глобальные последствия, например дискредитировать публичных деятелей, влиять на фондовый рынок, экономику или результаты выборов, или даже на ход боевых действий в войне. Хорошо подготовленная запись облегчает манипулирование общественным мнением. Поступательное развитие технологий еще более усложнит возможность отличить подлинные материалы от подделок. Следовательно, это шаг к падению социального доверия и информационному хаосу.

Дипфейковые видео, как мы уже упоминали, широко распространены в порноиндустрии. Чаще всего изменения заключаются в замене лица порноактрисы/актера на лицо знаменитостей или кинозвезд, конечно, без их согласия.

Читайте также: Космические пилотируемые миссии: почему возвращение на Землю до сих пор проблема?

Дипфейк – реальная угроза для всех нас

Дипфейк – проблема не только актеров и политиков. Кто угодно может пострадать от фейковых материалов. Элементом шантажа и вымогательства может стать сфабрикованное видео, на котором мы совершаем преступление или попадаем в недвусмысленную ситуацию – либо вы заплатите, либо мы раскроем. Если вы работаете в бизнесе, нужно понимать, что существует опасность использования дипфейка для дискредитации компании среди ее контрагентов.

Рост количества манипулятивных материалов также может повлиять на социальное доверие и доверие к предоставленной информации. Как можно почему-то верить, когда фильм, являющийся доказательством в суде, может быть фальшивым, а в новостях сообщается о несуществующих событиях?

Технология, позволяющая создать вредоносное изображение, аудиозапись или фильм, персонажи которого очень похожи на других людей, это новый уровень угроз со стороны киберпреступников. Особенно учитывая, что в социальных сетях они могут черпать практически неограниченные ресурсы исходного материала для создания дипфейков.

Программное обеспечение для машинного обучения может производить поиск в Facebook или Instagram, например, и ловить интересные фото или видео потенциальных “актеров”. На этой основе может быть создан очень четкий голос, образ и видео с участием данного человека, но со специально созданным фальшивым обращением, имитирующим, например, пребывание в серьезной беде – как жертва похищения или несчастного случая. На следующем этапе генерируется фальшивая просьба о помощи, например финансовой, адресованную родственникам “жертвы”.

Читайте также: Космический телескоп Джеймса Уэбба: 10 целей для наблюдения

Борьба с дипфейком

Поток ложной информации настолько велик, что многие социальные сети решили бороться с дипфейком. Facebook и Twitter пытаются обнаруживать поддельные видео и их автоматически удалять. Крупные корпорации (включая Microsoft или Amazon) инвестируют в создание программного обеспечения, которое будет обнаруживать фейковые материалы. Ученые также работают над решением этой проблемы.

Однако в ситуации, когда для создания фейкового фильма достаточно программы на смартфоне, борьба с дипфейком – это борьба с ветряными мельницами. Также нет правовых норм, определяющих последствия манипулирования информацией или использования чужого имиджа таким образом.

Deepfake становится все более популярным, и его все труднее отличить от истины. Это связано с усовершенствованием технологий, которые могут лучше имитировать человеческие движения и жесты. Дипфейковые программы можно использовать для благих целей, создавая учебные материалы или помогая людям, потерявшим голос после операции на гортани, но они также являются инструментом для хакеров, шантажистов и интернет-троллей.

Поэтому, если вы снова натолкнетесь на удивительное видео в Интернете, сначала проверьте, не является ли оно измененным или поддельным. Может быть, того, на что вы смотрите, никогда не было в реальности!

Читайте также:

Однако не забывайте, что в Украине идет война. Если вы хотите помочь Украине бороться с российскими оккупантами, лучший способ – сделать пожертвование для Вооруженных Сил Украины через Savelife или через официальную страницу НБУ.

Share
Yuri Svitlyk

Сын Карпатских гор, непризнанный гений математики, "адвокат" Microsoft, практичный альтруист, левоправосек

Leave a Reply

Your email address will not be published. Required fields are marked*