29年2024月XNUMX日金曜日

デスクトップ v4.2.1

Root Nation記事テクノロジーディープフェイクとは何か、その危険性と認識方法

ディープフェイクとは何か、その危険性と認識方法

-

今日はディープフェイクについてお話しします。ディープフェイクは現在、広く普及し、非常に一般的な現象になっています。 この技術のおかげで、情報操作は新しいレベルに達しました。

新年のメッセージの放送中にエリザベス女王がテーブルの上で踊っているのを見ましたか? それとも金正恩の民主主義についての演説を聞いたのですか、それとも彼の死について語ったサルバドール・ダリを賞賛したのですか (なぜ彼はそれを信じないのですか)?

これらのすばらしい動画にはすべて、XNUMX つの共通点があります。それらは偽物です。 ディープフェイクとは、虚偽の情報を動画、音声、写真の形で作成して公開する手法です。 このような資料に出くわしやすくなってきているので、インターネット上でディープフェイク動画を作成、認識、検索するための手順を用意しました。

また読む: 明日のブロックチェーン: 暗号通貨業界の未来を簡単な言葉で

ディープフェイク - それは何ですか?

ディープフェイク(Deepfake)とは、実際には、本物でも偽物でもない写真、ビデオ、またはオーディオ素材、つまり偽物です。 ディープフェイク (ディープ ラーニングの「ディープ ラーニング」と偽の「フェイク」という XNUMX つの単語の組み合わせ) は、ディープ ラーニングに人工知能 (AI) を使用して、ビデオやその他のデジタル メディア マテリアルである人物の似顔絵を作成します。 これは、実際の音声、サウンド、ビデオ、または写真のサンプルをつなぎ合わせたアルゴリズムによって作成されます。 このアルゴリズムは、さまざまな場所から選択された情報を取得し、それを XNUMX つの資料に結合します。 その結果、さまざまな実際のデータの組み合わせに基づいて、何か新しい (偽) が作成されます。

ディープフェイク

しかし、それだけではありません。 Deepfake は、たとえば存在しなかったキャラクターの顔を作成するなど、写真をゼロから「ペイント」することもできます。

そのような行動の目的は何ですか? とりわけ、ディープフェイクは、インターネット上での誤った情報 (政治家やイベントに関する情報など) の拡散、窃盗 (音声コマンドの偽造など)、ポルノ (有名人の映画 - ディープフェイク ポルノ) の作成に使用されます。 また、教育目的や娯楽目的にも使用できます。

また読む: 量子コンピューターについて簡単に言うと

ディープフェイク - どのように機能しますか?

一般に、ディープフェイク マテリアルを作成するには XNUMX つの方法があります。 最初の方法では、XNUMX つのアルゴリズムを使用します。 最初に、最初の (エンコーダー) が XNUMX つの画像 (XNUMX つに結合されるもの) の共通の特徴を探し、次に XNUMX 番目の (デコーダー) がそれらを新しく作成された画像に転送します。 たとえば、俳優が私たちのように動くビデオを作成したい場合、エンコーダーは私たちが踊っているビデオから動きを取得し、デコーダーはすでに私たちの顔を俳優の顔に置き換えて、彼に私たちの動きを再現させます. ここで重要なのは、新しい画像にコピーされる選択されたアクション (動き、ジェスチャー、顔の表情など) です。

- 広告 ​​-

XNUMX つ目の方法は、XNUMX つのアルゴリズムが連携して機能する敵対的生成ネットワーク (GAN) を使用する方法です。 XNUMX つ目はジェネレーターと呼ばれます。これは、一般的な情報を使用して、特徴 (体、顔、目を持っている人) を組み合わせた画像 (たとえば、人の画像) を作成するためです。 XNUMX 番目のアルゴリズムは、ジェネレータによって与えられたイメージが真かどうかを評価する弁別器です。

ディープフェイク

時間が経つにつれて、両方のアルゴリズムがより高度になるため、学習して改善します。 ディスクリミネーターが偽の写真を認識しない (本物と見なす) ようにジェネレーターがトレーニングされている場合、プロセスは完了です。

スクリプト、プログラム、およびコードのオープン ソース コミュニティである GitHub では、大量の偽造ソフトウェアを見つけることができます。 これらのプログラムの一部は純粋に娯楽目的で使用されるため、ディープフェイクの作成は禁止されていませんが、その多くは犯罪目的にも使用できます。

多くの専門家は、将来、テクノロジーの発展に伴い、ディープフェイクはより複雑になり、選挙への干渉、政治的緊張の発生、犯罪活動に関連して、社会に対してより深刻な脅威を生み出す可能性があると考えています.

また読む:

Deepfake の脅威 - いつから存在していたのか?

2017年に初めて、そのような偽の情報が登場しました。 次に、ユーザーはエイリアスです ディープフェイク Reddit で、有名人が関与したいくつかのポルノ映画を公開しました。 スカーレット・ヨハンソン、ガル・ガドット、テイラー・スウィフト。 それ以来、この業界は急速に発展しており、ほとんどの人がディープフェイク映画を撮影できるようになりました。

https://youtu.be/IvY-Abd2FfM

近年、ディープフェイクの技術が非常に発達したため、それが捏造されたビデオなのか、本物の人間の録音なのかを判断することがますます難しくなっています。 例としては、エリザベス 44 世のメッセージやバラク・オバマの演説を含むビデオがあり、これらはさまざまなサイトですぐに公開されました。 元米国大統領の声明を含むビデオは、インターネット上で公開された誤った情報や偽のニュースによって引き起こされる可能性のある世界的な脅威に対処しました. BuzzFeedVideos チャンネルで公開された資料では、アメリカの映画監督で俳優のジョーダン ピールが第 XNUMX 代アメリカ合衆国大統領の声を担当しました。 しかし、現在、人工知能はすでに、フェイク映画に登場するはずの人物のアーカイブ録音に基づいて声を生成することができます.

このような高度な技術は、将来、サイバー犯罪者やインターネット詐欺師の手に渡る危険なツールになる可能性があります。 重要な政治家による演説の偽のビデオの公開は、国際レベルで実際の損害を引き起こす可能性があります. ディープフェイク技術に基づくこのような映画は、外交紛争やスキャンダルを引き起こし、世論や人々の行動に影響を与える可能性があります。

もう 96 つの潜在的な脅威は、仮想空間で常に最も多くのトラフィックを生成してきたアダルト コンテンツです。 ディープフェイク テクノロジーがこれほど早くインターネットに登場したのも不思議ではありません。 オランダのサイバーセキュリティ会社 Deeptrace のレポートによると、ディープフェイク技術を使用して作成された捏造ビデオの XNUMX% は、そのようなトピックに関するコンテンツです。 ほとんどの場合、映画スター、スポーツ選手、さらには政治家や政府の代表者の画像が、そのような資料の作成に使用されます。

また読む: 宇宙ミッションがいつでも飛行できない理由: 起動ウィンドウとは?

- 広告 ​​-

ディープフェイクの作り方は?

誰でもディープフェイク動画を作れるなら、自宅でも作れる? 確かにそうですが、もちろん、それらの品質は完璧ではありません。 このようなビデオを作成するには、大規模なコンピューティング リソースと強力なビデオ カードが必要です。 通常家庭用コンピューターにあるものでは不十分であり、開発プロセス自体が数週間続くこともあります。 映画の品質にも多くの要望が残されています - 目に見えるエラーがあり、口の動きが音に対応していないかもしれません。

ただし、写真を少し「修正」したり、短いディープフェイク ビデオを作成したりする場合は、そのためのプログラムをスマートフォンに直接ダウンロードできます。 非常に使いやすいプログラムは、数分で外見の欠陥を取り除き、あなたを選ばれた有名人に変えたり、あなたの犬が人間の声で話すことを可能にします.

また読む:

ディープフェイクを見分ける方法は?

プロのディープフェイク動画を見つけるのはますます難しくなっています。 当初、アルゴリズムには基本的な動作 (まばたきなど) に問題があり、映画が偽物であることがすぐに明らかになりました。 このエラーは修正されました。 偽のキャラクターはまばたきをし、自然に動き、流暢に話します。 ただし、自然な眼球運動に問題がある場合もあります。

ディープフェイク

では、ディープフェイクを見分ける方法は? 動画を視聴する際の注意点は次のとおりです。

  • 口の動きに合わせて音は出ますか? 時々それらは完全に一致せず、ビデオの人物は音に対して遅れて唇を動かしたり、言葉を間違って発音したりします.
  • 不自然に見えるありとあらゆる現象。 ここでは、とりわけ、胴体に対する全身または頭の位置、物体への光の誤った反射、ジュエリーへの光の誤った反射などについて話しています。 不自然な肌の色も、フィルムが偽物であることを示している可能性があります。
  • オーディオとビデオの品質。 それらの違いは、ディープフェイクの検出に役立ちます。 通常、サウンドトラックの品質は低くなります。
  • 画像の不規則性。 ほとんどの場合、それらは体と頭の接合部に現れます。 有名人の頭が別の体に「接着」されると、首の部分にぼやけが現れることがあります. 場合によっては、フレーム スキップ (間欠性) やフレーム エラー (異なる光の角度、種類、または方向) が発生します。
  • ビデオの途中でハッシュタグを変更すると、ディープフェイク ビデオがあることを意味する場合もあります。

ディープフェイクの観点から資料を見るときは、自分の感覚に頼ることも価値があります。 何かが「間違っている」という印象を受けることがあります。 これは、とりわけ、画面に描かれている人の感情が、顔の表情や声のトーンが示すものと一致しない場合に発生します。 これはまた、ビデオが偽造された可能性があることを示唆しています。

また興味深い:

ディープフェイクから身を守るには?

ディープフェイク詐欺を回避するために、専門家は次の手順に従うことをお勧めします。

  • 家族や同僚などの愛する人と秘密の言葉やスローガンを作成し、ビデオや録音で状況の現実を証明します。 これにより、状況の虚偽をすばやく確認し、たとえば、金銭の強要を回避できます。
  • ソーシャル ネットワークや SMS などのメッセージを介して尋ねられることのない情報のリストについて、親戚や同僚と合意します。 すべての利害関係者に危険の真の程度を知らせることが不可欠です。
  • 各リクエストを検証するための多要素認証チャネルの実装。 通信がテキスト メッセージで始まる場合、情報を確認する最も安全な方法は、事前に合意された安全な通信チャネルを介して会話の形でメッセージの送信者に連絡することです。
  • セキュリティとサイバー犯罪に関するスタッフのトレーニングなど、セキュリティ能力の継続的な改善。 ディープフェイクとは何か、この脅威に対抗する方法についての認識を高めます。
  • 情報通信技術 (ICT) 環境におけるセキュリティ システムのサポートと開発。

どこでディープフェイクに遭遇できますか?

偽物は、多くの聴衆、つまり潜在的なディープフェイクの聴衆に到達できる場所ならどこでも見つけることができます。 Facebook, Instagram、TikTok などのソーシャル メディア サイトには、この種のコンテンツがあふれています。

これらは素晴らしいビデオだけでなく、「洗練された」写真とオーディオ録音でもあります。 本物の有名人のプロフィールの中には、ディープフェイクのもので完全に埋め尽くされているものもあります!

ディープフェイクを見つけることができる場所はこれだけではありません。 スマートフォン用のアプリケーションもこの技術に基づいており、口ひげやあごひげ、またはその他の特殊効果を写真に追加できます(たとえば、数十年経った老化)。 そのため、友達から最後に受け取った写真が少し「控えめ」であることが判明する場合があります。

また興味深い:

ディープフェイク映画はポルノだけではない

ディープフェイクの使用は、ポジティブにもネガティブにもなり得ます。 ディープフェイク ムービーは、遊び心のあるものでも、楽しいものでもあります。 ここで、新年のメッセージ中にエリザベス女王がテーブルで踊っているビデオに言及する必要があります。 これは、私たちがスマートフォンのディープフェイク アプリで行っているほとんどの写真修正の目的でもあります。 面白くて楽しいはずです。

ディープフェイクの素材は、たとえば、すでに亡くなったアーティスト、歌手、ミュージシャンを「復活させる」など、教育的な役割を果たすこともできます。 一部の美術館、特にフロリダのサルバドール・ダリ美術館ではこの技術を使用しており、訪問者はアーティスト自身から作品を「提示」され、会話したり、写真を撮ったりすることもできます。

ディープフェイク テクノロジーは、音声発生器 (話す能力を失った人のために設計されたデバイス) に使用されています。 彼らのおかげで、彼らは今でも自分の声で私たちに話しかけることができます。 喉頭がんで失ったヴァル・キルマーの声は、『トップガン: マーベリック』でモデル化された.

残念ながら、ディープフェイクの否定的な使用例も数多くあります。 政治は、この種の誤った情報が広範囲にわたる世界的な結果をもたらす可能性がある例です。たとえば、著名人の信用を傷つけたり、株式市場、経済や選挙結果に影響を与えたり、戦争での戦争行為にさえ影響を与えたりする可能性があります。 よく準備された記録は、世論の操作を容易にします。 技術の進歩的な発展により、本物と偽物を区別することはさらに難しくなります。 したがって、これは社会的信頼と情報の混乱への一歩です。

すでに述べたように、ディープフェイク動画はポルノ業界で広まっています。 ほとんどの場合、変更はポルノ女優/俳優の顔を有名人や映画スターの顔に置き換えることで構成されます。もちろん、彼らの同意なしに.

また読む: 有人宇宙ミッション: なぜ地球への帰還は依然として問題なのか?

ディープフェイクは私たち全員にとって真の脅威です

ディープフェイクは俳優や政治家だけの問題ではありません。 誰でも偽のコンテンツの影響を受ける可能性があります。 脅迫や恐喝の要素は、私たちが犯罪を犯したり、あいまいな状況に陥ったりするような捏造されたビデオである可能性があります-あなたが支払うか、私たちが明らかにする. ビジネスで働いている場合は、ディープフェイクを使用して取引相手の間で会社の信用を落とす危険性があることを理解する必要があります。

ディープフェイク

操作的な資料の量の増加は、提供される情報に対する社会的信頼と信頼にも影響を与える可能性があります。 法廷で証拠となる映画が虚偽である可能性があり、ニュースが存在しない出来事について報告している場合、どうすれば何かを信じることができますか?

ディープフェイク

キャラクターが他人に非常に似ている悪意のある画像、音声録音、またはムービーを作成できるテクノロジーは、サイバー犯罪者による新しいレベルの脅威です。 特に、ソーシャルネットワークでは、ディープフェイクを作成するためのソース素材のほぼ無制限のリソースを引き出すことができるという事実を考えると.

機械学習ソフトウェアは、 Facebook або Instagramたとえば、潜在的な「俳優」の興味深い写真やビデオをキャッチします。 これに基づいて、人の非常に明確な声、画像、およびビデオを作成できますが、たとえば、誘拐または事故の犠牲者として深刻な問題を抱えていることをシミュレートする特別に作成された偽のアピールを使用します。 次の段階では、「犠牲者」の親戚に宛てた、たとえば金銭的な援助の偽の要求が生成されます。

また読む: ジェームズ・ウェッブ宇宙望遠鏡: 観測する 10 のターゲット

ディープフェイクとの戦い

虚偽の情報の流れは非常に大きいため、多くのソーシャル ネットワークがディープフェイクと戦うことを決定しました。 Facebook і Twitter 偽のビデオを検出し、自動的に削除しようとします。大企業(含む) Microsoft または Amazon) は、偽のコンテンツを検出するソフトウェアに投資しています。科学者もこの問題の解決策に取り組んでいます。

しかし、フェイクムービーを作るのにスマートフォンアプリで十分な状況では、ディープフェイクと戦うことは風車と戦うようなものです。 また、このように情報を操作したり、他人の画像を使用したりすることの結果を決定する法的規範もありません。

ディープフェイク

ディープフェイクはますます人気が高まっており、真実と区別することはますます難しくなっています。 これは、人間の動きやジェスチャーをよりよく模倣できる技術の向上によるものです。 ディープフェイクは、教材を作成したり、喉頭手術後に声を失った人々を支援したりするなど、正当な目的で使用できますが、ハッカー、脅迫者、インターネット荒らしのためのツールでもあります.

したがって、インターネットで再び素晴らしいビデオに出くわした場合は、まず、それが時々変更されたり、偽造されたりしていないかどうかを確認してください。 たぶん、あなたが見ているものは決して現実ではありませんでした!

また読む:

ただし、ウクライナで戦争が行われていることを忘れないでください。 ウクライナがロシアの占領者と戦うのを支援したい場合は、ウクライナ軍に寄付するのが最善の方法です。 セーブライフ または公式ページから NBU.

Yuri Svitlyk
Yuri Svitlyk
カルパティア山脈の息子、知られざる数学の天才、「弁護士」Microsoft、実践的な利他主義者、左右
著者からの詳細
- 広告 ​​-
サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示
その他の記事
アップデートを購読する

最近のコメント

今人気
0
ぜひご意見をお寄せください。x