Root NationニュースITニュースユーザー Apple iCloud での写真のスキャンに反対

ユーザー Apple iCloud での写真のスキャンに反対

-

数日前 Apple オンデバイスの機械学習を使用して iCloud にアップロードされた写真をスキャンし、それらのハッシュを行方不明および搾取された子供の国立リポジトリ (NCMEC) からの既知の児童性的虐待素材 (CSAM) の画像と照合する新しい技術を導入すると発表しました。 彼女はまた、13歳未満の子供が性的に露骨な写真を受け取ったり送信したりした場合、両親に通知すると述べた.

この動きは多くの注目と批判を集めており、この記事の執筆時点で、6 人以上がこの問題に抗議する公開書簡に署名しています。

iCloud

対応するページで手紙の全文を知ることができます ウェブページ. メッセージは直接宛てられます Apple. 同社の行動は最善の意図によって動機付けられているが、開発者はエコシステム内にユーザーの基本的なプライバシー権を損なうバックドアを作成した. また、手紙とともに、情報セキュリティの一部の組織と専門家の声明が示されています。 Apple ユーザーデータのプライバシーの概念を弱体化させます。

「発言の直後に Apple 世界中の専門家が、何が提供されているかを恐れて警鐘を鳴らしました Apple これらの対策により、すべての iPhone が、通過するすべての画像とメッセージを継続的にスキャンして、法執行機関に不要なコンテンツを警告するデバイスに変わる可能性があります。 これは、ユーザーの個人用デバイスが、悪用の可能性や不当な監視の拡大を防ぐための監視を最小限に抑えた侵襲的な監視のための根本的な新しいツールになる前例を設定します」と書簡の著者は信じています.

Apple 順番に、それは誤解によるものであり、やがて修正されると答え、今日、彼女は約束を果たしました. ページの文書で 同社は、その写真スキャン技術と、それが安全である理由を詳しく説明しました。 報告書は、法執行機関も他の組織も含まれていないと述べています。 Apple、子供が性的性質の画像を送信または受信することは、いかなる方法でも通知されません。 したがって、既存のプライバシー保証やエンドツーエンドの暗号化に違反することはありません。 同社はまた、比較目的で CSAM イメージをデバイスにダウンロードしないことを強調しました. 代わりに、画像のハッシュを計算し、それらを既知の CSAM コンテンツと比較して一致を判断します。

iCloud

Apple 同社のシステムは非常に正確であり、偽陽性の確率は年間 兆分の 未満の画像であると述べています。 最悪のシナリオでも、国立行方不明・搾取児童センターに報告される前に、フラグが立てられたアカウントを手動でレビューする予備のレビュー担当者がいます。

また読む:

サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示