Root Nation訊息資訊科技資訊用戶 Apple 反對在 iCloud 中掃描他們的照片

用戶 Apple 反對在 iCloud 中掃描他們的照片

-

幾天之前 Apple 宣布將引入新技術,該技術將使用設備上的機器學習掃描上傳到 iCloud 的照片,並將其哈希值與來自國家失踪和受剝削兒童存儲庫 (NCMEC) 的已知兒童性虐待材料 (CSAM) 圖像進行匹配。 她還表示,如果 13 歲以下的孩子收到或發送色情照片,她會通知父母。

此舉引起了很多關注和批評,在撰寫本文時,已有超過 6 人簽署了抗議該問題的公開信。

iCloud的

您可以在相應的頁面上了解信件的全文 網頁. 消息直接尋址 Apple. 它表示,雖然公司的行為是出於好意,但開發人員在其生態系統中創建了一個後門,破壞了用戶的基本隱私權。 此外,與這封信一起,還給出了一些信息安全組織和專家的聲明,他們確信新技術 Apple 破壞了用戶數據隱私的概念。

“聲明後立即 Apple 世界各地的專家敲響了警鐘,擔心會發生什麼 Apple 措施可以將每部 iPhone 變成一個設備,持續掃描通過它的所有圖像和消息,以提醒執法機構任何不需要的內容。 這開創了一個先例,用戶的個人設備成為一種全新的侵入式監控工具,只需極少的監督,以防止可能的濫用和無故擴大監控,”這封信的作者認為。

Apple 反過來回答說是誤會,到時候會更正,今天她兌現了諾言。 在六頁的文件中 該公司詳細介紹了其照片掃描技術及其安全的原因。 該報告指出,無論是執法部門還是任何其他組織,包括 Apple, 不會以任何方式告知孩子發送或接收色情圖片。 因此,它不違反任何現有的隱私保證或端到端加密。 該公司還強調,它不會將 CSAM 圖像下載到您的設備以進行比較。 相反,它會計算圖像的哈希值並將它們與已知的 CSAM 內容進行比較以確定匹配。

iCloud的

Apple 表示其係統非常準確,每年出現誤報的概率不到萬億分之一。 即使在最壞的情況下,也會有一名後備審核員手動審核被標記的帳戶,然後再將其報告給國家失踪和受剝削兒童中心。

另請閱讀:

註冊
通知有關
客人

0 留言
嵌入式評論
查看所有評論