Root Nation소식IT 뉴스사용자 Apple iCloud에서 사진을 스캔하는 것을 반대했습니다.

사용자 Apple iCloud에서 사진을 스캔하는 것을 반대했습니다.

-

며칠 전 Apple 온디바이스 머신 러닝을 사용하여 iCloud에 업로드된 사진을 스캔하고 해당 해시를 NCMEC(National Repository of Missing and Exploited Children)의 알려진 CSAM(아동 성적 학대 자료) 이미지와 일치시키는 새로운 기술을 도입할 것이라고 발표했습니다. 그녀는 또한 13세 미만의 어린이가 성적으로 노골적인 사진을 받거나 보내는 경우 부모에게 알릴 것이라고 말했습니다.

이 조치는 많은 관심과 비판을 받았으며, 작성 당시 6명 이상이 이 문제에 항의하는 공개 서한에 서명했습니다.

iCloud에

해당 페이지에서 편지의 전체 텍스트를 알 수 있습니다 웹 페이지. 메시지가 직접 전달됨 Apple. 회사의 행동은 최선의 의도에 의해 동기가 부여되었지만 개발자는 사용자의 기본 개인 정보 보호 권리를 침해하는 백도어를 생태계 내에 만들었습니다. 또한 서신과 함께 일부 조직 및 정보 보안 전문가의 진술이 제공되며, 이들은 새로운 기술이 Apple 사용자 데이터의 개인 정보 보호 개념을 훼손합니다.

"발표 직후 Apple 전 세계의 전문가들은 제안된 내용을 두려워하여 경보를 울렸습니다. Apple 이 조치는 모든 iPhone을 통과하는 모든 이미지와 메시지를 지속적으로 스캔하여 법 집행 기관에 원치 않는 콘텐츠를 경고하는 장치로 만들 수 있습니다. 이는 사용자의 개인 장치가 감시의 남용과 부당한 감시 확장을 방지하기 위해 최소한의 감독으로 침입 감시를 위한 근본적이고 새로운 도구가 되는 선례를 설정합니다."라고 편지 작성자는 믿습니다.

Apple 그러면서 오해 때문이라고 답했고, 조만간 시정될 예정이며, 오늘 약속을 지켰다. 페이지 분량의 문서에서 회사는 사진 스캐닝 기술과 그것이 안전한 이유에 대해 자세히 설명했습니다. 보고서에 따르면 법 집행 기관이나 다른 조직은 다음을 포함하지 않습니다. Apple, 아동이 성적인 이미지를 보내거나 받는다는 정보를 받지 않습니다. 따라서 기존의 개인 정보 보호 또는 종단 간 암호화를 위반하지 않습니다. 회사는 또한 비교 목적으로 CSAM 이미지를 장치에 다운로드하지 않는다는 점을 강조했습니다. 대신 이미지의 해시를 계산하고 알려진 CSAM 콘텐츠와 비교하여 일치 여부를 결정합니다.

iCloud에

Apple 시스템이 매우 정확하며 위양성 확률이 연간 이미지 조 개 중 개 미만이라고 밝혔습니다. 최악의 시나리오에서도 신고된 계정이 국립 실종 착취 아동 센터에 보고되기 전에 수동으로 검토하는 예비 검토자가 있습니다.

또한 읽기:

가입하기
에 대해 알림
손님

0 코멘트
임베디드 리뷰
모든 댓글 보기