Root NationBeritaberita TIPengguna Apple menentang pemindaian foto mereka di iCloud

Pengguna Apple menentang pemindaian foto mereka di iCloud

-

Beberapa hari yang lalu Apple mengumumkan akan memperkenalkan teknologi baru yang akan memindai foto yang diunggah ke iCloud menggunakan pembelajaran mesin di perangkat dan mencocokkan hash mereka dengan gambar materi pelecehan seksual anak (CSAM) yang diketahui dari National Repository of Missing and Exploited Children (NCMEC). Dia juga mengatakan akan memberi tahu orang tua jika seorang anak di bawah usia 13 tahun menerima atau mengirim foto seksual eksplisit.

Langkah tersebut telah menarik banyak perhatian dan kritik, dan pada saat penulisan, lebih dari 6 orang telah menandatangani surat terbuka untuk memprotes masalah tersebut.

iCloud

Anda bisa berkenalan dengan teks lengkap surat itu di halaman yang sesuai Halaman web. Pesan tersebut ditujukan secara langsung Apple. Dikatakan bahwa sementara tindakan perusahaan dimotivasi oleh niat terbaik, pengembang telah menciptakan pintu belakang di dalam ekosistem mereka yang merongrong hak privasi dasar pengguna. Juga, bersama dengan surat itu, pernyataan dari beberapa organisasi dan spesialis keamanan informasi diberikan, yang yakin bahwa teknologi baru Apple merusak konsep privasi data pengguna.

"Segera setelah pernyataan itu Apple para ahli di seluruh dunia membunyikan alarm, takut akan apa yang ditawarkan Apple langkah-langkah dapat mengubah setiap iPhone menjadi perangkat yang terus memindai semua gambar dan pesan yang melewatinya untuk memperingatkan lembaga penegak hukum tentang konten yang tidak diinginkan. Ini menetapkan preseden di mana perangkat pribadi pengguna menjadi alat baru yang radikal untuk pengawasan invasif dengan pengawasan minimal untuk mencegah kemungkinan penyalahgunaan dan perluasan pengawasan yang tidak beralasan," penulis surat itu percaya.

Apple pada gilirannya menjawab bahwa itu karena kesalahpahaman, yang akan diperbaiki pada waktunya, dan hari ini dia memenuhi janjinya. Dalam dokumen enam halaman perusahaan merinci teknologi pemindaian fotonya dan mengapa itu aman. Laporan tersebut menyatakan bahwa baik penegak hukum maupun organisasi lain, termasuk Apple, tidak diberi tahu dengan cara apa pun bahwa anak mengirim atau menerima gambar yang bersifat seksual. Dengan demikian, itu tidak melanggar jaminan privasi atau enkripsi end-to-end yang ada. Perusahaan juga menekankan bahwa mereka tidak mengunduh gambar CSAM ke perangkat Anda untuk tujuan perbandingan. Sebagai gantinya, ini menghitung hash gambar Anda dan membandingkannya dengan konten CSAM yang diketahui untuk menentukan kecocokan.

iCloud

Apple menyatakan bahwa sistemnya sangat akurat dan kemungkinan positif palsu kurang dari satu dalam satu triliun gambar per tahun. Bahkan dalam skenario terburuk, ada peninjau cadangan yang secara manual meninjau akun yang ditandai sebelum dilaporkan ke National Center for Missing and Exploited Children.

Baca juga:

Jerelobaru
Daftar
Beritahu tentang
tamu

0 komentar
Ulasan Tertanam
Lihat semua komentar