Root NationHaberlerBT haberleriKullanıcılar Apple fotoğraflarının iCloud'da taranmasına karşı çıktı

Kullanıcılar Apple fotoğraflarının iCloud'da taranmasına karşı çıktı

-

Birkaç gün önce Apple cihazda makine öğrenimi kullanılarak iCloud'a yüklenen fotoğrafları tarayacak ve bunların karmalarını Ulusal Kayıp ve İstismara Uğrayan Çocuklar Deposu'ndan (NCMEC) bilinen çocuk cinsel istismarı materyali (CSAM) görüntüleri ile eşleştirecek yeni bir teknoloji sunacağını duyurdu. Ayrıca, 13 yaşın altındaki bir çocuk cinsel içerikli fotoğraflar alır veya gönderirse ebeveynleri bilgilendireceğini söyledi.

Hareket çok dikkat ve eleştiri çekti ve yazının yazıldığı sırada 6'den fazla kişi konuyu protesto eden bir açık mektup imzaladı.

iCloud

Mektubun tam metnini ilgili sayfadan öğrenebilirsiniz. internet sayfaları. Mesaj doğrudan adreslenir Apple. Şirketin eylemleri en iyi niyetlerle motive edilirken, geliştiricilerin ekosistemlerinde kullanıcıların temel gizlilik haklarını baltalayan bir arka kapı oluşturduğunu söylüyor. Ayrıca mektupla birlikte, yeni teknolojinin geleceğinden emin olan bazı kurum ve bilgi güvenliği uzmanlarının ifadelerine de yer verildi. Apple kullanıcı verilerinin gizliliği kavramını baltalar.

"Açıklamanın hemen ardından Apple dünyanın dört bir yanındaki uzmanlar, sunulanlardan korkarak alarmı çaldı Apple önlemler, her iPhone'u, içinden geçen tüm görüntüleri ve mesajları sürekli olarak tarayan ve istenmeyen herhangi bir içerik konusunda kolluk kuvvetlerini uyaran bir cihaza dönüştürebilir. Bu, kullanıcıların kişisel cihazlarının, olası kötüye kullanımı ve gözetimin yersiz genişlemesini önlemek için minimum gözetim ile istilacı gözetim için radikal yeni bir araç haline geldiği bir emsal teşkil ediyor” diyor mektubun yazarları.

Apple bunun bir yanlış anlaşılmadan kaynaklandığını ve zamanı gelince düzeltileceğini söyledi ve bugün sözünü yerine getirdi. Altı sayfalık bir belgede şirket, fotoğraf tarama teknolojisini ve neden güvenli olduğunu ayrıntılı olarak anlattı. Raporda, ne kolluk kuvvetleri ne de başka bir kuruluş, dahil Apple, çocuğun cinsel içerikli görüntüler gönderdiği veya aldığı konusunda hiçbir şekilde bilgilendirilmez. Bu nedenle, mevcut herhangi bir gizlilik garantisini veya uçtan uca şifrelemeyi ihlal etmez. Firma, karşılaştırma amacıyla CSAM görüntülerini cihazınıza indirmediğini de vurguladı. Bunun yerine, resimlerinizin karmalarını hesaplar ve eşleşmeleri belirlemek için bunları bilinen CSAM içeriğiyle karşılaştırır.

iCloud

Apple sisteminin son derece doğru olduğunu ve yanlış pozitif olma olasılığının yılda trilyon görüntüde birden az olduğunu belirtti. En kötü senaryoda bile, işaretlenen hesabı Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'ne bildirilmeden önce manuel olarak inceleyen bir yedek gözden geçiren vardır.

Ayrıca okuyun:

DzhereloNeowin
Üye olmak
hakkında bilgilendir
konuk

0 Yorumlar
Gömülü İncelemeler
Tüm yorumları görüntüle