Root NationȘtiriștiri ITUtilizatori Apple s-au opus scanării fotografiilor lor în iCloud

Utilizatori Apple s-au opus scanării fotografiilor lor în iCloud

-

Cu câteva zile în urmă Apple a anunțat că va introduce o nouă tehnologie care va scana fotografiile încărcate pe iCloud folosind învățarea automată de pe dispozitiv și va potrivi hashurile lor cu imaginile cunoscute de materiale de abuz sexual asupra copiilor (CSAM) de la National Repository of Missing and Exploited Children (NCMEC) . Ea a mai spus că va anunța părinții dacă un copil sub 13 ani primește sau trimite fotografii cu caracter sexual explicit.

Mișcarea a atras multă atenție și critici, iar la momentul redactării acestui articol, peste 6 de persoane au semnat o scrisoare deschisă care protestează împotriva problemei.

icloud

Vă puteți familiariza cu textul integral al scrisorii pe pagina corespunzătoare pagini web. Mesajul este adresat direct Apple. Se spune că, în timp ce acțiunile companiei sunt motivate de cele mai bune intenții, dezvoltatorii au creat o ușă în spate în ecosistemul lor care subminează drepturile fundamentale de confidențialitate ale utilizatorilor. De asemenea, odata cu scrisoarea, sunt date si declaratiile unor organizatii si specialisti in securitatea informatiei, care sunt siguri ca noua tehnologie Apple subminează conceptul de confidențialitate a datelor utilizatorilor.

„Imediat după declarație Apple experții din întreaga lume au tras un semnal de alarmă, temându-se de ceea ce se oferă Apple măsurile ar putea transforma fiecare iPhone într-un dispozitiv care scanează continuu toate imaginile și mesajele care trec prin el pentru a alerta agențiile de aplicare a legii cu privire la orice conținut nedorit. Acest lucru creează un precedent în care dispozitivele personale ale utilizatorilor devin un instrument radical nou pentru supravegherea invazivă, cu o supraveghere minimă, pentru a preveni posibilele abuzuri și extinderea nejustificată a supravegherii”, consideră autorii scrisorii.

Apple la rândul său a răspuns că s-a datorat unei neînțelegeri, care va fi corectată în timp util, iar astăzi și-a îndeplinit promisiunea. Într-un document de șase pagini compania a detaliat tehnologia de scanare a fotografiilor și de ce este sigură. Raportul precizează că nici forțele de ordine și nicio altă organizație, inclusiv Apple, nu sunt informați în niciun fel că copilul trimite sau primește imagini de natură sexuală. Astfel, nu încalcă nicio garanție de confidențialitate existentă sau criptare end-to-end. Firma a subliniat, de asemenea, că nu descarcă imagini CSAM pe dispozitivul dvs. în scopuri de comparație. În schimb, calculează hash-urile imaginilor dvs. și le compară cu conținutul CSAM cunoscut pentru a determina potrivirile.

icloud

Apple a declarat că sistemul său este extrem de precis și că probabilitatea unui fals pozitiv este mai mică de una dintr-un trilion de imagini pe an. Chiar și în cel mai rău caz, există un examinator de rezervă care examinează manual contul semnalat înainte de a fi raportat Centrului Național pentru Copii Dispăruți și Exploați.

Citeste si:

Dzhereloneowin
Inscrie-te
Notifică despre
oaspete

0 Comentarii
Recenzii încorporate
Vezi toate comentariile