Root NationNotiziaGiornale informaticoUtenti Apple si è opposto alla scansione delle proprie foto in iCloud

Utenti Apple si è opposto alla scansione delle proprie foto in iCloud

-

Pochi giorni fa Apple ha annunciato che introdurrà una nuova tecnologia che eseguirà la scansione delle foto caricate su iCloud utilizzando l'apprendimento automatico sul dispositivo e abbinerà i loro hash alle immagini di materiale pedopornografico noto (CSAM) dal National Repository of Missing and Exploited Children (NCMEC). Ha anche affermato che informerà i genitori se un bambino di età inferiore ai 13 anni riceve o invia foto sessualmente esplicite.

La mossa ha attirato molta attenzione e critiche e, al momento in cui scrivo, più di 6 persone hanno firmato una lettera aperta per protestare contro il problema.

iCloud

Puoi conoscere il testo completo della lettera nella pagina corrispondente pagine web. Il messaggio è indirizzato direttamente Apple. Dice che mentre le azioni dell'azienda sono motivate dalle migliori intenzioni, gli sviluppatori hanno creato una backdoor all'interno del loro ecosistema che mina i diritti fondamentali alla privacy degli utenti. Inoltre, insieme alla lettera, vengono fornite le dichiarazioni di alcune organizzazioni e specialisti in sicurezza informatica, che sono sicuri che la nuova tecnologia Apple mina il concetto di privacy dei dati degli utenti.

"Subito dopo la dichiarazione Apple gli esperti di tutto il mondo hanno lanciato l'allarme, temendo l'offerta Apple misure potrebbero trasformare ogni iPhone in un dispositivo che scansiona continuamente tutte le immagini e i messaggi che lo attraversano per avvisare le forze dell'ordine di qualsiasi contenuto indesiderato. Ciò crea un precedente in cui i dispositivi personali degli utenti diventano uno strumento radicalmente nuovo per la sorveglianza invasiva con una supervisione minima per prevenire possibili abusi e un'espansione ingiustificata della sorveglianza", ritengono gli autori della lettera.

Apple a sua volta ha risposto che si trattava di un malinteso, che a tempo debito verrà corretto, e oggi ha mantenuto la sua promessa. In un documento di sei pagine l'azienda ha dettagliato la sua tecnologia di scansione delle foto e perché è sicura. Il rapporto afferma che né le forze dell'ordine né altre organizzazioni, incl Apple, non vengono in alcun modo informati che il minore invia o riceve immagini di natura sessuale. Pertanto, non viola alcuna garanzia di privacy esistente o crittografia end-to-end. L'azienda ha anche sottolineato che non scarica immagini CSAM sul tuo dispositivo a scopo di confronto. Invece, calcola gli hash delle tue immagini e li confronta con i contenuti CSAM noti per determinare le corrispondenze.

iCloud

Apple ha affermato che il suo sistema è estremamente accurato e che la probabilità di un falso positivo è inferiore a una su un trilione di immagini all'anno. Anche nella peggiore delle ipotesi, c'è un revisore di riserva che rivede manualmente l'account segnalato prima che venga segnalato al National Center for Missing and Exploited Children.

Leggi anche:

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti