Root NationNyheterIT-nyheterBrukere Apple motsatte seg skanning av bildene deres i iCloud

Brukere Apple motsatte seg skanning av bildene deres i iCloud

-

For noen dager siden Apple kunngjorde at den vil introdusere ny teknologi som vil skanne bilder lastet opp til iCloud ved hjelp av maskinlæring på enheten og matche hashene deres med kjente bilder av materiale om seksuelt misbruk av barn (CSAM) fra National Repository of Missing and Exploited Children (NCMEC). Hun sa også at hun ville varsle foreldre hvis et barn under 13 år mottar eller sender seksuelt eksplisitte bilder.

Flyttingen har vakt mye oppmerksomhet og kritikk, og i skrivende stund har over 6 personer signert et åpent brev som protesterer mot saken.

iCloud

Du kan gjøre deg kjent med hele brevet på den tilsvarende siden nettsider. Meldingen adresseres direkte Apple. Den sier at mens selskapets handlinger er motivert av de beste intensjoner, har utviklere skapt en bakdør i deres økosystem som undergraver brukernes grunnleggende personvernrettigheter. Sammen med brevet gis også uttalelsene fra noen organisasjoner og spesialister innen informasjonssikkerhet, som er sikre på at den nye teknologien Apple undergraver begrepet personvern for brukerdata.

«Umiddelbart etter uttalelsen Apple eksperter over hele verden slo alarm i frykt for det som ble tilbudt Apple tiltak kan gjøre hver iPhone til en enhet som kontinuerlig skanner alle bilder og meldinger som passerer gjennom den for å varsle politimyndigheter om uønsket innhold. Dette skaper en presedens der brukernes personlige enheter blir et radikalt nytt verktøy for invasiv overvåking med minimalt tilsyn for å forhindre mulig misbruk og uberettiget utvidelse av overvåking», mener forfatterne av brevet.

Apple svarte på sin side at det var på grunn av en misforståelse, som vil bli rettet etter hvert, og i dag oppfylte hun løftet. I et dokument på seks sider selskapet beskrev sin fotoskanningsteknologi og hvorfor det er trygt. Rapporten slår fast at verken rettshåndhevelse eller noen annen organisasjon, inkl Apple, ikke på noen måte informeres om at barnet sender eller mottar bilder av seksuell karakter. Dermed bryter det ikke noen eksisterende personverngarantier eller ende-til-ende-kryptering. Firmaet understreket også at det ikke laster ned CSAM-bilder til enheten din for sammenligningsformål. I stedet beregner den hash av bildene dine og sammenligner dem med kjent CSAM-innhold for å finne treff.

iCloud

Apple uttalte at systemet er ekstremt nøyaktig og at sannsynligheten for en falsk positiv er mindre enn én av en trillion bilder per år. Selv i verste fall er det en back-up anmelder som manuelt gjennomgår den flaggede kontoen før den rapporteres til Nasjonalt senter for savnede og utnyttede barn.

Les også:

Dzhereloneowin
Melde deg på
Gi beskjed om
gjest

0 Kommentar
Innebygde anmeldelser
Se alle kommentarer