Root NationNyhederIT nyhederBrugere Apple modsatte sig scanning af deres billeder i iCloud

Brugere Apple modsatte sig scanning af deres billeder i iCloud

-

For få dage siden Apple annonceret, at det vil introducere ny teknologi, der vil scanne billeder uploadet til iCloud ved hjælp af maskinlæring på enheden og matche deres hashes til kendte billeder af materiale om seksuelt misbrug af børn (CSAM) fra National Repository of Missing and Exploited Children (NCMEC). Hun sagde også, at hun ville give forældre besked, hvis et barn under 13 år modtager eller sender seksuelt eksplicitte billeder.

Tiltaget har tiltrukket sig stor opmærksomhed og kritik, og i skrivende stund har mere end 6 personer underskrevet et åbent brev, der protesterer mod spørgsmålet.

iCloud

Du kan gøre dig bekendt med brevets fulde tekst på den tilsvarende side web sider. Beskeden adresseres direkte Apple. Den siger, at selvom virksomhedens handlinger er motiveret af de bedste hensigter, har udviklere skabt en bagdør i deres økosystem, der underminerer brugernes grundlæggende privatlivsrettigheder. Sammen med brevet gives også udtalelser fra nogle organisationer og specialister i informationssikkerhed, som er sikre på, at den nye teknologi Apple underminerer konceptet om privatlivets fred for brugerdata.

"Umiddelbart efter udtalelsen Apple eksperter over hele verden slog alarm af frygt for, hvad der var på tilbud Apple foranstaltninger kunne gøre enhver iPhone til en enhed, der kontinuerligt scanner alle billeder og meddelelser, der passerer gennem den, for at advare retshåndhævende myndigheder om uønsket indhold. Dette skaber præcedens, hvor brugernes personlige enheder bliver et radikalt nyt værktøj til invasiv overvågning med minimalt tilsyn for at forhindre muligt misbrug og uberettiget udvidelse af overvågningen," mener forfatterne af brevet.

Apple svarede til gengæld, at det skyldtes en misforståelse, som vil blive rettet med tiden, og i dag opfyldte hun sit løfte. I et seks-siders dokument virksomheden beskrev sin fotoscanningsteknologi og hvorfor den er sikker. Af rapporten fremgår det, at hverken ordensmagten eller nogen anden organisation, inkl Apple, ikke på nogen måde informeres om, at barnet sender eller modtager billeder af seksuel karakter. Det krænker således ikke nogen eksisterende privatlivsgarantier eller ende-til-ende-kryptering. Firmaet understregede også, at det ikke downloader CSAM-billeder til din enhed til sammenligningsformål. I stedet beregner den hash for dine billeder og sammenligner dem med kendt CSAM-indhold for at bestemme matches.

iCloud

Apple udtalte, at dets system er ekstremt nøjagtigt, og at sandsynligheden for en falsk positiv er mindre end én ud af en billion billeder om året. Selv i det værste tilfælde er der en backup-anmelder, som manuelt gennemgår den markerede konto, før den indberettes til National Center for Missing and Exploited Children.

Læs også:

Dzhereloneowin
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer