For få dage siden Apple annonceret, at det vil introducere ny teknologi, der vil scanne billeder uploadet til iCloud ved hjælp af maskinlæring på enheden og matche deres hashes til kendte billeder af materiale om seksuelt misbrug af børn (CSAM) fra National Repository of Missing and Exploited Children (NCMEC). Hun sagde også, at hun ville give forældre besked, hvis et barn under 13 år modtager eller sender seksuelt eksplicitte billeder.
Tiltaget har tiltrukket sig stor opmærksomhed og kritik, og i skrivende stund har mere end 6 personer underskrevet et åbent brev, der protesterer mod spørgsmålet.
Du kan gøre dig bekendt med brevets fulde tekst på den tilsvarende side web sider. Beskeden adresseres direkte Apple. Den siger, at selvom virksomhedens handlinger er motiveret af de bedste hensigter, har udviklere skabt en bagdør i deres økosystem, der underminerer brugernes grundlæggende privatlivsrettigheder. Sammen med brevet gives også udtalelser fra nogle organisationer og specialister i informationssikkerhed, som er sikre på, at den nye teknologi Apple underminerer konceptet om privatlivets fred for brugerdata.
"Umiddelbart efter udtalelsen Apple eksperter over hele verden slog alarm af frygt for, hvad der var på tilbud Apple foranstaltninger kunne gøre enhver iPhone til en enhed, der kontinuerligt scanner alle billeder og meddelelser, der passerer gennem den, for at advare retshåndhævende myndigheder om uønsket indhold. Dette skaber præcedens, hvor brugernes personlige enheder bliver et radikalt nyt værktøj til invasiv overvågning med minimalt tilsyn for at forhindre muligt misbrug og uberettiget udvidelse af overvågningen," mener forfatterne af brevet.
Apple svarede til gengæld, at det skyldtes en misforståelse, som vil blive rettet med tiden, og i dag opfyldte hun sit løfte. I et seks-siders dokument virksomheden beskrev sin fotoscanningsteknologi og hvorfor den er sikker. Af rapporten fremgår det, at hverken ordensmagten eller nogen anden organisation, inkl Apple, ikke på nogen måde informeres om, at barnet sender eller modtager billeder af seksuel karakter. Det krænker således ikke nogen eksisterende privatlivsgarantier eller ende-til-ende-kryptering. Firmaet understregede også, at det ikke downloader CSAM-billeder til din enhed til sammenligningsformål. I stedet beregner den hash for dine billeder og sammenligner dem med kendt CSAM-indhold for at bestemme matches.
Apple udtalte, at dets system er ekstremt nøjagtigt, og at sandsynligheden for en falsk positiv er mindre end én ud af en billion billeder om året. Selv i det værste tilfælde er der en backup-anmelder, som manuelt gennemgår den markerede konto, før den indberettes til National Center for Missing and Exploited Children.
Læs også:
- Apple forbereder ny MacBook Pro, iPhone og Apple Hold øje med efteråret
- Apple Pay giver dig mulighed for at foretage køb på kredit