Root NationNyheterIT-nyheterAnvändare Apple motsatte sig att deras foton skulle skannas i iCloud

Användare Apple motsatte sig att deras foton skulle skannas i iCloud

-

För några dagar sedan Apple meddelade att man kommer att introducera ny teknik som kommer att skanna foton som laddats upp till iCloud med hjälp av maskininlärning på enheten och matcha deras hash med CSAM-bilder från National Repository of Missing and Exploited Children (NCMEC). Hon sa också att hon skulle meddela föräldrar om ett barn under 13 år tar emot eller skickar sexuellt explicita bilder.

Flytten har väckt stor uppmärksamhet och kritik och i skrivande stund har över 6 650 personer skrivit på ett öppet brev som protesterar mot frågan.

icloud

Du kan bekanta dig med den fullständiga texten i brevet på motsvarande sida webbsidor. Meddelandet adresseras direkt Apple. Den säger att även om företagets handlingar är motiverade av de bästa avsikter, har utvecklare skapat en bakdörr inom sitt ekosystem som undergräver användarnas grundläggande integritetsrättigheter. Tillsammans med brevet ges också uttalanden från vissa organisationer och specialister inom informationssäkerhet, som är säkra på att den nya tekniken Apple undergräver begreppet sekretess för användardata.

"Omedelbart efter uttalandet Apple experter runt om i världen slog larm, fruktade vad som erbjuds Apple åtgärder kan göra varje iPhone till en enhet som kontinuerligt skannar alla bilder och meddelanden som passerar genom den för att varna brottsbekämpande myndigheter om allt oönskat innehåll. Detta skapar ett prejudikat där användarnas personliga enheter blir ett radikalt nytt verktyg för invasiv övervakning med minimal tillsyn för att förhindra eventuellt missbruk och omotiverad utvidgning av övervakningen", tror författarna till brevet.

Apple svarade i sin tur att det berodde på ett missförstånd, som kommer att rättas till i sinom tid, och idag uppfyllde hon sitt löfte. I ett sexsidigt dokument företaget beskriver sin fotoskanningsteknik och varför den är säker. I rapporten framgår att varken brottsbekämpande eller någon annan organisation, inkl Apple, inte på något sätt informeras om att barnet skickar eller tar emot bilder av sexuell karaktär. Således bryter det inte mot några befintliga integritetsgarantier eller end-to-end-kryptering. Företaget betonade också att det inte laddar ner CSAM-bilder till din enhet för jämförelseändamål. Istället beräknar den hash för dina bilder och jämför dem med känt CSAM-innehåll för att avgöra matchningar.

icloud

Apple uppgav att dess system är extremt exakt och att sannolikheten för en falsk positiv är mindre än en på en biljon bilder per år. Även i värsta fall finns det en back-up granskare som manuellt granskar det flaggade kontot innan det rapporteras till Nationellt centrum för försvunna och utnyttjade barn.

Läs också:

Dzhereloneowin
Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer