Root NationBalitabalita sa ITMga gumagamit Apple tutol sa pag-scan ng kanilang mga larawan sa iCloud

Mga gumagamit Apple tutol sa pag-scan ng kanilang mga larawan sa iCloud

-

Ilang araw na ang nakalipas Apple inihayag na magpapakilala ito ng bagong teknolohiya na mag-i-scan ng mga larawang na-upload sa iCloud gamit ang on-device na machine learning at itugma ang kanilang mga hash sa kilalang child sexual abuse material (CSAM) na mga larawan mula sa National Repository of Missing and Exploited Children (NCMEC) . Sinabi rin niya na aabisuhan niya ang mga magulang kung ang isang batang wala pang 13 taong gulang ay makakatanggap o magpadala ng mga tahasang sekswal na larawan.

Ang hakbang ay nakakuha ng maraming atensyon at pagpuna, at sa oras ng pagsulat, higit sa 6 katao ang pumirma sa isang bukas na liham na nagpoprotesta sa isyu.

icloud

Maaari kang maging pamilyar sa buong teksto ng liham sa kaukulang pahina mga web page. Direktang tinutugunan ang mensahe Apple. Sinasabi nito na habang ang mga aksyon ng kumpanya ay motibasyon ng pinakamahusay na mga intensyon, ang mga developer ay lumikha ng isang backdoor sa loob ng kanilang ecosystem na sumisira sa mga pangunahing karapatan sa privacy ng mga user. Gayundin, kasama ang liham, ang mga pahayag ng ilang mga organisasyon at mga espesyalista sa seguridad ng impormasyon ay ibinigay, na sigurado na ang bagong teknolohiya Apple pinapanghina ang konsepto ng privacy ng data ng user.

"Kaagad pagkatapos ng pahayag Apple ang mga eksperto sa buong mundo ay nagpatunog ng alarma, na natatakot sa kung ano ang inaalok Apple Ang mga hakbang ay maaaring gawing isang device ang bawat iPhone na patuloy na ini-scan ang lahat ng mga imahe at mensaheng dumadaan dito upang alertuhan ang mga ahensyang nagpapatupad ng batas ng anumang hindi gustong nilalaman. Nagtatakda ito ng precedent kung saan ang mga personal na device ng mga user ay naging isang radikal na bagong tool para sa invasive na pagsubaybay na may kaunting pangangasiwa upang maiwasan ang posibleng pang-aabuso at hindi makatarungang pagpapalawak ng pagsubaybay," naniniwala ang mga may-akda ng liham.

Apple sinagot naman niya na ito ay dahil sa hindi pagkakaunawaan, na itatama sa takdang panahon, at ngayon ay tinupad niya ang kanyang pangako. Sa isang anim na pahinang dokumento detalyado ng kumpanya ang teknolohiya sa pag-scan ng larawan nito at kung bakit ito ligtas. Ang ulat ay nagsasaad na alinman sa pagpapatupad ng batas o anumang iba pang organisasyon, kasama Apple, ay hindi ipinapaalam sa anumang paraan na ang bata ay nagpapadala o tumatanggap ng mga larawang may sekswal na katangian. Kaya, hindi nito nilalabag ang anumang umiiral na mga garantiya sa privacy o end-to-end na pag-encrypt. Binigyang-diin din ng kompanya na hindi ito nagda-download ng mga larawan ng CSAM sa iyong device para sa mga layunin ng paghahambing. Sa halip, kinukuwenta nito ang mga hash ng iyong mga larawan at inihahambing ang mga ito sa kilalang nilalaman ng CSAM upang matukoy ang mga tugma.

icloud

Apple sinabi na ang sistema nito ay lubos na tumpak at ang posibilidad ng isang maling positibo ay mas mababa sa isa sa isang trilyong larawan bawat taon. Kahit na sa pinakamasamang sitwasyon, mayroong back-up na tagasuri na manu-manong nagsusuri sa na-flag na account bago ito iulat sa National Center for Missing and Exploited Children.

Basahin din:

Jerelonewwin
Mag-sign up
Abisuhan ang tungkol sa
bisita

0 Comments
Naka-embed na Mga Review
Tingnan ang lahat ng komento