Root NationNotíciasnotícias de TIUsuários Apple se opuseram à digitalização de suas fotos no iCloud

Usuários Apple se opuseram à digitalização de suas fotos no iCloud

-

Alguns dias atrás Apple anunciou que introduzirá uma nova tecnologia que digitalizará fotos carregadas no iCloud usando aprendizado de máquina no dispositivo e combinará seus hashes com imagens conhecidas de material de abuso sexual infantil (CSAM) do Repositório Nacional de Crianças Desaparecidas e Exploradas (NCMEC). Ela também disse que notificaria os pais se uma criança com menos de 13 anos receber ou enviar fotos sexualmente explícitas.

A medida atraiu muita atenção e críticas e, no momento da redação, mais de 6 pessoas assinaram uma carta aberta protestando contra a questão.

iCloud

Você pode se familiarizar com o texto completo da carta na página correspondente paginas web. A mensagem é endereçada diretamente Apple. Ele diz que, embora as ações da empresa sejam motivadas pela melhor das intenções, os desenvolvedores criaram um backdoor dentro de seu ecossistema que prejudica os direitos fundamentais de privacidade dos usuários. Além disso, junto com a carta, são dadas as declarações de algumas organizações e especialistas em segurança da informação, que têm certeza de que a nova tecnologia Apple mina o conceito de privacidade dos dados do usuário.

"Imediatamente após a declaração Apple especialistas de todo o mundo soaram o alarme, temendo o que estava em oferta Apple As medidas podem transformar cada iPhone em um dispositivo que verifica continuamente todas as imagens e mensagens que passam por ele para alertar as autoridades policiais sobre qualquer conteúdo indesejado. Isso abre um precedente em que os dispositivos pessoais dos usuários se tornam uma nova ferramenta radical para vigilância invasiva com supervisão mínima para evitar possíveis abusos e expansão injustificada da vigilância", acreditam os autores da carta.

Apple por sua vez respondeu que foi devido a um mal-entendido, que será corrigido no devido tempo, e hoje ela cumpriu sua promessa. Em um documento de seis páginas a empresa detalhou sua tecnologia de digitalização de fotos e por que ela é segura. O relatório afirma que nem a aplicação da lei nem qualquer outra organização, incluindo Apple, não são informados de forma alguma que a criança envia ou recebe imagens de natureza sexual. Assim, não viola nenhuma garantia de privacidade existente ou criptografia de ponta a ponta. A empresa também enfatizou que não baixa imagens CSAM para o seu dispositivo para fins de comparação. Em vez disso, ele calcula os hashes de suas imagens e os compara com o conteúdo CSAM conhecido para determinar as correspondências.

iCloud

Apple afirmou que seu sistema é extremamente preciso e que a probabilidade de um falso positivo é inferior a uma em um trilhão de imagens por ano. Mesmo no pior cenário, há um revisor de backup que revisa manualmente a conta sinalizada antes que ela seja relatada ao Centro Nacional para Crianças Desaparecidas e Exploradas.

Leia também:

Fonteneowin
Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários