Root NationNachrichtenIT-NeuigkeitenBenutzer Apple gegen das Scannen ihrer Fotos in iCloud

Benutzer Apple gegen das Scannen ihrer Fotos in iCloud

-

Vor ein paar Tagen Apple kündigte an, dass es eine neue Technologie einführen wird, die Fotos, die auf iCloud hochgeladen wurden, mithilfe von maschinellem Lernen auf dem Gerät scannt und ihre Hashes mit bekannten CSAM-Bildern (Kindesmissbrauchsmaterial) aus dem National Repository of Missing and Exploited Children (NCMEC) abgleicht. Sie sagte auch, dass sie die Eltern benachrichtigen würde, wenn ein Kind unter 13 Jahren sexuell eindeutige Fotos erhält oder sendet.

Der Schritt hat viel Aufmerksamkeit und Kritik auf sich gezogen, und zum Zeitpunkt des Schreibens haben mehr als 6 Menschen einen offenen Brief unterzeichnet, in dem sie gegen das Problem protestieren.

iCloud

Den vollständigen Text des Schreibens können Sie auf der entsprechenden Seite kennenlernen Webseiten. Die Nachricht wird direkt adressiert Apple. Es heißt, dass die Handlungen des Unternehmens zwar von den besten Absichten motiviert sind, die Entwickler jedoch eine Hintertür in ihrem Ökosystem geschaffen haben, die die grundlegenden Datenschutzrechte der Benutzer untergräbt. Zusammen mit dem Schreiben werden auch die Aussagen einiger Organisationen und Spezialisten für Informationssicherheit gegeben, die sich sicher sind, dass die neue Technologie Apple untergräbt das Konzept der Privatsphäre von Benutzerdaten.

„Unmittelbar nach der Aussage Apple Experten auf der ganzen Welt schlugen Alarm, weil sie das Angebot fürchteten Apple Maßnahmen könnten jedes iPhone in ein Gerät verwandeln, das kontinuierlich alle Bilder und Nachrichten scannt, um die Strafverfolgungsbehörden auf unerwünschte Inhalte aufmerksam zu machen. Dies schafft einen Präzedenzfall, bei dem die persönlichen Geräte der Benutzer zu einem radikal neuen Werkzeug für die invasive Überwachung mit minimaler Aufsicht werden, um möglichen Missbrauch und eine ungerechtfertigte Ausweitung der Überwachung zu verhindern", glauben die Autoren des Briefes.

Apple antwortete wiederum, dass es sich um ein Missverständnis handele, das zu gegebener Zeit korrigiert werde, und heute habe sie ihr Versprechen erfüllt. In einem sechsseitigen Dokument Das Unternehmen erläuterte seine Fotoscan-Technologie und warum sie sicher ist. Der Bericht stellt fest, dass weder Strafverfolgungsbehörden noch andere Organisationen, inkl Apple, werden in keiner Weise darüber informiert, dass das Kind Bilder sexueller Natur sendet oder empfängt. Somit verstößt es nicht gegen bestehende Datenschutzgarantien oder Ende-zu-Ende-Verschlüsselung. Die Firma betonte auch, dass sie keine CSAM-Bilder zu Vergleichszwecken auf Ihr Gerät herunterlädt. Stattdessen berechnet es Hashes Ihrer Bilder und vergleicht sie mit bekannten CSAM-Inhalten, um Übereinstimmungen zu ermitteln.

iCloud

Apple gab an, dass sein System extrem genau ist und dass die Wahrscheinlichkeit eines Fehlalarms weniger als eins zu einer Billion Bilder pro Jahr beträgt. Selbst im schlimmsten Fall gibt es einen Ersatzprüfer, der das markierte Konto manuell überprüft, bevor es dem Nationalen Zentrum für vermisste und ausgebeutete Kinder gemeldet wird.

Lesen Sie auch:

QuelleNeowin
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen