Root Nationأخبارأخبار تكنولوجيا المعلوماتالمستخدمون Apple عارضوا مسح صورهم في iCloud

المستخدمون Apple عارضوا مسح صورهم في iCloud

-

منذ بضعة أيام Apple أعلنت أنها ستقدم تقنية جديدة من شأنها مسح الصور التي تم تحميلها على iCloud باستخدام التعلم الآلي على الجهاز ومطابقة تجزئاتها مع صور مواد الاعتداء الجنسي على الأطفال المعروفة (CSAM) من المستودع الوطني للأطفال المفقودين والمستغلين (NCMEC). قالت أيضًا إنها ستبلغ الوالدين إذا تلقى طفل أقل من 13 عامًا أو أرسل صورًا جنسية صريحة.

جذبت هذه الخطوة الكثير من الاهتمام والنقد ، وفي وقت كتابة هذا التقرير ، وقع أكثر من 6 شخصًا على خطاب مفتوح للاحتجاج على هذه القضية.

على iCloud

يمكنك التعرف على النص الكامل للرسالة في الصفحة المقابلة صفحات الانترنت. يتم توجيه الرسالة مباشرة Apple. وتقول إنه في حين أن تصرفات الشركة مدفوعة بأفضل النوايا ، فقد أنشأ المطورون بابًا خلفيًا داخل نظامهم البيئي يقوض حقوق الخصوصية الأساسية للمستخدمين. أيضًا ، جنبًا إلى جنب مع الخطاب ، يتم تقديم بيانات بعض المنظمات والمتخصصين في أمن المعلومات ، الذين هم على يقين من أن التكنولوجيا الجديدة Apple يقوض مفهوم خصوصية بيانات المستخدم.

"مباشرة بعد البيان Apple دق الخبراء في جميع أنحاء العالم ناقوس الخطر خوفًا مما كان معروضًا Apple يمكن أن تحول الإجراءات كل iPhone إلى جهاز يقوم بمسح جميع الصور والرسائل التي تمر عبره باستمرار لتنبيه وكالات إنفاذ القانون لأي محتوى غير مرغوب فيه. وهذا يمثل سابقة حيث تصبح الأجهزة الشخصية للمستخدمين أداة جديدة جذرية للمراقبة الغازية مع الحد الأدنى من الإشراف لمنع إساءة الاستخدام المحتملة والتوسع غير المبرر للمراقبة "، كما يعتقد مؤلفو الرسالة.

Apple أجابت بدورها أن ذلك ناتج عن سوء فهم سيتم تصحيحه في الوقت المناسب ، واليوم أوفت بوعدها. في وثيقة من ست صفحات قامت الشركة بتفصيل تقنية المسح الضوئي للصور وسبب كونها آمنة. يذكر التقرير أنه لا تطبيق للقانون ولا أي منظمة أخرى ، بما في ذلك Apple، لا يتم إبلاغهم بأي شكل من الأشكال بأن الطفل يرسل أو يتلقى صورًا ذات طبيعة جنسية. وبالتالي ، فهو لا ينتهك أي ضمانات خصوصية حالية أو تشفير شامل. أكدت الشركة أيضًا أنها لا تقوم بتنزيل صور CSAM على جهازك لأغراض المقارنة. بدلاً من ذلك ، يحسب تجزئة صورك ويقارنها بمحتوى CSAM المعروف لتحديد التطابقات.

على iCloud

Apple صرحت أن نظامها دقيق للغاية وأن احتمال وجود إيجابية خاطئة أقل من واحد في تريليون صورة في السنة. حتى في أسوأ السيناريوهات ، هناك مراجع احتياطي يقوم يدويًا بمراجعة الحساب الذي تم وضع علامة عليه قبل إبلاغ المركز الوطني للأطفال المفقودين والمستغلين.

اقرأ أيضا:

مصدرneowin
اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات