Root Nationاخباراخبار فناوری اطلاعاتکاربران Apple با اسکن عکس های خود در iCloud مخالفت کردند

کاربران Apple با اسکن عکس های خود در iCloud مخالفت کردند

-

چند روز پیش Apple اعلام کرد که فناوری جدیدی را معرفی می‌کند که عکس‌های آپلود شده در iCloud را با استفاده از یادگیری ماشینی روی دستگاه اسکن می‌کند و هش‌های آن‌ها را با تصاویر سوء استفاده جنسی از کودکان شناخته شده (CSAM) از مخزن ملی کودکان گمشده و مورد سوء استفاده (NCMEC) مطابقت می‌دهد. او همچنین گفت که اگر کودک زیر 13 سال عکس های غیراخلاقی جنسی دریافت کند یا بفرستد، به والدین اطلاع خواهد داد.

این اقدام توجه و انتقادات زیادی را به خود جلب کرده است و در زمان نگارش این مقاله بیش از 6 نفر با امضای نامه ای سرگشاده به این موضوع اعتراض کرده اند.

icloud

در صفحه مربوطه می توانید با متن کامل نامه آشنا شوید صفحات وب. پیام به طور مستقیم آدرس داده می شود Apple. این می گوید که در حالی که اقدامات شرکت با انگیزه بهترین نیت انجام می شود، توسعه دهندگان یک درب پشتی در اکوسیستم خود ایجاد کرده اند که حقوق اساسی حریم خصوصی کاربران را تضعیف می کند. همچنین به همراه نامه اظهارات برخی سازمان ها و متخصصان امنیت اطلاعات آورده شده است که اطمینان دارند فناوری جدید Apple مفهوم حریم خصوصی داده های کاربر را تضعیف می کند.

«بلافاصله پس از بیانیه Apple کارشناسان در سرتاسر جهان از ترس آنچه ارائه می شد زنگ خطر را به صدا درآوردند Apple این اقدامات می تواند هر آیفون را به دستگاهی تبدیل کند که به طور مداوم تمام تصاویر و پیام های عبوری از آن را اسکن می کند تا به سازمان های مجری قانون در مورد محتوای ناخواسته هشدار دهد. نویسندگان نامه معتقدند که این امر سابقه ای را ایجاد می کند که در آن دستگاه های شخصی کاربران به یک ابزار جدید رادیکال برای نظارت تهاجمی با حداقل نظارت تبدیل می شود تا از سوء استفاده احتمالی و گسترش بی دلیل نظارت جلوگیری شود.

Apple به نوبه خود پاسخ داد که به دلیل سوء تفاهم بوده است که به موقع اصلاح خواهد شد و امروز به وعده خود عمل کرد. در یک سند شش صفحه ای این شرکت فناوری اسکن عکس خود و دلیل ایمن بودن آن را توضیح داد. در این گزارش آمده است که نه نیروی انتظامی و نه هیچ سازمان دیگری، از جمله Apple، به هیچ وجه از ارسال یا دریافت تصاویری با ماهیت جنسی توسط کودک مطلع نمی شوند. بنابراین، هیچ ضمانت حفظ حریم خصوصی موجود یا رمزگذاری انتها به انتها را نقض نمی کند. این شرکت همچنین تاکید کرد که تصاویر CSAM را برای مقاصد مقایسه در دستگاه شما دانلود نمی کند. در عوض، هش های تصاویر شما را محاسبه می کند و آنها را با محتوای شناخته شده CSAM مقایسه می کند تا مطابقت ها را تعیین کند.

icloud

Apple بیان کرد که سیستم آن بسیار دقیق است و احتمال مثبت کاذب کمتر از یک در یک تریلیون تصویر در سال است. حتی در بدترین حالت، یک بازبینی کننده پشتیبان وجود دارد که به صورت دستی حساب پرچم گذاری شده را قبل از گزارش به مرکز ملی کودکان گم شده و مورد سوء استفاده قرار می دهد.

همچنین بخوانید:

منبعنئووین
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات