كيف علق إدوارد سنودن على رغبة آبل في فحص الصور

تم انتقاد مخطط Apple لمسح صور المستخدم تلقائيًا. هذا على الرغم من الهدف النبيل لهذا المشروع – CSAM ، والذي سيتم استخدامه لتتبع وتحديد صور الاعتداء الجنسي على الأطفال.

جاء النقد الأخير لـ CSAM من إدوارد سنودن. وهي معروفة بمناصرتها المستمرة لحقوق المستخدم من حيث الخصوصية والأمن الرقمي.

وصف سنودن خطة الشركة بأنها كارثة وشيكة. وكانت خطوة مأساوية. بهذه الخطوة ، يعلن الحرب على خصوصية المستخدم والأمن الرقمي.

تفحص Apple صور المستخدم

خططت Apple لتضمين هذه الأداة الجديدة في iOS 15 ، وهو الإصدار القادم من نظام تشغيل iPhone. مصطلح CSAM هو اختصار لمواد الاعتداء الجنسي على الأطفال.

كانت خطة الشركة هي التحقق من الصور التي تم تحميلها على iCloud. من أجل التعرف على هذا المحتوى الخطير فيها. حيث إن الشركة ستخطر السلطات مباشرة بمجرد اكتشاف أي صور تحتوي على مواد مسيئة للأطفال.

يصف سنودن هذا الموقف على أنه شركة تجعل أجهزة iPhone تعمل لصالحها وليس لصالح المستخدم. بدلاً من ذلك ، يظل iPhone مملوكًا ومسيطرًا من قبل Apple حتى بعد أن دفع المستخدمون ثمنه وشرائه.

وبحسب وصف سنودن ، فإن شركة آبل “خانت” مستخدميها بهذه الميزة ، على الرغم من أن الشركة معروفة بجهود الخصوصية التي تبذلها وتستخدم مصطلح “الخصوصية” دائمًا عند الترويج لهواتفها وخدماتها.

يمكن للمستخدمين إلغاء الاشتراك في التعرف على صور الاعتداء على الأطفال من خلال عدم تحميل صورهم على iCloud.

كانت هناك مخاوف كثيرة بشأن إساءة استخدام الحكومة لأداة CSAM من Apple. بالإضافة إلى ذلك ، يمكن للهواتف الذكية أن تعرض أصحابها للكثير من المشاكل إذا كانت هذه الميزة – والميزات المماثلة – لا تعمل كما هو متوقع.

وبينما قالت الشركة إنها لن تخضع لأية توجيهات حكومية في هذا الصدد ، لا تزال هناك مخاوف. سياسة الشركة في العلاقات مع الحكومات ، وفقًا للخبراء ، مرنة للغاية أيضًا.

بينما يعتمد CSAM على خوارزميات مطابقة الصور الآلية ، فإن هذا لا يكفي لجعله آمنًا تمامًا للمستخدمين. يصف البعض قرار الشركة بتطوير هذه الميزة بأنه قرار متهور إلى حد كبير ، غالبًا لأغراض سياسية وترويجية ، ليس فقط بسبب التزام Apple بحماية الأطفال.