آبل تحارب صور إساءة معاملة الأطفال

أكدت Apple أنها تخطط لطرح تقنية جديدة في iOS و macOS و watchOS و iMessage تكتشف الصور المحتملة لإساءة معاملة الأطفال وتوضح تفاصيل مهمة عن المشروع الحالي.

بالنسبة للأجهزة الأمريكية ، تتضمن الإصدارات الجديدة من iOS و iPadOS ، والتي سيتم إصدارها هذا الخريف ، تطبيقات تشفير جديدة تساعد في تقليل توزيع محتوى CSAM على الإنترنت.

يتم نشر المعلومات التفصيلية عن المشروع على الصفحة الجديدة “” على موقع الشركة. التطبيق الأكثر إثارة للجدل هو النظام الذي يقوم بمسح الجهاز قبل نسخ صورة احتياطيًا إلى iCloud.

وفقًا للوصف ، لا يحدث الفحص حتى يتم نسخ الملف إلى iCloud ولا تتلقى Apple أي بيانات مطابقة ، ما لم تستوف قسائم التشفير (التي تم تحميلها عبر iCloud مع صورة) لحساب معين حد المطابقة.

لسنوات ، استخدمت الشركة أنظمة التجزئة للبحث عن صور إساءة معاملة الأطفال المرسلة عبر البريد الإلكتروني ، بما يتماشى مع الأنظمة المماثلة في Gmail وخدمات البريد الإلكتروني الأخرى المستندة إلى مجموعة النظراء.

يقوم البرنامج بتطبيق نفس الصور الممسوحة ضوئيًا على صور المستخدمين المخزنة في صور iCloud ، حتى إذا لم يتم إرسال الصور إلى مستخدم آخر أو نقلها بطريقة أخرى.

في ملف PDF المقدم مع السيرة الذاتية ، بررت الشركة انتقالها إلى مسح الصور من خلال وصف العديد من القيود التي تم تضمينها لحماية الخصوصية:

  • لا تعرف Apple أي شيء عن الصور التي لا تتطابق مع قاعدة بيانات CSAM المعروفة.
  • لا يمكن للشركة الوصول إلى البيانات الوصفية أو المشتقات المرئية لصور مرآة CSAM حتى يتم تجاوز حد الامتثال لحساب iCloud Images.
  • إن خطر قيام النظام بإبلاغ حسابك بشكل خاطئ منخفض للغاية. بالإضافة إلى ذلك ، تتحقق الشركة يدويًا من جميع التقارير المقدمة إلى NCMEC للتأكد من دقتها.
  • لا يمكن للمستخدمين الوصول إلى قاعدة بيانات صور CSAM المعروفة أو عرضها.
  • لا يمكن للمستخدمين تحديد الصور التي تم وضع علامة عليها بواسطة نظام CSAM.

تضيف التفاصيل الجديدة عددًا من الإجراءات الأمنية التي يجب أن تحمي من مخاطر الخصوصية لمثل هذا النظام.

يضمن نظام الحد أن الأخطاء الفردية لا تولد تحذيرات. يسمح هذا للشركة باستهداف معدل خطأ لتنبيه كاذب واحد لكل تريليون مستخدم سنويًا.

تلتزم Apple بحماية الأطفال

يقتصر نظام التجزئة أيضًا على المحتوى الذي تم وضع علامة عليه NCMEC والصور التي تم تحميلها عبر iCloud Photos.

بمجرد إنشاء التنبيه ، يتم التحقق منه من قبل الشركة والمركز الوطني للأطفال المفقودين والمستغلين قبل تنبيه تطبيق القانون ، مما يوفر حماية إضافية من النظام.

أجرت الشركة تقييمات فنية للنظام من ثلاثة خبراء تشفير مستقلين وجدوا أنه موثوق به من الناحية الحسابية.

من المرجح أن يزيد مثل هذا النظام بشكل كبير من احتمالية العثور على الأشخاص الذين يمتلكون أو يشاركون مثل هذه الصور. هذا يجب أن يساعد في حماية الأطفال.

ومع ذلك ، قالت الشركة إنها ستضيف على الأرجح فرقًا أخرى لسلامة الأطفال كمصادر للبيع بالتجزئة مع توسع البرنامج. لم تلتزم الشركة بإتاحة قائمة الشركاء للجمهور في المستقبل.

قد يؤدي ذلك إلى زيادة المخاوف بشأن كيفية تشغيل النظام من قبل الحكومة الصينية. التي سعت منذ فترة طويلة إلى توسيع الوصول إلى بيانات مستخدمي iPhone محليًا.

بالإضافة إلى الإجراءات الجديدة في صور iCloud. أضافت الشركة نظامين إضافيين لحماية مالكي iPhone الشباب المعرضين لخطر إساءة معاملة الأطفال.

يقوم تطبيق الرسائل بالتحقق من مرفقات الصور في حسابات الأطفال بحثًا عن محتوى جنسي محتمل.

بمجرد اكتشاف المحتوى ، يتم تعتيمه ويظهر تحذير. تقوم المعلمة الجديدة بتشغيل رسالة تخبر الطفل أن الوالد قد تلقى الرسالة إذا تم عرض الصورة المكتشفة أو إرسالها.

تقوم Apple أيضًا بتحديث كيفية استجابة Siri وتطبيق البحث لطلبات صور إساءة معاملة الأطفال.

في إطار النظام الجديد ، توضح التطبيقات للمستخدمين أن الاهتمام بهذا الموضوع ضار ومشكل. يوفر الموارد من الشركاء للمساعدة في حل هذه المشكلة.