خطة CSAM من آبل تكشف عن الحاجة للحقوق الرقمية

تشتهر Apple بكونها واحدة من الشركات التي تهتم بخصوصية المستخدم والأمن الرقمي. من مشكلة iPhone jailbreak بواسطة برنامج NSO Group إلى نظام التحقق من صور المستخدم الجديد من Apple ، فقد مر كثيرًا.

كشفت الشركة مؤخرًا عن خطتها CSAM. أثناء تنفيذ هذه الخطة ، سيتم فحص الصور الموجودة على جميع هواتف المستخدمين بحثًا عن محتوى جنسي للأطفال. CSAM هو اختصار لمواد الاعتداء الجنسي على الأطفال. أي مواد تتعلق بالاعتداء الجنسي على الأطفال.

وقد تم الكشف عن هذا التحديث بهدوء تام من قبل الشركة الرسمية. لكن هذا لم يمنع انتشار الخبر ، وطبعا اختلفت الآراء في هذا الشأن.

خطة Apple CSAM وعلاقتها بالحقوق الرقمية

ربما تكون هذه الخطوة من قبل شركة آبل خطوة جيدة تصب في مصلحة سلامة الأطفال. ومع ذلك ، فإن مسح الصور لجميع المستخدمين على هواتفهم و iCloud لن يرضي جميع المستخدمين.

يمكن للمستخدمين الصادقين إجبار Apple بشكل دوري على التحقق من صورهم لمجرد رغبتهم في ذلك. عند اتخاذ هذا القرار ، قد تواجه Apple مشكلة كبيرة لا داعي لها. نظرًا لأن المستخدمين قد يفقدون الثقة به ، فهذه خسارة كبيرة بالنسبة له.

تحدث هذه التطورات في ضوء حقيقة أن أجهزة iPhone معرضة بسهولة للاختراق من قبل شركة NSO الإسرائيلية. كانت هذه اللحظة حساسة للغاية عندما أعلنت Apple عن خطتها CSAM. تفحص Apple الآن صور المستخدم بشكل كامل ، غير قادرة على منع اختراق NSO.

بينما يمكن اعتباره مغلقًا. لأن إلغاء النظام الجديد بعد الإعلان عنه ربما بطريقة واحدة فقط. وقد رحبت الحكومات بهذا النظام وأعربت عن دعمها له.

في ظل كل هذه التطورات ، بدأت الدعوة لحماية الحقوق الرقمية لكل مستخدم. وأن يتم إنفاذها بشكل قانوني وفعال. تشمل هذه الحقوق الرقمية منع التتبع والمراقبة ، وبطريقة ما ، بفضل خطة CSAM الجديدة ، سيتم مراقبة جميع مستخدمي iPhone.

تسبب هذا التتبع والمراقبة في العديد من المشكلات ، بما في ذلك فضيحة Cambridge Analytica على Facebook ، وقدرة NSO على اختراق أمان المستخدم وخصوصيته ، وحتى مخطط CSAM الذي يضع السم في العسل.

من جانبه ، التزم تيم كوك الرئيس التنفيذي للشركة الصمت التام ولم يعلق على خطة الشركة الجديدة ، كما لم يرد على الانتقادات التي تلقتها الشركة بعد الإعلان الرسمي.