أعلنت
شركة آبل أنها ستؤجل خطتها لطرح ميزة مواد الاعتداء الجنسي على الأطفال (CSAM) لأجهزة أيفون في الولايات المتحدة بعد الكثير من الانتقادات، وقالت أبل: “بناءً على التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال بالغة الأهمية هذه”.
وقد تم الإعلان عن ميزة فحص CSAM من قبل
أبل الشهر الماضي، حيث ستأتي مع تحديث iOS 15 والتى يمكن من خلالها التعرف على الصور الإباحية للأطفال المخزنة في أجهزة أيفون، فيما ستقوم أبل بتوسيع هذه الميزة لتشمل iPad و أبل Watch وأجهزة Mac أيضًا، وعندما يكتشف أي جهاز من أجهزة أبل الصور المتعلقة بالمواد الإباحية للأطفال أو إساءة معاملة الأطفال، سيقوم جهاز أبل تلقائيًا بطمس المحتوى وسيتم الإبلاغ عن ذلك إلى خوادم أبل، وستتوفر هذه الميزة في الولايات المتحدة، وبالنسبة لمستخدمي أيفون في الولايات المتحدة، بمجرد اكتشاف محتوى مسيء للأطفال، ستقوم أبل تلقائيًا بتنبيه المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ووكالات إنفاذ القانون باستخدام معرف أبل الخاص بالمستخدم.
ويشعر المتحمسون للأمن السيبراني والخصوصية بالقلق بشأن هذه الميزة الجديدة لأنهم يشعرون إذا كان بإمكان أبل اكتشاف إباحية الأطفال في مستخدمي أيفون بهذه الدقة، فما الذي يمنع أبل من البحث عن المحتوى المتعلق بالنشاط السياسي أو المعارضة، كما يمكن للحكومات إجبار شركة أبل في المستقبل على التطفل على المعارضين السياسيين المحتملين والمتظاهرين والمبلغين عن المخالفات.
وستستخدم أبل تقنية المطابقة على الجهاز باستخدام قاعدة بيانات للتجزئة المعروفة لصور إساءة معاملة الأطفال المقدمة من NCMEC وغيرها من منظمات سلامة الأطفال، وقبل تخزين الصورة في صور iCloud، يتم إجراء عملية مطابقة على الجهاز لتلك الصورة مقابل تجزئات CSAM المعروفة.
إنها تستخدم تقنية تشفير تسمى تقاطع المجموعة الخاصة، والتي تحدد ما إذا كان هناك تطابق دون الكشف عن النتيجة. يقوم الجهاز بإنشاء قسيمة أمان مشفرة تقوم بترميز نتيجة المطابقة بالإضافة إلى بيانات مشفرة إضافية حول الصورة، ويتم تحميل هذه الإيصال إلى صور iCloud مع الصورة.