تقنية

آبل لم تبلغ عن مواد الاعتداء الجنسي على الأطفال بمنصاتها

اتُهمت شركة آبل بالفشل في الإبلاغ عن انتشار مواد الاعتداء الجنسي على الأطفال (CSAM) على منصاتها.

تقول الجمعية الوطنية لمنع القسوة على الأطفال (NSPCC)، وهي منظمة بريطانية لحماية الأطفال، إن شركة Apple أبلغت عن 267 حالة فقط من حالات الاعتداء الجنسي على الأطفال (CSAM) إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) في جميع أنحاء العالم. الماضي.

وهذا يتضاءل مقارنة بـ 1.47 مليون حالة محتملة أبلغت عنها جوجل و30.6 مليون حالة أبلغت عنها ميتا. تشمل المنصات الأخرى التي أبلغت عن حالات اعتداء جنسي محتمل أكثر من شركة آبل في عام 2023، TikTok (590,376)، وX (597,087)، وSnapchat (713,055)، وXbox (1,537)، وPlayStation/Sony Interactive Entertainment (3,974). يُطلب من كل شركة تكنولوجيا مقرها الولايات المتحدة إحالة أي حالات CSAM محتملة يتم اكتشافها على منصاتها إلى NCMEC، الذي يقوم بإحالة الحالات إلى وكالات إنفاذ القانون ذات الصلة حول العالم.

وقالت NSPCC أيضًا إن شركة Apple شاركت في عدد أكبر من قضايا CSAM (337) في إنجلترا وويلز بين أبريل 2022 ومارس 2023 مما تم الإبلاغ عنه في جميع أنحاء العالم في عام واحد. استخدمت المؤسسة الخيرية طلبات الحصول على معلومات لجمع هذه البيانات من قوات الشرطة.

وكما لاحظت صحيفة The Guardian، التي أبلغت لأول مرة عن مطالبة NSPCC، فإن جميع خدمات Apple مثل iMessage وFaceTime وiCloud تتمتع بتشفير شامل، مما يمنع الشركة من الوصول إلى محتوى ما يشاركه المستخدمون عليها لرؤيته. ومع ذلك، يحتوي WhatsApp أيضًا على E2EE، وقد أبلغت هذه الخدمة عن ما يقرب من 1.4 مليون حالة اعتداء جنسي على الأطفال إلى NCMEC في عام 2023.

وقال ريتشارد كولارد، رئيس سياسة سلامة الأطفال عبر الإنترنت في NSPCC: “هناك تناقض مثير للقلق بين عدد جرائم الصور المتعلقة بإساءة معاملة الأطفال في المملكة المتحدة والتي تحدث على خدمات Apple والعدد العالمي الضئيل تقريبًا من التقارير عن المحتوى المسيء الذي يحدث فيها”. إنشاء “. “من الواضح أن شركة أبل تتخلف عن العديد من منافسيها في معالجة الاعتداء الجنسي على الأطفال، في حين تحتاج جميع شركات التكنولوجيا إلى الاستثمار في الأمن والاستعداد لإدخال قانون السلامة على الإنترنت في المملكة المتحدة”.

في عام 2021، أعلنت شركة Apple عن خطط لنشر نظام يقوم بمسح الصور قبل تحميلها على iCloud ومقارنتها بقاعدة بيانات لصور CSAM المعروفة من NCMEC ومؤسسات أخرى. ولكن بعد رد الفعل العنيف من المدافعين عن الخصوصية والحقوق الرقمية، أخرت شركة Apple إطلاق أدوات الكشف عن CSAM قبل أن توقف المشروع في النهاية في عام 2022.

رفضت شركة Apple التعليق على مزاعم NSPCC. أشارت صحيفة الغارديان بدلاً من ذلك إلى بيان أدلت به الشركة عندما أوقفت خطة مراجعة CSAM. وقالت شركة أبل إنها اختارت استراتيجية مختلفة “تعطي الأولوية لأمن وخصوصية مستخدميها”. وقالت الشركة لـ Wired في أغسطس 2022 إنه “يمكن حماية الأطفال دون قيام الشركات بالبحث في البيانات الشخصية”.

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى