كشفت شركة “آبل” عن تفاصيل نظام جديد يرصد المواد المتعلقة بالإساءة الجنسية للأطفال في أجهزة “آيفون”، ويقدمها كأدلة للسلطات.
أعلنت شركة “آبل“، الجمعة 6 من آب، أن التقنية الجديدة (CSAM) ستتيح البحث عن المواد المتعلقة بالإساءة الجنسية للأطفال، قبل تخزين الصور على نظام “iCloud Photos”، وفي حال رصد تطابق في البحث، سيقيّم المحتوى وسيبلّغ عنه للسلطات.
وقالت “آبل” إن من المقرر إطلاق نسخ جديدة من نظام التشغيل “iOS” وأنظمة تشغيل “IPadOS” أو “IPad”، وستزود بتطبيقات جديدة للتشفير والحد من انتشار المواد المرتبطة بالإساءة الجنسية للأطفال عبر الإنترنت مع مراعاة الخصوصية.
ويقوم النظام بمقارنة الصور والبيانات المشهورة بالإساءة الجنسية للأطفال التي جُمعت من قبل “المركز الوطني للأطفال المفقودين والذين تم استغلالهم في أمريكا”، إلى جانب منظمات أخرى تهتم بسلامة الأطفال.
ويترجم النظام الصور المحددة على شكل رموز رقمية، يمكن أن تتطابق مع صور مخزنة على جهاز “آبل”، كما سترصد نسخًا معدلة عن الصورة ولكنها تماثل الصور الأصلية.
وستراجع الشركة يدويًا كل تقرير، للتأكد من وجود تطابق في نتائج البحث، لتقوم بتعطيل حساب الشخص المستخدم وتبليغ السلطات عنه.
وقال الرئيس التنفيذي للمركز الوطني للمفقودين والمستغَلين، جون كلارك، “مع وجود الكثير من الأشخاص الذين يستخدمون منتجات (آبل)، فإن إجراءات السلامة الجديدة تتمتع بإمكانية إنقاذ حياة الأطفال الذين يتم إغراؤهم عبر الإنترنت، والذين يتم تداول صورهم المروعة في مواد الاعتداء الجنسي على الأطفال”، بحسب ما نقلته “دويتشه فيليه”.
أين الخصوصية؟
يُخشى من استباحة الخصوصية عبر هذه التقنية، من قبل أنظمة الحكومات الديكتاتورية لتتجسس على مواطنيها، لأن فحص أجهزة “آيفون” يمكن أن يشمل عملية البحث عن خطاب سياسي محظور.
وقال الباحث الأمني في جامعة “جونز هوبكينز”، “إن شركة (آبل) أرسلت رسالة واضحة، على أنه أصبح من الآمن بناء أنظمة تكشف هواتف المستخدمين في المحتوى المحظور”.
وأضاف الباحث أنه “بغض النظر إن كانوا على صواب أم خطأ في هذه النقطة، سيجعل ذلك الحكومات تنتهك خصوصية مواطنيها”.
–