آبل تنهي خطتها المثيرة للجدل لمكافحة استغلال الأطفال في المواد الإباحية

آبل تنهي خطتها المثيرة للجدل لمكافحة استغلال الأطفال في المواد الإباحية
آبل تنهي خطتها المثيرة للجدل لمكافحة استغلال الأطفال في المواد الإباحية

بعد أكثر من عام من التأمل والمماطلة ، أنهت شركة Apple للتو مشروعًا أراد محاربة توزيع المحتوى الإباحي للأطفال ، لكنه كان يهدد الحريات الأساسية. العملاق الأمريكي يسلك الآن طريقًا آخر ، مزيدًا من المنبع.

الجحيم مرصوف بالنوايا الحسنة ، ومحاربة الجريمة ، في هذه الحالة جريمة الأطفال أيضًا.

في أغسطس 2021 ، أعلنت شركة آبل عن نيتها إنشاء نظام مراقبة لمكافحة نشر المحتوى الإباحي للأطفال (CSAM ، باللغة الإنجليزية ، لمواد الاعتداء الجنسي على الأطفال). لهذا الغرض ، أثناء الإشارة إلى الحفاظ على خصوصية المستخدمين ، كان ينوي تحليل الصور التي تلتقطها أو تتلقاها ، من خلال تطبيق عوامل تصفية تتحكم فيها خوارزميات الذكاء الاصطناعي.

آبل تنهي خطتها المثيرة للجدل لمكافحة استغلال الأطفال في المواد الإباحية

إذا كان الدافع جديرًا بالثناء ، فإن خطر انزلاق أداة مراقبة في أجهزة iPhone الخاصة بنا بدا كبيرًا للغاية. لدرجة أن العديد من خبراء الأمن السيبراني والعديد من الجمعيات للدفاع عن الحريات الفردية قد دقوا ناقوس الخطر. خشيت مؤسسة الحدود الإلكترونية ، في ذلك الوقت ، من أن شركة آبل تنشئ “بنية تحتية سيكون من السهل للغاية إعادة توجيهها لجعلها أداة مراقبة أو رقابة. بالكاد بعد شهر ، في سبتمبر ، أعلنت شركة كوبرتينو العملاقة رسميًا أنها توقفت مؤقتًا عن تطوير أداتها “لتستغرق المزيد من الوقت خلال الأشهر القليلة المقبلة لجمع التعليقات وإجراء التحسينات”.

نهاية مشروع مثير للجدل


منذ ذلك الحين ، خلال هذه المرحلة من جمع ردود الفعل والآراء ، كان المشروع متحفظًا. حتى يوم أمس. بالإضافة إلى الإعلان عن التنفيذ القادم للتشفير الشامل للنسخ الاحتياطية في iCloud ، قامت آبل للتو بإضفاء الطابع الرسمي على التخلي التام عن هذا المشروع.

في بيان صحفي تم تقديمه إلى Wired ، أوضح العملاق الأمريكي: “لقد قررنا عدم مواصلة عملنا على أداة اكتشاف CSAM الخاصة بنا لصور iCloud. يمكن حماية الأطفال دون قيام الشركات بتقشير البيانات الشخصية ، وسنواصل العمل مع الحكومات والمدافعين عن الأطفال والشركات الأخرى للمساعدة في حماية الشباب والحفاظ على خصوصيتهم وجعل الإنترنت مكانًا أكثر أمانًا للأطفال ولنا جميعًا. »

طريقة جديدة … للمصادر


لا تهمل آبل معركتها ضد استغلال الأطفال في المواد الإباحية والاعتداء الجنسي. لذلك سيركز على أداة أمن الاتصالات الخاصة به. وظيفة تم إطلاقها في ديسمبر 2021 في الولايات المتحدة وتم تضمينها في نظام التشغيل iOS 16 في فرنسا وألمانيا منذ سبتمبر الماضي.

تسمح هذه الأداة للوالدين أو الأوصياء القانونيين للطفل بتفعيل حماية الهاتف الذكي للقاصر الذي يرتبط حسابه على iCloud بعائلة المستخدم. تتيح لك هذه الوظيفة التحكم في المحتوى المستلم أو المرسل أو المعروض من Siri و Spotlight و Safari ، وبالطبع في الرسائل. لذلك لا تخطط آبل للتصرف بعد الواقعة ، ولكن لمنع إنتاج المحتوى عندما يكون ذلك ممكنًا – عندما يحرض شخص بالغ سيئ النية طفلًا على إرسال صور له – والحد من التعرض قدر الإمكان.

أخبرت آبل أيضًا Wired بمواصلة العمل على طرح ميزات أمن الاتصالات في بلدان أخرى. يتأكد مهندسو العملاق الأمريكي أيضًا من قدرتهم على إثراء هذه الأداة بوظائف جديدة. وبالتالي ، يجب أن يتم قريبًا دمج حل للكشف عن العري في مقاطع الفيديو المرسلة بواسطة الرسائل. لكن شركة آبل ترى أبعد من ذلك وترغب في أن يتم دمج أدواتها من قبل مطوري الطرف الثالث في تطبيقاتهم. وبالتالي ، سيتم تنبيه الأطفال إلى المخاطر التي يتعرضون لها وحمايتهم على نطاق أوسع. حل يحترم الخصوصية ويمنع الصغار من التعرض للإيذاء من قبل المتحرشين الجنسيين. حسن النية بلا جحيم …

آبل تنهي خطتها المثيرة للجدل لمكافحة استغلال الأطفال في المواد الإباحية

شاشة مذهلة ستزود الهواتف الذكية لعام 2023

المصدر: Wired

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

GIPHY App Key not set. Please check settings

One Comment

المغرب وإسرائيل: تعاون عسكري

المغرب وإسرائيل: تعاون عسكري لتحسين “القوة الضاربة”

تأسيس الشركات في إزدياد

تأسيس الشركات في إزدياد