أخبار التقنيةالخصوصية والأمن

أبل تستعد لحماية الأطفال من الصور التي قد تسئ معاملتهم

في إيجاز بعد ظهر يوم الخميس ، أكدت شركة “أبل” عن الخطط التي تم الإبلاغ عنها مسبقًا لنشر تقنية جديدة داخل iOS و macOS و watchOS و iMessage والتي من المحتمل ان تكشف عن صور التي قد تسئ معاملة الأطفال .

لكنها أوضحت تفاصيل مهمة من المشروع الجاري. بالنسبة للأجهزة في الولايات المتحدة ، فإن الإصدارات الجديدة من iOS و iPadOS التي سيتم طرحها هذا الخريف بها “تطبيقات جديدة للتشفير للمساعدة في الحد من انتشار CSAM [مواد الاعتداء الجنسي على الأطفال] عبر الإنترنت ، أثناء التصميم من أجل خصوصية المستخدم.”

تم تفصيل المشروع أيضًا في صفحة على موقع الرسمي “child-safety” سلامة الأطفال . . التطبيق الأكثر غزوا ويحتمل أن يكون مثيرا للجدل النظام الذي يقوم بإجراء مسح على الجهاز قبل حفظ الصورة في iCloud. من الوصف ، لا يتم المسح إلا بعد حفظ الملف في iCloud ، ولا تتلقى أبل بيانات مطابقة إلا إذا وصل التشفير الصحيح (الذي تم تحميله إلى iCloud مع الصورة) لحساب معين إلى حد تطابق معرف CSAM .

لسنوات، استخدمت شركة آبل أنظمة التجزئة للمسح الضوئي لصور الاعتداء على الأطفال المرسلة عبر البريد الإلكتروني، بما يتماشى مع الأنظمة المماثلة في Gmail ومقدمي البريد الإلكتروني السحابي الآخرين. سيقوم البرنامج الذي تم الإعلان عنه اليوم بتطبيق نفس عمليات المسح الضوئي على صور المستخدم المخزنة في صور iCloud ، حتى لو لم يتم إرسال الصور إلى مستخدم آخر أو مشاركتها بطريقة أخرى.

في ملف PDF المقدم إلى جانب الملخص ، بررت أبل تحركاتها لمسح الصور من خلال وصف العديد من القيود التي تم تضمينها لحماية الخصوصية:

لا تتعلم أبل أي شيء عن الصور التي لا تتطابق مع معرف CSAM في قاعدة البيانات.

لا تستطيع أبل الوصول إلى البيانات الوصفية أو المشتقات المرئية لصور CSAM المتطابقة حتى أن تم تجاوز عتبة المطابقات لحساب صور iCloud.

إن مخاطر قيام النظام بالإبلاغ عن الحساب بشكل غير صحيح منخفضة للغاية. بالإضافة الى أن أبل تقوم يدويًا بمراجعة جميع التقارير التي يتم إرسالها إلى NCMEC لضمان دقة التقارير.

لا يمكن للمستخدمين الوصول إلى قاعدة بيانات صور CSAM المعروفة أو عرضها.

لا يمكن للمستخدمين تحديد الصور التي تم وضع علامة CSAM عليها من قبل النظام.

 حماية الأطفال من الصور من شركة أبل في تطبيق الرسائل

أجرت Apple تقييمات فنية للنظام من ثلاثة مصممين مستقلين ، الذين وجدوا أنه قوي من الناحية الحسابية. “في رأيي ، من المرجح أن يزيد هذا النظام بشكل كبير من احتمالية العثور على الأشخاص الذين يمتلكون أو يتداولون في مثل هذه الصور (المستخدمون الضارون) ؛ قال البروفيسور ديفيد فورسيث ، رئيس قسم علوم الكمبيوتر في جامعة إلينوي ، في أحد التقييمات: “هذا يجب أن يساعد في حماية الأطفال”. “دقة نظام المطابقة ، جنبًا إلى جنب مع العتبة ، تجعل من غير المحتمل جدًا أن يتم الكشف عن الصور غير المعروفة بصور CSAM.”

ومع ذلك ، قالت شركة Apple إنه من المحتمل إضافة مجموعات أخرى لسلامة الأطفال كمصادر تجزئة مع توسع البرنامج ، ولم تلتزم الشركة بإتاحة قائمة الشركاء للجمهور في المستقبل. من المرجح أن يؤدي ذلك إلى زيادة المخاوف بشأن كيفية استغلال النظام من قبل الحكومة الصينية ، التي سعت منذ فترة طويلة إلى زيادة الوصول إلى بيانات مستخدمي iPhone.

إلى جانب الإجراءات الجديدة في iCloud Photos ، أضافت Apple نظامين إضافيين لحماية المحتوى. أجرى تطبيق الرسائل بالفعل فحصًا على الجهاز لمرفقات الصور لحسابات الأطفال لاكتشاف المحتوى الذي يحتمل أن يكون جنسيًا صريحًا. بمجرد اكتشاف المحتوى ، يتم تعتيمه ويظهر تحذير. سيؤدي الإعداد الجديد الذي يمكن للوالدين تمكينه في حسابات عائلاتهم على iCloud إلى تشغيل رسالة تخبر الطفل أنه في حالة عرض (واردة) أو إرسال (صادرة) الصورة المكتشفة ، سيتلقى أوليائهم رسالة حول هذا الموضوع.

تعمل أبل أيضًا على تحديث كيفية استجابة Siri وتطبيق البحث للاستفسارات حول صور إساءة معاملة الأطفال. بموجب النظام الجديد ، ستوضح التطبيقات للمستخدمين أن الاهتمام بهذا الموضوع ضار وإشكالي ، وستوفر موارد من الشركاء للحصول على المساعدة في هذه المشكلة.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.

زر الذهاب إلى الأعلى