توقف Apple Hits مؤقتًا عند ميزة اكتشاف CSAM المثيرة للجدل

توقف Apple Hits مؤقتًا عند ميزة اكتشاف CSAM المثيرة للجدل

 توقف Apple Hits مؤقتًا عند ميزة اكتشاف CSAM المثيرة للجدل


في وقت مبكر من الشهر الماضي ، أعلنت شركة Apple أنها ستقدم مجموعة جديدة من الأدوات للمساعدة في اكتشاف مواد الاعتداء الجنسي على الأطفال المعروفة (CSAM) في الصور المخزنة على أجهزة iPhone. انتقد خبراء الأمن هذه الميزة باعتبارها انتهاكًا لخصوصية المستخدم ، وما تلاها كان كابوسًا للعلاقات العامة لشركة Apple. الآن ، في خطوة نادرة ، قالت شركة Apple اليوم إنها ستتراجع خطوة إلى الوراء لتحسين الميزة بشكل أكبر قبل الإصدار العام.

وقالت شركة آبل في بيان أرسلته إلى موقع جيزمودو:

 تم تعيين ميزات CSAM ليتم طرحها مع iOS 15 في وقت لاحق من هذا الخريف. ومع ذلك ، كان رد الفعل العنيف من خبراء الأمن ومجموعات الخصوصية شرسًا ، حيث وقع الآلاف على رسالة مفتوحة إلى Apple تطلب منهم إعادة التفكير في الميزة. داخليًا ، تم الإبلاغ أيضًا عن مخاوف موظفي Apple.

في حين اتفق النقاد على أن استغلال الأطفال في المواد الإباحية يمثل مشكلة خطيرة ، كان الخوف هو أن شركة آبل قامت بشكل أساسي ببناء "باب خلفي" في أجهزة iPhone الخاصة بالمستخدمين والتي يمكن إساءة استخدامها بسهولة للبحث عن مواد أخرى. قد يؤدي القيام بذلك إلى قيام الحكومات الأجنبية باستخدام أداة مخصصة لأغراض نبيلة كوسيلة للمراقبة والرقابة. كما كانت هناك مخاوف من أن الصور الأبرياء للأطفال في أحواض الاستحمام قد يتم تمييزها على أنها إباحية للأطفال. كان هناك خوف آخر يتمثل في إمكانية استخدام الأدوات كحل بديل للاتصالات المشفرة.

ضاعفت شركة Apple في البداية ، وأصدرت أسئلة وأجوبة مطولة واستضافت عدة إحاطات مع المراسلين لتوضيح كيفية عمل الميزة ونية الشركة. حاولت الشركة أيضًا تهدئة المخاوف من خلال الوعد بأنها لن تسمح للحكومات بإساءة استخدام أدوات CSAM كسلاح للمراقبة. ومع ذلك ، على الرغم من بذل قصارى جهدها - حتى أنهم قاموا بتخطي رئيس البرامج كريج فيديريغي في مقابلة في وول ستريت جورنال - ظل معظمهم مرتبكين بشأن كيفية عمل ميزة CSAM والمخاطر التي تشكلها على الخصوصية الفردية.



إغلاق التعليقات