مالك فيسبوك لـ “تقييم جدوى” مراجعة حقوق الإنسان للممارسات الإثيوبية

قالت منصة Meta Platforms (FB.O) المالكة لفيسبوك (FB.O) إنها ستقيم “جدوى” التكليف بإجراء تقييم مستقل لحقوق الإنسان في عملها في إثيوبيا ، بعد أن أوصى مجلس الرقابة بمراجعة كيفية استخدام فيسبوك وإنستغرام لنشر المحتوى. التي تزيد من مخاطر العنف هناك.
يتخذ مجلس الإدارة ، الذي أنشأته الشركة لمواجهة الانتقادات بشأن تعامله مع المواد الإشكالية ، قرارات ملزمة بشأن عدد صغير من حالات تعديل المحتوى الصعبة ويقدم توصيات سياسة غير ملزمة.
خضعت Meta للتدقيق من قبل المشرعين والمنظمين بشأن سلامة المستخدم ومعالجتها للانتهاكات على منصاتها في جميع أنحاء العالم ، لا سيما بعد أن قام المخبرون فرانسيس هوغن بتسريب وثائق داخلية أظهرت معاناة الشركة في مراقبة المحتوى في البلدان التي كان من المرجح أن يتسبب فيها هذا الخطاب. الضرر ، بما في ذلك إثيوبيا.
لقي الآلاف مصرعهم ونزح الملايين خلال صراع استمر لمدة عام بين الحكومة الإثيوبية والقوات المتمردة من منطقة تيغراي الشمالية.
قالت شركة التواصل الاجتماعي العملاقة إنها “استثمرت موارد كبيرة في إثيوبيا لتحديد وإزالة المحتوى الضار المحتمل” ، كجزء من استجابتها لتوصيات مجلس الإدارة في ديسمبر بشأن قضية تتعلق بمحتوى منشور في البلاد.
أيد مجلس الرقابة الشهر الماضي قرار ميتا الأصلي بإزالة منشور يزعم تورط مدنيين من عرق تيغراي في فظائع في منطقة أمهرة الإثيوبية. نظرًا لأن Meta أعاد المنشور بعد مناشدة المستخدم إلى مجلس الإدارة ، كان على الشركة إزالة المحتوى مرة أخرى.
وقالت ميتا إنه بينما حذفت المنشور ، فإنها لا توافق على منطق مجلس الإدارة بأنه كان يجب إزالته لأنها كانت “شائعة لم يتم التحقق منها” زادت بشكل كبير من خطر اندلاع أعمال عنف وشيكة. وقالت إن هذا سيفرض “معيار نشر صحفي على الناس”.
وقال متحدث باسم مجلس الرقابة في بيان: “سياسات ميتا الحالية تحظر الشائعات التي تسهم في أعمال عنف وشيكة لا يمكن دحضها في إطار زمني هادف ، وقدم المجلس توصيات لضمان تطبيق هذه السياسات بشكل فعال في حالات الصراع”.
وقالوا إن “الشائعات التي تزعم أن جماعة عرقية متواطئة في الفظائع ، كما وُجد في هذه القضية ، من المحتمل أن تؤدي إلى إلحاق ضرر جسيم بالناس”.
أوصى المجلس بأن تقوم Meta بإجراء تقييم للعناية الواجبة بحقوق الإنسان ، على أن يتم الانتهاء منه في غضون ستة أشهر ، والذي يجب أن يشمل مراجعة قدرات لغة Meta في إثيوبيا ومراجعة التدابير المتخذة لمنع إساءة استخدام خدماتها في البلاد.
ومع ذلك ، قالت الشركة إنه ليس كل عناصر هذه التوصية “قد تكون مجدية من حيث التوقيت أو علم البيانات أو النهج.” وقالت إنها ستواصل بذل العناية الواجبة في مجال حقوق الإنسان ويجب أن تحصل على تحديث بشأن ما إذا كان بإمكانها العمل على إعادة تشكيل مجلس الإدارة في غضون الأشهر القليلة المقبلة.
حققت تقارير رويترز السابقة عن ميانمار ودول أخرى في كيفية كفاح فيسبوك لمراقبة المحتوى في جميع أنحاء العالم بلغات مختلفة. في عام 2018 ، أصدرت الأمم المتحدة قال محققو حقوق الإنسان إن استخدام فيسبوك لعب دورًا رئيسيًا في نشر خطاب الكراهية الذي غذى العنف في ميانمار.
قالت Meta ، التي قالت إنها كانت بطيئة جدًا في منع التضليل والكراهية في ميانمار ، إن الشركة لديها الآن متحدثون أصليون في جميع أنحاء العالم يراجعون المحتوى بأكثر من 70 لغة والتي تعمل على وقف إساءة الاستخدام على منصاتها في الأماكن التي توجد بها ارتفاع مخاطر الصراع والعنف.
أوصى المجلس أيضًا بأن تعيد Meta كتابة بيان القيمة الخاص بها بشأن السلامة ليعكس أن الكلام عبر الإنترنت يمكن أن يشكل خطرًا على الأمن الجسدي للأشخاص وحقهم في الحياة. وقالت الشركة إنها ستجري تغييرات على هذه القيمة ، في تنفيذ جزئي للتوصية.