الإحالة إلى معايير مجتمع فيسبوك, معايير مجتمع فيسبوك, المحتوى المرفوض, خطاب الكراهية, معايير مجتمع إنستغرام, خطاب الكراهية والتنمر والإساءة
قضية مجلس الإشراف على ميتا لتغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة
دولية
قضية مُنتهية الحكم يُعزز من حُرية التعبير
حرية التعبير العالمية هي مبادرة أكاديمية، ولذلك، نشجعك على مشاركة وإعادة نشر مقتطفات من محتوانا طالما لا يتم استخدامها لأغراض تجارية وتحترم السياسة التالية:
• يجب عليك الإشارة إلى مبادرة جامعة كولومبيا لحرية التعبير العالمية كمصدر.
• يجب عليك وضع رابط إلى العنوان الأصلي للتحليل القضائي أو المنشور أو التحديث أو المدونة أو الصفحة المرجعية للمحتوى القابل للتنزيل الذي تشير إليه.
معلومات الإسناد وحقوق النشر والترخيص لوسائل الإعلام المستخدمة من قبل مبادرة حرية التعبير العالمية متاحة على صفحة الإسناد الخاصة بنا.
هذه القضية متاحة بلغات إضافية: استعرضها بلغة أخرى: English
في ٢٨ يناير ٢٠٢١، ألغى مجلس الإشراف قرار فيسبوك (المعروف الآن باسم ميتا) بحذف منشور لمستخدم على فيسبوك يتضمن صورتين لطفل سوري غرق في البحر الأبيض المتوسط، مصحوبًا بنص يشير إلى أن هناك “خللًا نفسيًا أو في طريقة تفكير المسلمين (أو الرجال المسلمين).” قامت فيسبوك بحذف المنشور بدعوى انتهاكه لمعايير المجتمع المتعلقة بخطاب الكراهية. ورأى المجلس أنه، على الرغم من أن المنشور قد يُعتبر مسيئًا، إلا أنه لم يروج للكراهية أو يحرض على ضرر وشيك. بالمثل، اعتبر المجلس أن تقييد فيسبوك لحرية التعبير، رغم سعيه لتحقيق هدف مشروع، لم يكن ضروريًا، حيث إن إزالة المحتوى لن تحمي أي مجموعة بعينها من التمييز، ومن غير المرجح أن تقلل من التوترات.
*مجلس الإشراف هو كيان منفصل عن ميتا يقدّم حكمه المستقل على الحالات الفردية ومسائل السياسة. يتم تمويل مجلس الاشراف وإدارته عبر صندوق ائتماني مستقل. يتمتع مجلس الاشراف بسلطة أخذ القرار فيما يتعلّق بالسّماح لفيسبوك وانستغرام للحفاظ على المحتويات المنشورة أو سحبها وهي قرارات ملزمة ما لم يشكّل تنفيذها خرقا للقانون. يستطيع مجلس الاشراف أيضا إصدار توصيات بشأن سياسات الشركة فيما يتعلّق بالمحتوى.
في أكتوبر ٢٠٢٠، نشر مستخدم على فيسبوك في ميانمار “صورتين متداولتين على نطاق واسع لطفل سوري من أصل كردي غرق في البحر الأبيض المتوسط في سبتمبر ٢٠١٥.” [ص. ٣] وفي النص المرفق بالمنشور، والذي كان باللغة البورمية، ذكر المستخدم أن “هناك خطبًا ما في المسلمين (أو الرجال المسلمين) نفسيًا أو في طريقة تفكيرهم.” [ص. ٣] بالإضافة إلى ذلك، تساءل المستخدم عن غياب رد الفعل من قبل المسلمين عمومًا تجاه معاملة المسلمين الإيغور في الصين مقارنةً بعمليات القتل في فرنسا انتقامًا للرسوم الكاريكاتورية للنبي محمد. نُشر المنشور في “مجموعة تصف نفسها بأنها منتدى للنقاش الفكري.” [ص. ٣].
ترجم فيسبوك (الذي يُعرف الآن باسم ميتا) العبارة على أنها “[هناك] خطبٌ ما في المسلمين نفسيًا.” وقررت الشركة إزالة المحتوى في نوفمبر ٢٠٢٠، مشيرةً إلى أن المنشور يمثل “خطاب كراهية من المستوى الثاني بموجب معايير المجتمع”، والتي تحظر “التصريحات العامة حول الدونية فيما يتعلق بالقصور العقلي لشخص أو مجموعة من الأشخاص على أساس دينهم.” [ص. ٣]
قبل إزالة المنشور، وُضعت شاشات تحذيرية على الصورتين الواردتين فيه بموجب معيار المحتوى العنيف في معايير المجتمع. [ص. ٤] واستأنف المستخدم قرار فيسبوك بإزالة منشوره أمام مجلس الإشراف.
حلّل مجلس الإشراف ما إذا كان قرار فيسبوك بإزالة منشور المستخدم الذي يحتوي على تعليقات حول المسلمين يتماشى مع معيار خطاب الكراهية الخاص بالشركة. كما قيّم المجلس ما إذا كان هذا الإجراء متوافقًا مع معايير حقوق الإنسان المتعلقة بحرية التعبير.
في استئنافه للمجلس، جادل المستخدم بأن المحتوى الذي تمت إزالته لا يتضمن خطاب كراهية. ووفقًا للمستخدم، فإن “منشوره كان ساخرًا وكان يهدف إلى مقارنة ردود الفعل الدينية المتطرفة في دول مختلفة.” [ص. ٥]
من جانبها، أكدت فيسبوك أن المحتوى الذي تمت إزالته يمثل هجومًا من المستوى ٢ بموجب معيار خطاب الكراهية، لأنه تضمن “تعميمًا حول النقص العقلي للمسلمين[…]”. وذكرت فيسبوك أن المكون الوحيد في المنشور الذي انتهك معايير المجتمع هو البيان القائل بأن هناك خطأ نفسيًا لدى المسلمين.” [ص. ٦]
الامتثال لمعايير المجتمع
تابع المجلس تحليله لما إذا كان إجراء فيسبوك متوافقًا مع معيارها المجتمعي حول خطاب الكراهية. لا يسمح هذا المعيار بـ”خطاب الكراهية على فيسبوك لأنه يخلق بيئة من الترهيب والإقصاء، وقد يروج في بعض الحالات للعنف في العالم الحقيقي.” [ص. ٤] يُعرَّف خطاب الكراهية من قبل فيسبوك على أنه يتكون من هجمات تستهدف سمات محمية، مثل “العرق والأصل القومي والانتماء الديني والتوجه الجنسي والطبقة الاجتماعية والجنس والهوية الجنسية والمرض والإعاقة”، مع بعض الحماية للعمر ووضع الهجرة.” [ص. ٤] كما تصنف الهجمات إلى ثلاثة مستويات، “قد تشمل خطابًا عنيفًا أو يحط من قدر الآخرين أو قوالب نمطية ضارة وتصريحات عن الدونية أو دعوات للإقصاء أو الفصل.”
في المستوى ٢، تُعتبر التعميمات التي تشير إلى الدونية المتعلقة بالنقص العقلي (المعرّف على أنه يتعلق بالقدرة الفكرية أو التعليم أو الصحة العقلية) محتوى محظورًا على فيسبوك.
بناءً على ذلك، لاحظ المجلس أنه عند قراءة الجملة الأولى من المنشور بمفردها، قد يبدو المحتوى كأنه تعميم مسيء ومهين عن المسلمين.” [ص. ٧] ومع ذلك، رأى المجلس أن المنشور يجب أن يُقرأ ككل، مع الأخذ في الاعتبار سياقه.
أكد المجلس أن الخبراء ومنظمات حقوق الإنسان، مثل “FORUM-ASIA” أو تقرير بعثة الأمم المتحدة الدولية المستقلة لتقصي الحقائق في ميانمار، “أشاروا إلى أن خطاب الكراهية ضد الأقليات المسلمة في ميانمار أمر شائع وأحيانًا شديد، لا سيما حول الانتخابات العامة في ٨ نوفمبر ٢٠٢٠.” [ص. ٧]
مع ذلك، رأى مجلس الإشراف أنه لا يوجد دليل يشير إلى أن العبارات الموجودة في المحتوى المحذوف “التي تصف المسلمين بأنهم غير مستقرين نفسيًا أو يعانون من اضطرابات عقلية تعد جزءًا كبيرًا من الخطاب المعادي للمسلمين في ميانمار.” [ص. ٧]
علاوة على ذلك، لاحظ المجلس وجود اختلاف بين الترجمة التي قدمتها فيسبوك وتلك التي قدمها مترجم المجلس: “بينما ترجمت فيسبوك الجملة على أنها “[بالفعل] هناك خطأ نفسي لدى المسلمين”، وجد مترجمو المجلس أنها تعني “هؤلاء الرجال المسلمون لديهم خطأ في طريقة تفكيرهم.” [ص. ٧] لذلك، اقترح مترجم المجلس أنه على الرغم من أن المصطلحات المستخدمة قد تعكس تعصبًا، “إلا أنها لم تكن مهينة أو عنيفة.” [ص. ٧]
كما رأى المجلس أن المنشور، في سياقه، يجب فهمه “كتعليق يشير إلى التناقض الظاهر بين ردود فعل المسلمين تجاه الأحداث في فرنسا والصين.” [ص. ٧] وبالنظر إلى ذلك، اعتبر المجلس أن هذا التعبير محمي بموجب معايير المجتمع، ولا يستدعي الإزالة.
الامتثال لقيم فيسبوك
تنص معايير مجتمع فيسبوك على أن “الصوت” و”السلامة” هما قيمتان أساسيتان للمنصة. الهدف من “الصوت”، وهو قيمة أساسية في المنصة، هو تعزيز بيئة يمكن للمستخدمين فيها مناقشة الأمور المهمة علنًا. مع ذلك، قد تقيد المنصة “الصوت” لخدمة عدة قيم أخرى، بما في ذلك “السلامة”. [ص. ٥] تشير “السلامة” إلى أهمية جعل فيسبوك مكانًا آمنًا، لذا فإن التعبير الذي يهدد الناس أو “يستبعد أو يسكت الآخرين غير مسموح به على فيسبوك”. [ص. ٥]
رأى مجلس الإشراف أن قرار المنصة بإزالة المحتوى لم يتوافق مع قيمها الخاصة. وفقًا للمجلس، لا يشكل المنشور “خطرًا على ’السلامة‘ يبرر تقييد ’الصوت‘” [ص. ٨] حتى في سياق التمييز ضد المسلمين المنتشر في ميانمار.
الامتثال للمعايير الدولية لحقوق الإنسان
أكد المجلس، تماشيًا مع المادة ١٩ من العهد الدولي الخاص بالحقوق المدنية والسياسية والتعليق العام رقم ٣٤ الصادر عن مجلس حقوق الإنسان التابع للأمم المتحدة، أن “للأفراد الحق في طلب وتلقي المعلومات، بما في ذلك المعلومات المثيرة للجدل والمسيئة بشدة.” [ص. ٨] كما أشار المجلس إلى أن حرية التعبير ليست حقًا مطلقًا، بل يمكن تقييدها في ظروف معينة. على سبيل المثال، بموجب المادة ٢٠، الفقرة ٢، من العهد الدولي، يتعين على الدول حظر المحتوى الذي يتضمن “التحريض على الكراهية الدينية الذي يشكل تحريضًا على التمييز أو العداء أو العنف.” [ص. ٨].
رأى مجلس الإشراف أن المنشور لا يندرج تحت الحظر المنصوص عليه في المادة ٢٠، الفقرة ٢، من العهد الدولي. وفي الوصول إلى هذا الاستنتاج، “أخذ المجلس في الاعتبار العوامل المذكورة في خطة عمل الرباط التابعة للأمم المتحدة، بما في ذلك السياق ومحتوى المنشور واحتمالية الضرر” [ص. ٨]. وعلى الرغم من أن نبرة المنشور كانت تحقيرية، إلا أن المجلس لاحظ أنها لم تحرض على الكراهية أو العنف بشكل مقصود.
كما حلّل المجلس ما إذا كان إجراء فيسبوك لإزالة المحتوى صالحًا بموجب المادة ١٩، الفقرة ٣، من العهد الدولي، التي تتطلب أن “يتم تعريف القيود المفروضة على التعبير بوضوح وسهولة الفهم (شرط الشرعية)، وأن يكون الغرض منها تحقيق إحدى الأهداف المدرجة (شرط الهدف المشروع)، وأن تكون ضرورية ومتناسبة مع الهدف المحدد (شرط الضرورة والتناسب).” [ص. ٨]
رأى المجلس أن قرار فيسبوك بإزالة المنشور سعى لتحقيق هدف مشروع: حماية “حقوق الآخرين في الحياة والأمن الشخصي والحماية من الإصابات الجسدية أو النفسية والحماية من التمييز.” [ص. ٩] ويعد هذا الهدف ذا أهمية خاصة في سياق ميانمار، حيث “ارتبط خطاب الكراهية عبر الإنترنت بأضرار جسيمة في الواقع، بما في ذلك اتهامات محتملة بجرائم ضد الإنسانية والإبادة الجماعية.” [ص. ٩]
ومع ذلك، جادل المجلس بأنه على الرغم من أن البعض قد يعتبر المنشور مسيئًا، إلا أن إزالته لم تكن ضرورية لحماية حقوق الآخرين. وأشار المجلس إلى أن المنشور لم يتضمن تهديدات ضد أفراد محددين، واعتبر أن “ادعاء المستخدم في استئنافه بأنه يعارض جميع أشكال التطرف الديني” [ص. ٩] يدعم ذلك.
أكد المجلس أهمية النقاش المفتوح، “حتى في الحالات التي تكون فيها مناقشة الدين أو الهوية حساسة وقد تسبب إزعاجًا” [ص. ٩]. واعتبر المجلس أن إزالة المحتوى لن تحمي أي مجموعة بعينها من التمييز، ومن غير المرجح أن تقلل التوترات.
بناءً على ذلك، ألغى المجلس قرار فيسبوك، معتبرًا أن “المنصة كانت مخطئة في إزالة المحتوى.” [ص. ٩] وألزم المجلس فيسبوك بإعادة نشر المحتوى.
يشير اتجاه الحكم إلى ما إذا كان الأخير يُوسع من مدي التعبير أم يُضيقه بناءً على تحليل للقضية.
يُوسّع هذا القرار الصادر عن مجلس الإشراف نطاق حرية التعبير من خلال السماح بخطاب مثير للجدل حول القضايا الدينية والسياسية على فيسبوك. وعلى الرغم من أن المجلس يدرك التحديات المرتبطة بمراقبة المحتوى ضمن فئة خطاب الكراهية في السياق الخاص بميانمار، إلا أن قراره يأخذ في الاعتبار معايير حقوق الإنسان المتعلقة بحرية التعبير لتقييم ما إذا كان المحتوى المتنازع عليه يندرج بالفعل ضمن هذه الفئة. ويساهم ذلك في تعزيز بيئة أفضل للتعبير والنقاش حول القضايا الاجتماعية الحساسة.
يوضح المنظور العالمي كيف تأثر قرار المحكمة بمعايير سواء من منطقة واحدة أو عدة مناطق.
قام المجلس بتحليل مسؤوليات فيسبوك في مجال حقوق الإنسان من خلال هذا المبدأ المتعلق بحرية التعبير.
أشار المجلس إلى هذا التقرير لتسليط الضوء على الوضع في ميانمار فيما يتعلق باستخدام خطاب الكراهية ضد المسلمين.
أشار المجلس إلى هذه الأداة لتسليط الضوء على مسؤوليات فيسبوك التجارية تجاه حقوق الإنسان.
قام المجلس بتحليل مسؤوليات فيسبوك تجاه حقوق الإنسان فيما يتعلق بحرية التعبير.
أشار المجلس إلى هذا الوثيقة لتحليل مسؤوليات فيسبوك تجاه حقوق الإنسان فيما يتعلق بالتحريض على الكراهية.
تُشير أهمية هذه القضية إلى مدى تأثيرها وكيفية تغير مدى أهميتها بمرور الوقت.
وفقًا للمادة ٢ من ميثاق مجلس الإشراف “لكل قرار، ستكون لأي من القرارات السابقة للمجلس قيمة سابقة ويجب النظر إليها على أنها ذات تأثير كبير عندما تكون الحقائق والسياسات المطبقة أو العوامل الأخرى متشابهة بشكل كبير.” بالإضافة إلى ذلك، تنص المادة ٤ من ميثاق مجلس الإشراف على أن “قرارات المجلس في كل حالة ستكون ملزمة وستقوم فيسبوك (الآن ميتا) بتنفيذها على الفور، ما لم يكن تنفيذ القرار يمكن أن ينتهك القانون. في الحالات التي تحدد فيها فيسبوك أن محتوى مماثلًا مع سياق موازٍ – والذي قد قرر المجلس بشأنه بالفعل – لا يزال موجودًا على فيسبوك (الآن ميتا)، ستتخذ إجراءات من خلال تحليل ما إذا كان من الممكن تقنيًا وتشغيليًا تطبيق قرار المجلس على ذلك المحتوى أيضًا. عندما يتضمن القرار توجيهات سياسية أو رأيًا استشاريًا سياسيًا، ستتخذ فيسبوك (الآن ميتا) إجراءات إضافية من خلال تحليل الإجراءات التشغيلية المطلوبة لتنفيذ التوجيهات، والنظر فيها في عملية تطوير السياسات الرسمية لفيسبوك (الآن ميتا)، والتواصل بشفافية حول الإجراءات المتخذة نتيجة لذلك.”