قضية مجلس الإشراف على ميتا لأعراض سرطان الثدي والعُري

قضية مُنتهية الحكم يُعزز من حُرية التعبير

Key Details

  • نمط التعبير
    التواصل الإلكتروني / القائم على الإنترنت
  • تاريخ الحكم
    يناير ٢٨, ٢٠٢١
  • النتيجة
    قرار مجلس الإشراف على ميتا, إلغاء القرار الأولي لشركة ميتا
  • رقم القضية
    ٢٠٢٠-٠٠٤-IG-UA
  • المنطقة والدولة
    البرازيل, أمريكا اللاتينية والكاريبي
  • الهيئة القضائية
    مجلس الإشراف على ميتا
  • نوع القانون
    القانون الدولي لحقوق الإنسان, سياسات ميتا للمحتوى
  • المحاور
    الإحالة إلى معايير مجتمع فيسبوك, العُري والنشاط الجنسي للبالغين, معايير مجتمع إنستغرام, المحتوى المرفوض
  • الكلمات الدلالية
    البيان الاستشاري لمجلس الإشراف بشأن سياسة ميتا, البيان الاستشاري لمجلس الإشراف بشأن إنقاذ ميتا لسياستها, البيان الاستشاري لمجلس الإشراف بشأن الشفافية

سياسة اقتباس المحتوى

حرية التعبير العالمية هي مبادرة أكاديمية، ولذلك، نشجعك على مشاركة وإعادة نشر مقتطفات من محتوانا طالما لا يتم استخدامها لأغراض تجارية وتحترم السياسة التالية:

• يجب عليك الإشارة إلى مبادرة جامعة كولومبيا لحرية التعبير العالمية كمصدر.
• يجب عليك وضع رابط إلى العنوان الأصلي للتحليل القضائي أو المنشور أو التحديث أو المدونة أو الصفحة المرجعية للمحتوى القابل للتنزيل الذي تشير إليه.

معلومات الإسناد وحقوق النشر والترخيص لوسائل الإعلام المستخدمة من قبل مبادرة حرية التعبير العالمية متاحة على صفحة الإسناد الخاصة بنا.

هذه القضية متاحة بلغات إضافية:    استعرضها بلغة أخرى: English    استعرضها بلغة أخرى: Español    استعرضها بلغة أخرى: Français

تحليل القضية

ملخص القضية وما انتهت اليه

في ٢٨ يناير ٢٠٢١، ألغى مجلس الإشراف قرار شركة فيسبوك (ميتا حاليًا) بإزالة منشور على إنستغرام يحتوي على صور لحلمات نسائية مكشوفة تهدف إلى رفع الوعي بسرطان الثدي وأعراضه. أزالت فيسبوك المنشور من خلال مصنف آلي تطبيقًا لمعايير مجتمع فيسبوك بشأن العري والنشاط الجنسي للبالغين. رغم أنّ فيسبوك أعادت المنشور واعترفت بخطأ في الإنفاذ، أصدر مجلس الإشراف قرارًا بشأن هذه المسألة معتبرًا أنّ قرار الشركة لا يتوافق مع معايير مجتمع فيسبوك لأن عري البالغين مسموح به عندما تكون أغراضه تعليمية وطبية مثل رفعي الوعي بسرطان الثدي. كما اعتبر مجلس الإشراف أن قرار فيسبوك الأصلي أثر على حق المستخدمين في تلقي معلومات حول مسائل متعلّقة بالصحة وأثر بشكل غير متناسب على النساء مما يثير مخاوف تتعلّق بالتّمييز.

*مجلس الإشراف كيان مستقل عن ميتا ويقدم حكمه المستقل بشأن كل من الحالات الفردية وأسئلة السياسة. يتم تمويل كل من المجلس وإدارته بواسطة صندوق مستقل. للمجلس السلطة لتحديد ما إذا كان يجب على فيسبوك وإنستغرام السماح بالمحتوى أو إزالته. هذه القرارات ملزمة، إلا إذا كان تنفيذها يمكن أن ينتهك القانون. يمكن للمجلس أيضًا اختيار إصدار توصيات بشأن سياسات المحتوى الخاصة بالشركة.


الوقائع

في أكتوبر 2020، نشر مستخدم في البرازيل شريط من الصور على انستغرام يتألّف من ثماني صور فوتوغرافيّة تبيّن أعراض سرطان الثدي مع تضمين وصف أسفل كل منها مثل “تموجات” و”كتل” و”جروح”. [ص ٤] بيّنت خمس من تلك الصور حلمات ثدي أنثوي مكشوفة، بينما تضمنت الثلاث صور الأخرى ثديًا أنثويًا دون ظهور الحلمة في اللقطة أو تغطيتها باليد. كانت الصورة تحمل “عنوانًا باللغة البرتغالية يشير إلى أنّ الهدف يتمثّل في رفع الوعي بأعراض سرطان الثدي. كانت الصورة وردية اللون، تماشيًا مع “أكتوبر الوردي” وهي حملة دولية شائعة في البرازيل لزيادة الوعي بسرطان الثدي.” [ص ٤] لم يضف المستخدم أيّ تعليق آخر في المنشور.

تمت إزالة المنشور بواسطة مصنّف آلي “إنفاذًًا لمعيار مجتمع فيسبوك حول العري والنّشاط الجنسي للبالغين الذي ينطبق أيضًا على انستغرام.” [ص ٤]

طعن المستخدم في قرار فيسبوك (ميتا حاليًا) التي تمتلك انستغرام وكانت الشركة قد أعلنت سابقًا أنّها لن تتمكّن دائمًا من توفير خيار الطّعن في القرارات لأنّ عدد المراجعين في تلك الفترة كان محدودًا بسبب جائحة كوفيد ١٩ كما صرحت فيسبوك “بأن المراجعة البشرية لا تتوفر لكل الطعون المقدمة.” [ص ٤]

تقدم المستخدم بطلب مراجعة إلى مجلس الإشراف الذي وافق على النظر في الحالة. بعد اختيار المجلس للحالة وإحالتها إلى إحدى اللجان، “ألغت فيسبوك قرارها الأصلي بإزالة المنشور وأعادت نشره في ديسمبر ٢٠٢٠.” [ص ٤] ادّعت فيسبوك أن القرار الأصلي بإزالة المحتوى تم بطريقة آلية لكن عندما راجعت قرارها تبيّنت وجود خطأ على مستوى التّنفيذ.

بما أنّ فيسبوك أعادت نشر المحتوى، اعتبرت أنّ الخلاف بشأنه لم يعد قائم الذّات وأنّه كان ينبغي على المجلس “أن يرفض النّظر في الحالة التي انتفت بإعادة النّشر.” [ص ٥] لكن المجلس قرّر النّظر في الحالة بسبب وجود أضرار لا سبيل إلى جبرها إذ “لم يعوّض قرار فيسبوك باستعادة المحتوى في بداية ديسمبر ٢٠٢٠ عن الأضرار التي تسبب فيها حذف المحتوى على مدى حملة أكتوبر الوردي.” [ص ٥]


نظرة على القرار

نظر مجلس الإشراف في ما إذا كان قرار فيسبوك بإزالة منشور المستخدم، بما في ذلك صور الحلمات الأنثوية المكشوفة بقصد رفع الوعي بسرطان الثدي، يتوافق مع معيار مجتمع فيسبوك حول العري والنشاط الجنسي للبالغين. كما تولّى المجلس تقييم ما إذا كان قرار إزالة المحتوى يتوافق مع معايير حقوق الإنسان بشأن حرية التعبير.

في بيانه، قال المستخدم أن المنشور كان “جزءًا من”الحملة الوطنيّة أكتوبر الوردي للوقاية من سرطان الثدي و هو يظهر البعض من أهمّ أعراض سرطان الثدي، التي اعتبرها المستخدم ضرورية للكشف المبكر عن هذا المرض و من شأنها أن تنقذ الأرواح.” [ص ٨]

أقرّت فيسبوك من جانبها بأنّ إزالة المحتوى كان على وجه الخطأ. أوضحت الشركة أيضًا أن معايير مجتمع فيسبوك تنطبق على انستغرام وأنه على الرغم من أن معايير المجتمع تحظر بشكل عام عرض الحلمات الأنثوية المكشوفة فهي “تسمح بها للأغراض التعليمية أو الطبية، بما في ذلك التوعية بسرطان الثدي.” [ص ٨]

الامتثال لسياسات ميتا للمحتوى

انطلق مجلس الإشراف في تحليله بالنّظر في ما إذا كان قرار فيسبوك بإزالة المحتوى يتوافق مع سياسة المنصّة بشأن العري والنشاط الجنسي للبالغين. لاحظ المجلس وجود تناقض بين معايير مجتمع انستغرام ومعيار مجتمع فيسبوك المذكور أعلاه. بما أنّ توجيهات مجتمع انستغرام قد ذكرت للمستخدم عند إشعاره بأن المحتوى الذي نشره ينتهك القواعد المذكورة، اعتبر المجلس أن “الاختلافات بين هذه القواعد تستدعي تحليلًا منفصلًا.” [ص ٩]

أشار المجلس إلى أن معايير مجتمع انستغرام لا تسمح بالعري على المنصة، مع استثناءات قليلة، مثل “صور الندبات النّاتجة عن استئصال الثدي وصور النساء المرضعات.” [ص ٩] لا تذكر هذه الاستثناءات صراحة “صور الحلمات الأنثوية المكشوفة لرفع الوعي بسرطان الثدي.” [ص ٩]. لكن معيار مجتمع فيسبوك بشأن العري والنشاط الجنسي للبالغين “يذكر أنه يسمح بعري البالغين بالتراضي عندما يشير المستخدم بوضوح إلى أن المحتوى يسعى لرفع الوعي بقضية أو لأسباب تعليمية أو طبية.”[ص ١٠].اعتبر المجلس أن “العلاقة بين مجموعتي القواعد، بما في ذلك القواعد التي لها الأسبقية، غير واضحة.” [الصفحة ٩]

ذكّر المجلس أنّ معيار مجتمع فيسبوك بشأن العري والنشاط الجنسي للبالغين يمنع المستخدمين من نشر صور للحلمات الأنثويّة المكشوفة أو محتوى حول النشاط الجنسي على المنصة. لكنّه لاحظ أن رفع الوعي والاعتبارات التعليمية أو الطبية تشكّل استثناءات لهذه القاعدة حيث يورد في قسم “يجب عدم نشر” ضمن معايير مجتمع فيسبوك “التوعية بسرطان الثدي” كمثال على الحالات الصحية التي يُسمح فيها بإظهار حلمات أنثوية مكشوفة. [ص ١٠]

بالتالي، اعتبر المجلس أن المنشور الذي تمت إزالته يدخل تمامًا في نطاق الاستثناء “وقبل التّفسير الذي قدّمته فيسبوك بكون معايير المجتمع تنطبق على إنستغرام.” [ص ١٠] من ثم، اعتبر مجلس الإشراف أن قرار فيسبوك بإزالة المحتوى لا يتوافق مع سياسات المحتوى الخاصّة به.

الامتثال لقيم فيسبوك

تحدد معايير مجتمع فيسبوك “حريّة التّعبير” و”السّلامة” و”الخصوصية” كقيم أساسية للمنصة. تهدف “حريّة التّعبير” وهي قيمة حيويّة إلى إنشاء فضاء للتعبير يكون فيه الناس “قادرين على التحدث بصراحة في القضايا التي تهمهم، حتى لو كان البعض يعارضها أو يرفضها.” [ص ٧] أمّا ” السّلامة” فهي تبرز أهمية أن يشكّل فيسبوك مكانًا آمنًا حيث التعبير الذي يهدد الناس أو “من شأنه أن يخوّف الآخر أو يقصيه أو يسكته، غير مسموح به.” [ص ٧] تهدف قيمة “الخصوصية” إلى حماية الحياة الخاصّة والمعلومات الشخصية عبر تمكين النّاس من “اختيار كيف ومتى ينشرون محتوى على فيسبوك.” [ص ٧]

باعتبار ما سبق، أقرّ المجلس بأن قرار فيسبوك بإزالة منشور المستخدم لا يتوافق مع قيم الشركة. بالنسبة للمجلس، “تشمل قيمة حريّة التّعبير بوضوح مناقشة المسائل المتعلقة بالصحة وهي تكتسي قيمة خاصّة في ما يتعلّق برفع الوعي بأعراض سرطان الثدي.” [ص ١٠] قال المجلس إن إمكانية مشاركة هذا النوع من المحتوى تساهم أيضًا في سلامة جميع الأشخاص الذين يعانون من المرض أو المعرضين له. أخيرًا، اعتبر مجلس الإشراف أنه نظرًا لعدم وجود ما يشير إلى أن الصور [التي نشرها المستخدم] تضمنت صورًا غير توافقية، لم يتمّ المسّ بالخصوصية. [ص ١٠]

الامتثال لمسؤوليات فيسبوك تجاه حقوق الإنسان

طبقًا لما ورد في تقرير المقرر الخاص للأمم المتحدة المعني بحرية الرأي والتعبير، جادل المجلس بأن “المعلومات المتعلقة بالصحة تكتسي أهميّة خاصّة” وهي بالتّالي محميّة – كما ورد في التعليق العام رقم ١٤ للجنة الحقوق الاقتصادية والاجتماعية والثقافية بشأن المادة ١٢ من العهد الدولي الخاص بالحقوق المدنية والسياسية – “في إطار الحق في الصحة”. [ص 11] وقد شدد المجلس على العلاقة بين هذين الحقين بالنظر إلى سياق البرازيل “حيث تعتبر حملات التوعية حيويّة للتّرويج للتشخيص المبكر لسرطان الثدي.” [ص 11]

مع أخذ ذلك في الاعتبار، تولّى المجلس تحليل إجراء فيسبوك لإزالة محتوى المستخدم مقارنة بالمعايير الدولية لحقوق الإنسان بشأن حرية التعبير، على النحو المنصوص عليه في المادة ١٩ من العهد الدولي الخاص بالحقوق المدنية والسياسية. لإنجاز ذلك، نظر المجلس في قانونية وشرعية الهدف وضرورة وتناسب القيود التي فرضتها الشركة على حرية التعبير.

أ‌. الشرعيّة

عملًا بما جاء في التعليق العام ٣٤ للجنة المعنية بحقوق الإنسان، اعتبر المجلس أن “القواعد التي تقيّد التّعبير يجب أن تكون واضحة ودقيقة ومتاحة للعموم” وحسب رأي المجلس، لم يتم استيفاء هذا الشّرط نظرًا لوجود تناقضات بين معايير مجتمع فيسبوك ومعايير مجتمع انستغرام؛ “كما لم يتمّ إشعار مستخدمي انستغرام بأنّ معايير مجتمع فيسبوك لها الأسبقية على معايير مجتمع انستغرام.” [ص ١١] وقد تفاقم هذا التناقض وعدم الوضوح لأنّ إشعارات الإزالة، في هذه الحالة، أشارت فقط إلى معايير مجتمع انستغرام. وعليه، اعتبر المجلس أن “قواعد فيسبوك في هذا المجال لم تنجح في اختبار الشرعية”. [ص ١١]

ب‌. الهدف المشروع

أشار المجلس إلى أن “أي تقييد لحرية التعبير يجب أن يكون لغرض مشروع، حسبما ورد في المادة ١٩، الفقرة ٣ من العهد الدولي الخاص بالحقوق المدنية والسياسية”. [ص ١١] كما ذكرت فيسبوك، تسعى سياسة محتوى فيسبوك بشأن العري والنشاط الجنسي للبالغين إلى “منع مشاركة صور إساءة معاملة الأطفال والصور الحميمية دون موافقة أصحابها على فيسبوك وانستغرام.” [ص ١١] بالنسبة للمجلس، يعد هذا هدفًا مشروعًا بموجب القانون الدولي لحقوق الإنسان لأن القيود المفروضة على حرية التعبير صالحة لحماية “حقوق الآخرين” التي تشمل “الحق في الخصوصية لضحايا تبادل الصور الحميميّة دون موافقتهم (المادة ١٧ من العهد الدولي الخاص بالحقوق المدنية والسياسية) وحقوق الطفل في الحياة والنمو (المادة ٦ من اتفاقية حقوق الطفل)” التي يمكن تهديدها، كما جاء في التعليق العام ١٣ للجنة حقوق الطفل، في حالات الاستغلال الجنسي.

ج‌. الضّرورة والتّناسب

اعتبر المجلس، وفقًا للتعليق العام 34 للجنة المعنية بحقوق الإنسان، أن التدابير التي تقيد “حرية التعبير” يجب أن تكون مناسبة لتحقيق وظيفتها الحمائية ويجب أن يكون التقييد الأقل تدخلًا ضمن االتقييدات التي من شأنها أن تحقّق تلك الوظيفة الحمائية؛ وأن تكون متناسبة مع المصلحة المراد حمايتها”. [ص ١٢]

أعرب المجلس عن قلقه من أن المحتوى قد تم حذفه على وجه الخطأ “من خلال نظام إنفاذ آلي وربما دون مراجعة بشرية أو استئناف”. [ص ١٢] استشهد المجلس بتقرير صادر عن مقرر الأمم المتحدة الخاص المعني بحرية التعبير لتسليط الضّوء على حدود التقنيات الآلية في فهم السياق وإدراك مدى تعقيد التواصل البشري. في هذه الحالة، لم يتمكّن المصنف الآلي “من التعرف على كلمتي “سرطان الثدي” المدرجتين باللغة البرتغاليّة أعلى يسار الصورة”. [ص ١٢]

أقرّ المجلس بكون التقنيات الآلية تضطلع بدور حيويّ في الإشراف على المحتوى، إلا أن الإنفاذ لا يمكن أن يعتمد عليها فقط معتبرًا أنّه “لا بدّ لعمليات الإزالة الآلية أن تخضع لإجراءات التدقيق الداخلي[…]مع توفير إمكانيّة الطّعن وطلب المراجعة البشرية” [ص ١٢] واستشهد بتقرير من المقرر الخاص للأمم المتحدة المعني بحرية التعبير وخلص مجلس الإشراف إلى أنه في غياب الضمانات الضروريّة، يصبح الإشراف الآلي على المحتوى طريقة غير متناسبة “لتواجه بها فيسبوك الأشكال المخالفة من عري البالغين”. [ص ١٢]

أعرب المجلس عن قلقه من أن الإجراءات المتّخذة من طرف فيسبوك لا تحترم مبدأ المساواة وعدم التمييز على النحو المنصوص عليه في التعليق العام ٣٤ للجنة حقوق الإنسان بشأن حرية الرأي والتعبير. بالنسبة للمجلس، استنادًا إلى المادة ١ من اتفاقية القضاء على جميع أشكال التمييز ضد المرأة والمادة ٢ من العهد الدولي الخاص بالحقوق المدنية والسياسية، من المرجح أن يؤثّر الاعتماد على المراجعة الآلية “تأثيرًا غير متناسب على النساء، مما يثير مخاوف من التمييز لأن قواعد فيسبوك تعامل حلمات الذكور والإناث بشكل مختلف”. [ص ١٣] كما اثّرت الإجراءات التي اتّخذتها فيسبوك في هذه الحالة على إمكانيّة رفع الوعي في ما يتعلّق بسرطان الثّدي. من هذا المنطلق، فإن إجراءات فيسبوك لا تعرض حق المرأة في حرية التعبير للخطر فحسب، بل تهدد أيضًا حقها في الصحة.

أخيرًا، اعتبر المجلس أنه من المثير للقلق “ألّا تعلم فيسبوك المستخدمين عندما تخضع المحتويات التي ينشرونها إلى مراجعة آليّة وأنّ الطّعن وطلب المراجعة البشرية قد لا تكون دائمًا متاحة”. [ص ١٣] قد يكون هذا مؤشرًا على انعدام الشفافية ويخالف التزام “المؤسسات التجارية التي تشرف على المحتوى” بتوفير سبل الانتصاف للزّبائن والمستخدمين، كما عبر عن ذلك مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير.

لكلّ هذه الأسباب، ألغى مجلس الإشراف “قرار فيسبوك الأصلي بإزالة المحتوى وطالب بالحفاظ على ما نُشر” [ص ١٤]، مشيرًا إلى أنه يدرك أن فيسبوك قاد أعادت بعد المحتوى الذي أزالته.

بيان استشاري عن سياسة فيسبوك

بالإضافة إلى إلغاء قرار فيسبوك الأصلي، حث المجلس الشركة أيضًا على تحسين نظامها الآلي للكشف عن الصور. كما حثّ فيسبوك على اعتماد المزيد من الشفافيّة في ما يتعلق بإنفاذ معايير مجتمع الشركة وسبل الطّعن من خلال الحرص على ” إشعار المستخدمين بأسباب إنفاذ سياسات المحتوى ضدّ ما نشروه” وأن “يتم إشعارهم كلّما تمّ استخدام النّظم الآليّة لمراجعة المحتوى الذي نشروه” وأنه “يمكنهم الطّعن في القرارات التي تتخذها تلك الأنظمة الآلية وطلب المراجعة البشرية عندما تعتبر الشركة أن المحتوى انتهك معيار مجتمع فيسبوك بشأن العري والنشاط الجنسي للبالغين”. [ص ١٤] كما أوصى المجلس فيسبوك “باعتماد إجراء للتدقيق الداخلي لإنجاز تحليلات متواصلة لعينة تمثيلية إحصائيًا للقرارات الآليّة بإزالة المحتوى لتلافي أخطاء الإنفاذ والتعلم منها”. علاوة على ذلك، قال المجلس أنّه يتعيّن على فيسبوك أن “تنشر بيانات حول عدد قرارات مسح المحتوى المتّخذة آليًّا وفقًا لمعايير المجتمع ونسبة القرارات التي تم التّراجع عنها لاحقًا بعد المراجعة البشرية”. [ص ١٤]

أوصى المجلس كذلك بأن تراجع فيسبوك معايير مجتمع انستغرام لبيان أنّ حظر عري البالغين ليس مطلقًا وأنّه “يمكن عرض حلمات أنثويّة مكشوفة لرفع الوعي بسرطان الثدي”. [ص ١٥] أخيرًا، طلب المجلس توضيحًا من فيسبوك في ما يتعلق “بمعايير مجتمع انستغرام وتفسيرها بما يتماشى مع معايير مجتمع فيسبوك وعند وجود تضارب تكون الأسبقيّة لمعايير مجتمع فيسبوك”. [ص ١٥]


اتجاه الحكم

معلومات سريعة

يشير اتجاه الحكم إلى ما إذا كان الأخير يُوسع من مدي التعبير أم يُضيقه بناءً على تحليل للقضية.

الحكم يُعزز من حُرية التعبير

من خلال إلغاء قرار فيسبوك بإزالة المحتوى الهادف لرفع الوعي بسرطان الثدي، وسّع مجلس الإشراف نطاق حرية التعبير مع حماية الوصول إلى المعلومات والحق في الصحة وحق المرأة في عدم التمييز في قضية تكتسي أهميّة قصوى للصحة العموميّة. كما عزّز قرار المجلس حرية التعبير من خلال التوصية بأن يعتمد فيسبوك ضمانات مثل المراجعة البشرية بشأن الإشراف الآلي على المحتوى. من خلال حث الشركة على زيادة الشفافية بشأن فعالية الإشراف الآلي على المحتوى، ساهم المجلس أيضًا في إرساء بيئة ملائمة أكثر لحرية التعبير عبر الإنترنت.

المنظور العالمي

معلومات سريعة

يوضح المنظور العالمي كيف تأثر قرار المحكمة بمعايير سواء من منطقة واحدة أو عدة مناطق.

جدول المراجع المستند اليها

القوانين الدولية و/أو الإقليمية ذات الصلة

  • اتفاقية القضاء على جميع أشكال التمييز ضد المرأة٫ المادة ١

    قام المجلس بتحليل مسؤوليات حقوق الإنسان الخاصة بفيسبوك من خلال هذا المبدأ المتعلق بحقوق المرأة وعدم التمييز.

  • اتفاقية حقوق الطفل٫ المادة ٦

    استشهد المجلس بهذا المبدأ لتسليط الضوء على حماية حقوق الأطفال بموجب القانون الدولي لحقوق الإنسان.

  • العهد الدولي الخاص بالحقوق المدنية والسياسية٬ مادة ٢

    حلل المجلس مسؤوليات فيسبوك في مجال حقوق الإنسان من خلال هذا المبدأ المتعلق بحق عدم التمييز.

  • العهد الدولي الخاص بالحقوق المدنية والسياسية٬ مادة ١٩

    حلل المجلس مسؤوليات فيسبوك في مجال حقوق الإنسان من خلال هذا المبدأ المتعلق بحرية التعبير.

  • العهد الدولي الخاص بالحقوق المدنية والسياسية٬ مادة ١٩ الفقرة ٣

    قام المجلس بتحليل شرط الهدف المشروع من خلال هذا المبدأ المتعلق بحرية التعبير.

  • العهد الدولي الخاص بالحقوق المدنية والسياسية٬ مادة ١٧

    أشار المجلس إلى هذه المادة ليبرز أن حماية الخصوصية يمكن أن تكون هدفًا مشروعًا للتدابير التي تقيد حرية التعبير.

  • اللجنة المعنية بحقوق الإنسان٬ التعليق العام رقم ٣٤

    أشار المجلس إلى هذا التعليق العام ليبين مبدأ المساواة وعدم التمييز وليحدد شرط الشرعية.

  • اللجنة الحقوق الاقتصادية والاجتماعية والثقافية٬ تعليق عام رقم ١٤: الحق في التمتع بأعلى مستوى من الصحة يمكن بلوغه

    أشار المجلس إلى هذا التعليق العام لتسليط الضوء على العلاقة بين الحق في الصحة والحصول على المعلومات.

  • للجنة الحقوق الاقتصادية والاجتماعية والثقافية٬ تعليق عام رقم ١٣

    أشار المجلس إلى هذا التعليق العام للتأكيد على خطر الاستغلال الجنسي لحقوق الطفل.

  • المبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان (٢٠١١)

    أشار المجلس إلى هذه الأداة لتسليط الضوء على مسؤوليات شركات فيسبوك في مجال حقوق الإنسان.

  • المقرر الخاص للأمم المتحدة المعني بحرية الرأي والتعبير٬ A/HRC/٣٨/٣٥ (٢٠١٨)

    أشار المجلس إلى التقرير للإشارة إلى الدور الرئيسي لسبل الانتصاف في حالات إزالة المحتوى.

  • المقرر الخاص للأمم المتحدة المعني بحرية الرأي والتعبير٬ A/HRC/٤٤/٤٩ (٢٠٢٠)

    أشار المجلس إلى التقرير للتأكيد على أهمية المعلومات المتصلة بالصحة.

  • المقرر الخاص للأمم المتحدة المعني بحرية الرأي والتعبير٬ A/٧٣C/348 (2018)

    أشار المجلس إلى التقرير لتسليط الضوء على قيود التكنولوجيات الآلية في مجال الإشراف على المحتوى وأهمية المراجعة البشرية

اهمية القضية

معلومات سريعة

تُشير أهمية هذه القضية إلى مدى تأثيرها وكيفية تغير مدى أهميتها بمرور الوقت.

يُنشئ القرار سابقة ملزمة أو مقنعة داخل نطاقه القضائي.

وفقًا للمادة ٢ من ميثاق مجلس الإشراف “لكل قرار، ستكون لأي من القرارات السابقة للمجلس قيمة سابقة ويجب النظر إليها على أنها ذات تأثير كبير عندما تكون الحقائق والسياسات المطبقة أو العوامل الأخرى متشابهة بشكل كبير.” بالإضافة إلى ذلك، تنص المادة ٤ من ميثاق مجلس الإشراف على أن “قرارات المجلس في كل حالة ستكون ملزمة وستقوم فيسبوك (الآن ميتا) بتنفيذها على الفور، ما لم يكن تنفيذ القرار يمكن أن ينتهك القانون. في الحالات التي تحدد فيها فيسبوك أن محتوى مماثلًا مع سياق موازٍ – والذي قد قرر المجلس بشأنه بالفعل – لا يزال موجودًا على فيسبوك (الآن ميتا)، ستتخذ إجراءات من خلال تحليل ما إذا كان من الممكن تقنيًا وتشغيليًا تطبيق قرار المجلس على ذلك المحتوى أيضًا. عندما يتضمن القرار توجيهات سياسية أو رأيًا استشاريًا سياسيًا، ستتخذ فيسبوك (الآن ميتا) إجراءات إضافية من خلال تحليل الإجراءات التشغيلية المطلوبة لتنفيذ التوجيهات، والنظر فيها في عملية تطوير السياسات الرسمية لفيسبوك (الآن ميتا)، والتواصل بشفافية حول الإجراءات المتخذة نتيجة لذلك.”

تمت الإشارة للحكم في:

وثائق القضية الرسمية

وثائق القضية الرسمية:


التقارير والتحليلات والمقالات الإخبارية:


المرفقات:

هل لديك تعليقات؟

أخبرنا إذا لاحظت وجود أخطاء أو إذا كان تحليل القضية يحتاج إلى مراجعة.

ارسل رأيك