الإحالة إلى معايير مجتمع فيسبوك, معايير مجتمع فيسبوك, المحتوى المرفوض, خطاب الكراهية, معايير مجتمع إنستغرام, خطاب الكراهية والتنمر والإساءة
قضية مجلس الإشراف على ميتا لتغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة
دولية
قضية مُنتهية الحكم يُعزز من حُرية التعبير
حرية التعبير العالمية هي مبادرة أكاديمية، ولذلك، نشجعك على مشاركة وإعادة نشر مقتطفات من محتوانا طالما لا يتم استخدامها لأغراض تجارية وتحترم السياسة التالية:
• يجب عليك الإشارة إلى مبادرة جامعة كولومبيا لحرية التعبير العالمية كمصدر.
• يجب عليك وضع رابط إلى العنوان الأصلي للتحليل القضائي أو المنشور أو التحديث أو المدونة أو الصفحة المرجعية للمحتوى القابل للتنزيل الذي تشير إليه.
معلومات الإسناد وحقوق النشر والترخيص لوسائل الإعلام المستخدمة من قبل مبادرة حرية التعبير العالمية متاحة على صفحة الإسناد الخاصة بنا.
هذه القضية متاحة بلغات إضافية: استعرضها بلغة أخرى: English استعرضها بلغة أخرى: Español استعرضها بلغة أخرى: Français
في ٢٨ يناير ٢٠٢١، ألغى مجلس الإشراف قرار شركة فيسبوك (ميتا حاليًا) بإزالة منشور على إنستغرام يحتوي على صور لحلمات نسائية مكشوفة تهدف إلى رفع الوعي بسرطان الثدي وأعراضه. أزالت فيسبوك المنشور من خلال مصنف آلي تطبيقًا لمعايير مجتمع فيسبوك بشأن العري والنشاط الجنسي للبالغين. رغم أنّ فيسبوك أعادت المنشور واعترفت بخطأ في الإنفاذ، أصدر مجلس الإشراف قرارًا بشأن هذه المسألة معتبرًا أنّ قرار الشركة لا يتوافق مع معايير مجتمع فيسبوك لأن عري البالغين مسموح به عندما تكون أغراضه تعليمية وطبية مثل رفعي الوعي بسرطان الثدي. كما اعتبر مجلس الإشراف أن قرار فيسبوك الأصلي أثر على حق المستخدمين في تلقي معلومات حول مسائل متعلّقة بالصحة وأثر بشكل غير متناسب على النساء مما يثير مخاوف تتعلّق بالتّمييز.
*مجلس الإشراف كيان مستقل عن ميتا ويقدم حكمه المستقل بشأن كل من الحالات الفردية وأسئلة السياسة. يتم تمويل كل من المجلس وإدارته بواسطة صندوق مستقل. للمجلس السلطة لتحديد ما إذا كان يجب على فيسبوك وإنستغرام السماح بالمحتوى أو إزالته. هذه القرارات ملزمة، إلا إذا كان تنفيذها يمكن أن ينتهك القانون. يمكن للمجلس أيضًا اختيار إصدار توصيات بشأن سياسات المحتوى الخاصة بالشركة.
في أكتوبر 2020، نشر مستخدم في البرازيل شريط من الصور على انستغرام يتألّف من ثماني صور فوتوغرافيّة تبيّن أعراض سرطان الثدي مع تضمين وصف أسفل كل منها مثل “تموجات” و”كتل” و”جروح”. [ص ٤] بيّنت خمس من تلك الصور حلمات ثدي أنثوي مكشوفة، بينما تضمنت الثلاث صور الأخرى ثديًا أنثويًا دون ظهور الحلمة في اللقطة أو تغطيتها باليد. كانت الصورة تحمل “عنوانًا باللغة البرتغالية يشير إلى أنّ الهدف يتمثّل في رفع الوعي بأعراض سرطان الثدي. كانت الصورة وردية اللون، تماشيًا مع “أكتوبر الوردي” وهي حملة دولية شائعة في البرازيل لزيادة الوعي بسرطان الثدي.” [ص ٤] لم يضف المستخدم أيّ تعليق آخر في المنشور.
تمت إزالة المنشور بواسطة مصنّف آلي “إنفاذًًا لمعيار مجتمع فيسبوك حول العري والنّشاط الجنسي للبالغين الذي ينطبق أيضًا على انستغرام.” [ص ٤]
طعن المستخدم في قرار فيسبوك (ميتا حاليًا) التي تمتلك انستغرام وكانت الشركة قد أعلنت سابقًا أنّها لن تتمكّن دائمًا من توفير خيار الطّعن في القرارات لأنّ عدد المراجعين في تلك الفترة كان محدودًا بسبب جائحة كوفيد ١٩ كما صرحت فيسبوك “بأن المراجعة البشرية لا تتوفر لكل الطعون المقدمة.” [ص ٤]
تقدم المستخدم بطلب مراجعة إلى مجلس الإشراف الذي وافق على النظر في الحالة. بعد اختيار المجلس للحالة وإحالتها إلى إحدى اللجان، “ألغت فيسبوك قرارها الأصلي بإزالة المنشور وأعادت نشره في ديسمبر ٢٠٢٠.” [ص ٤] ادّعت فيسبوك أن القرار الأصلي بإزالة المحتوى تم بطريقة آلية لكن عندما راجعت قرارها تبيّنت وجود خطأ على مستوى التّنفيذ.
بما أنّ فيسبوك أعادت نشر المحتوى، اعتبرت أنّ الخلاف بشأنه لم يعد قائم الذّات وأنّه كان ينبغي على المجلس “أن يرفض النّظر في الحالة التي انتفت بإعادة النّشر.” [ص ٥] لكن المجلس قرّر النّظر في الحالة بسبب وجود أضرار لا سبيل إلى جبرها إذ “لم يعوّض قرار فيسبوك باستعادة المحتوى في بداية ديسمبر ٢٠٢٠ عن الأضرار التي تسبب فيها حذف المحتوى على مدى حملة أكتوبر الوردي.” [ص ٥]
نظر مجلس الإشراف في ما إذا كان قرار فيسبوك بإزالة منشور المستخدم، بما في ذلك صور الحلمات الأنثوية المكشوفة بقصد رفع الوعي بسرطان الثدي، يتوافق مع معيار مجتمع فيسبوك حول العري والنشاط الجنسي للبالغين. كما تولّى المجلس تقييم ما إذا كان قرار إزالة المحتوى يتوافق مع معايير حقوق الإنسان بشأن حرية التعبير.
في بيانه، قال المستخدم أن المنشور كان “جزءًا من”الحملة الوطنيّة أكتوبر الوردي للوقاية من سرطان الثدي و هو يظهر البعض من أهمّ أعراض سرطان الثدي، التي اعتبرها المستخدم ضرورية للكشف المبكر عن هذا المرض و من شأنها أن تنقذ الأرواح.” [ص ٨]
أقرّت فيسبوك من جانبها بأنّ إزالة المحتوى كان على وجه الخطأ. أوضحت الشركة أيضًا أن معايير مجتمع فيسبوك تنطبق على انستغرام وأنه على الرغم من أن معايير المجتمع تحظر بشكل عام عرض الحلمات الأنثوية المكشوفة فهي “تسمح بها للأغراض التعليمية أو الطبية، بما في ذلك التوعية بسرطان الثدي.” [ص ٨]
الامتثال لسياسات ميتا للمحتوى
انطلق مجلس الإشراف في تحليله بالنّظر في ما إذا كان قرار فيسبوك بإزالة المحتوى يتوافق مع سياسة المنصّة بشأن العري والنشاط الجنسي للبالغين. لاحظ المجلس وجود تناقض بين معايير مجتمع انستغرام ومعيار مجتمع فيسبوك المذكور أعلاه. بما أنّ توجيهات مجتمع انستغرام قد ذكرت للمستخدم عند إشعاره بأن المحتوى الذي نشره ينتهك القواعد المذكورة، اعتبر المجلس أن “الاختلافات بين هذه القواعد تستدعي تحليلًا منفصلًا.” [ص ٩]
أشار المجلس إلى أن معايير مجتمع انستغرام لا تسمح بالعري على المنصة، مع استثناءات قليلة، مثل “صور الندبات النّاتجة عن استئصال الثدي وصور النساء المرضعات.” [ص ٩] لا تذكر هذه الاستثناءات صراحة “صور الحلمات الأنثوية المكشوفة لرفع الوعي بسرطان الثدي.” [ص ٩]. لكن معيار مجتمع فيسبوك بشأن العري والنشاط الجنسي للبالغين “يذكر أنه يسمح بعري البالغين بالتراضي عندما يشير المستخدم بوضوح إلى أن المحتوى يسعى لرفع الوعي بقضية أو لأسباب تعليمية أو طبية.”[ص ١٠].اعتبر المجلس أن “العلاقة بين مجموعتي القواعد، بما في ذلك القواعد التي لها الأسبقية، غير واضحة.” [الصفحة ٩]
ذكّر المجلس أنّ معيار مجتمع فيسبوك بشأن العري والنشاط الجنسي للبالغين يمنع المستخدمين من نشر صور للحلمات الأنثويّة المكشوفة أو محتوى حول النشاط الجنسي على المنصة. لكنّه لاحظ أن رفع الوعي والاعتبارات التعليمية أو الطبية تشكّل استثناءات لهذه القاعدة حيث يورد في قسم “يجب عدم نشر” ضمن معايير مجتمع فيسبوك “التوعية بسرطان الثدي” كمثال على الحالات الصحية التي يُسمح فيها بإظهار حلمات أنثوية مكشوفة. [ص ١٠]
بالتالي، اعتبر المجلس أن المنشور الذي تمت إزالته يدخل تمامًا في نطاق الاستثناء “وقبل التّفسير الذي قدّمته فيسبوك بكون معايير المجتمع تنطبق على إنستغرام.” [ص ١٠] من ثم، اعتبر مجلس الإشراف أن قرار فيسبوك بإزالة المحتوى لا يتوافق مع سياسات المحتوى الخاصّة به.
الامتثال لقيم فيسبوك
تحدد معايير مجتمع فيسبوك “حريّة التّعبير” و”السّلامة” و”الخصوصية” كقيم أساسية للمنصة. تهدف “حريّة التّعبير” وهي قيمة حيويّة إلى إنشاء فضاء للتعبير يكون فيه الناس “قادرين على التحدث بصراحة في القضايا التي تهمهم، حتى لو كان البعض يعارضها أو يرفضها.” [ص ٧] أمّا ” السّلامة” فهي تبرز أهمية أن يشكّل فيسبوك مكانًا آمنًا حيث التعبير الذي يهدد الناس أو “من شأنه أن يخوّف الآخر أو يقصيه أو يسكته، غير مسموح به.” [ص ٧] تهدف قيمة “الخصوصية” إلى حماية الحياة الخاصّة والمعلومات الشخصية عبر تمكين النّاس من “اختيار كيف ومتى ينشرون محتوى على فيسبوك.” [ص ٧]
باعتبار ما سبق، أقرّ المجلس بأن قرار فيسبوك بإزالة منشور المستخدم لا يتوافق مع قيم الشركة. بالنسبة للمجلس، “تشمل قيمة حريّة التّعبير بوضوح مناقشة المسائل المتعلقة بالصحة وهي تكتسي قيمة خاصّة في ما يتعلّق برفع الوعي بأعراض سرطان الثدي.” [ص ١٠] قال المجلس إن إمكانية مشاركة هذا النوع من المحتوى تساهم أيضًا في سلامة جميع الأشخاص الذين يعانون من المرض أو المعرضين له. أخيرًا، اعتبر مجلس الإشراف أنه نظرًا لعدم وجود ما يشير إلى أن الصور [التي نشرها المستخدم] تضمنت صورًا غير توافقية، لم يتمّ المسّ بالخصوصية. [ص ١٠]
الامتثال لمسؤوليات فيسبوك تجاه حقوق الإنسان
طبقًا لما ورد في تقرير المقرر الخاص للأمم المتحدة المعني بحرية الرأي والتعبير، جادل المجلس بأن “المعلومات المتعلقة بالصحة تكتسي أهميّة خاصّة” وهي بالتّالي محميّة – كما ورد في التعليق العام رقم ١٤ للجنة الحقوق الاقتصادية والاجتماعية والثقافية بشأن المادة ١٢ من العهد الدولي الخاص بالحقوق المدنية والسياسية – “في إطار الحق في الصحة”. [ص 11] وقد شدد المجلس على العلاقة بين هذين الحقين بالنظر إلى سياق البرازيل “حيث تعتبر حملات التوعية حيويّة للتّرويج للتشخيص المبكر لسرطان الثدي.” [ص 11]
مع أخذ ذلك في الاعتبار، تولّى المجلس تحليل إجراء فيسبوك لإزالة محتوى المستخدم مقارنة بالمعايير الدولية لحقوق الإنسان بشأن حرية التعبير، على النحو المنصوص عليه في المادة ١٩ من العهد الدولي الخاص بالحقوق المدنية والسياسية. لإنجاز ذلك، نظر المجلس في قانونية وشرعية الهدف وضرورة وتناسب القيود التي فرضتها الشركة على حرية التعبير.
أ. الشرعيّة
عملًا بما جاء في التعليق العام ٣٤ للجنة المعنية بحقوق الإنسان، اعتبر المجلس أن “القواعد التي تقيّد التّعبير يجب أن تكون واضحة ودقيقة ومتاحة للعموم” وحسب رأي المجلس، لم يتم استيفاء هذا الشّرط نظرًا لوجود تناقضات بين معايير مجتمع فيسبوك ومعايير مجتمع انستغرام؛ “كما لم يتمّ إشعار مستخدمي انستغرام بأنّ معايير مجتمع فيسبوك لها الأسبقية على معايير مجتمع انستغرام.” [ص ١١] وقد تفاقم هذا التناقض وعدم الوضوح لأنّ إشعارات الإزالة، في هذه الحالة، أشارت فقط إلى معايير مجتمع انستغرام. وعليه، اعتبر المجلس أن “قواعد فيسبوك في هذا المجال لم تنجح في اختبار الشرعية”. [ص ١١]
ب. الهدف المشروع
أشار المجلس إلى أن “أي تقييد لحرية التعبير يجب أن يكون لغرض مشروع، حسبما ورد في المادة ١٩، الفقرة ٣ من العهد الدولي الخاص بالحقوق المدنية والسياسية”. [ص ١١] كما ذكرت فيسبوك، تسعى سياسة محتوى فيسبوك بشأن العري والنشاط الجنسي للبالغين إلى “منع مشاركة صور إساءة معاملة الأطفال والصور الحميمية دون موافقة أصحابها على فيسبوك وانستغرام.” [ص ١١] بالنسبة للمجلس، يعد هذا هدفًا مشروعًا بموجب القانون الدولي لحقوق الإنسان لأن القيود المفروضة على حرية التعبير صالحة لحماية “حقوق الآخرين” التي تشمل “الحق في الخصوصية لضحايا تبادل الصور الحميميّة دون موافقتهم (المادة ١٧ من العهد الدولي الخاص بالحقوق المدنية والسياسية) وحقوق الطفل في الحياة والنمو (المادة ٦ من اتفاقية حقوق الطفل)” التي يمكن تهديدها، كما جاء في التعليق العام ١٣ للجنة حقوق الطفل، في حالات الاستغلال الجنسي.
ج. الضّرورة والتّناسب
اعتبر المجلس، وفقًا للتعليق العام 34 للجنة المعنية بحقوق الإنسان، أن التدابير التي تقيد “حرية التعبير” يجب أن تكون مناسبة لتحقيق وظيفتها الحمائية ويجب أن يكون التقييد الأقل تدخلًا ضمن االتقييدات التي من شأنها أن تحقّق تلك الوظيفة الحمائية؛ وأن تكون متناسبة مع المصلحة المراد حمايتها”. [ص ١٢]
أعرب المجلس عن قلقه من أن المحتوى قد تم حذفه على وجه الخطأ “من خلال نظام إنفاذ آلي وربما دون مراجعة بشرية أو استئناف”. [ص ١٢] استشهد المجلس بتقرير صادر عن مقرر الأمم المتحدة الخاص المعني بحرية التعبير لتسليط الضّوء على حدود التقنيات الآلية في فهم السياق وإدراك مدى تعقيد التواصل البشري. في هذه الحالة، لم يتمكّن المصنف الآلي “من التعرف على كلمتي “سرطان الثدي” المدرجتين باللغة البرتغاليّة أعلى يسار الصورة”. [ص ١٢]
أقرّ المجلس بكون التقنيات الآلية تضطلع بدور حيويّ في الإشراف على المحتوى، إلا أن الإنفاذ لا يمكن أن يعتمد عليها فقط معتبرًا أنّه “لا بدّ لعمليات الإزالة الآلية أن تخضع لإجراءات التدقيق الداخلي[…]مع توفير إمكانيّة الطّعن وطلب المراجعة البشرية” [ص ١٢] واستشهد بتقرير من المقرر الخاص للأمم المتحدة المعني بحرية التعبير وخلص مجلس الإشراف إلى أنه في غياب الضمانات الضروريّة، يصبح الإشراف الآلي على المحتوى طريقة غير متناسبة “لتواجه بها فيسبوك الأشكال المخالفة من عري البالغين”. [ص ١٢]
أعرب المجلس عن قلقه من أن الإجراءات المتّخذة من طرف فيسبوك لا تحترم مبدأ المساواة وعدم التمييز على النحو المنصوص عليه في التعليق العام ٣٤ للجنة حقوق الإنسان بشأن حرية الرأي والتعبير. بالنسبة للمجلس، استنادًا إلى المادة ١ من اتفاقية القضاء على جميع أشكال التمييز ضد المرأة والمادة ٢ من العهد الدولي الخاص بالحقوق المدنية والسياسية، من المرجح أن يؤثّر الاعتماد على المراجعة الآلية “تأثيرًا غير متناسب على النساء، مما يثير مخاوف من التمييز لأن قواعد فيسبوك تعامل حلمات الذكور والإناث بشكل مختلف”. [ص ١٣] كما اثّرت الإجراءات التي اتّخذتها فيسبوك في هذه الحالة على إمكانيّة رفع الوعي في ما يتعلّق بسرطان الثّدي. من هذا المنطلق، فإن إجراءات فيسبوك لا تعرض حق المرأة في حرية التعبير للخطر فحسب، بل تهدد أيضًا حقها في الصحة.
أخيرًا، اعتبر المجلس أنه من المثير للقلق “ألّا تعلم فيسبوك المستخدمين عندما تخضع المحتويات التي ينشرونها إلى مراجعة آليّة وأنّ الطّعن وطلب المراجعة البشرية قد لا تكون دائمًا متاحة”. [ص ١٣] قد يكون هذا مؤشرًا على انعدام الشفافية ويخالف التزام “المؤسسات التجارية التي تشرف على المحتوى” بتوفير سبل الانتصاف للزّبائن والمستخدمين، كما عبر عن ذلك مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير.
لكلّ هذه الأسباب، ألغى مجلس الإشراف “قرار فيسبوك الأصلي بإزالة المحتوى وطالب بالحفاظ على ما نُشر” [ص ١٤]، مشيرًا إلى أنه يدرك أن فيسبوك قاد أعادت بعد المحتوى الذي أزالته.
بيان استشاري عن سياسة فيسبوك
بالإضافة إلى إلغاء قرار فيسبوك الأصلي، حث المجلس الشركة أيضًا على تحسين نظامها الآلي للكشف عن الصور. كما حثّ فيسبوك على اعتماد المزيد من الشفافيّة في ما يتعلق بإنفاذ معايير مجتمع الشركة وسبل الطّعن من خلال الحرص على ” إشعار المستخدمين بأسباب إنفاذ سياسات المحتوى ضدّ ما نشروه” وأن “يتم إشعارهم كلّما تمّ استخدام النّظم الآليّة لمراجعة المحتوى الذي نشروه” وأنه “يمكنهم الطّعن في القرارات التي تتخذها تلك الأنظمة الآلية وطلب المراجعة البشرية عندما تعتبر الشركة أن المحتوى انتهك معيار مجتمع فيسبوك بشأن العري والنشاط الجنسي للبالغين”. [ص ١٤] كما أوصى المجلس فيسبوك “باعتماد إجراء للتدقيق الداخلي لإنجاز تحليلات متواصلة لعينة تمثيلية إحصائيًا للقرارات الآليّة بإزالة المحتوى لتلافي أخطاء الإنفاذ والتعلم منها”. علاوة على ذلك، قال المجلس أنّه يتعيّن على فيسبوك أن “تنشر بيانات حول عدد قرارات مسح المحتوى المتّخذة آليًّا وفقًا لمعايير المجتمع ونسبة القرارات التي تم التّراجع عنها لاحقًا بعد المراجعة البشرية”. [ص ١٤]
أوصى المجلس كذلك بأن تراجع فيسبوك معايير مجتمع انستغرام لبيان أنّ حظر عري البالغين ليس مطلقًا وأنّه “يمكن عرض حلمات أنثويّة مكشوفة لرفع الوعي بسرطان الثدي”. [ص ١٥] أخيرًا، طلب المجلس توضيحًا من فيسبوك في ما يتعلق “بمعايير مجتمع انستغرام وتفسيرها بما يتماشى مع معايير مجتمع فيسبوك وعند وجود تضارب تكون الأسبقيّة لمعايير مجتمع فيسبوك”. [ص ١٥]
يشير اتجاه الحكم إلى ما إذا كان الأخير يُوسع من مدي التعبير أم يُضيقه بناءً على تحليل للقضية.
من خلال إلغاء قرار فيسبوك بإزالة المحتوى الهادف لرفع الوعي بسرطان الثدي، وسّع مجلس الإشراف نطاق حرية التعبير مع حماية الوصول إلى المعلومات والحق في الصحة وحق المرأة في عدم التمييز في قضية تكتسي أهميّة قصوى للصحة العموميّة. كما عزّز قرار المجلس حرية التعبير من خلال التوصية بأن يعتمد فيسبوك ضمانات مثل المراجعة البشرية بشأن الإشراف الآلي على المحتوى. من خلال حث الشركة على زيادة الشفافية بشأن فعالية الإشراف الآلي على المحتوى، ساهم المجلس أيضًا في إرساء بيئة ملائمة أكثر لحرية التعبير عبر الإنترنت.
يوضح المنظور العالمي كيف تأثر قرار المحكمة بمعايير سواء من منطقة واحدة أو عدة مناطق.
قام المجلس بتحليل مسؤوليات حقوق الإنسان الخاصة بفيسبوك من خلال هذا المبدأ المتعلق بحقوق المرأة وعدم التمييز.
استشهد المجلس بهذا المبدأ لتسليط الضوء على حماية حقوق الأطفال بموجب القانون الدولي لحقوق الإنسان.
حلل المجلس مسؤوليات فيسبوك في مجال حقوق الإنسان من خلال هذا المبدأ المتعلق بحق عدم التمييز.
حلل المجلس مسؤوليات فيسبوك في مجال حقوق الإنسان من خلال هذا المبدأ المتعلق بحرية التعبير.
قام المجلس بتحليل شرط الهدف المشروع من خلال هذا المبدأ المتعلق بحرية التعبير.
أشار المجلس إلى هذه المادة ليبرز أن حماية الخصوصية يمكن أن تكون هدفًا مشروعًا للتدابير التي تقيد حرية التعبير.
أشار المجلس إلى هذا التعليق العام ليبين مبدأ المساواة وعدم التمييز وليحدد شرط الشرعية.
أشار المجلس إلى هذا التعليق العام لتسليط الضوء على العلاقة بين الحق في الصحة والحصول على المعلومات.
أشار المجلس إلى هذا التعليق العام للتأكيد على خطر الاستغلال الجنسي لحقوق الطفل.
أشار المجلس إلى هذه الأداة لتسليط الضوء على مسؤوليات شركات فيسبوك في مجال حقوق الإنسان.
أشار المجلس إلى التقرير للإشارة إلى الدور الرئيسي لسبل الانتصاف في حالات إزالة المحتوى.
أشار المجلس إلى التقرير للتأكيد على أهمية المعلومات المتصلة بالصحة.
أشار المجلس إلى التقرير لتسليط الضوء على قيود التكنولوجيات الآلية في مجال الإشراف على المحتوى وأهمية المراجعة البشرية
تُشير أهمية هذه القضية إلى مدى تأثيرها وكيفية تغير مدى أهميتها بمرور الوقت.
وفقًا للمادة ٢ من ميثاق مجلس الإشراف “لكل قرار، ستكون لأي من القرارات السابقة للمجلس قيمة سابقة ويجب النظر إليها على أنها ذات تأثير كبير عندما تكون الحقائق والسياسات المطبقة أو العوامل الأخرى متشابهة بشكل كبير.” بالإضافة إلى ذلك، تنص المادة ٤ من ميثاق مجلس الإشراف على أن “قرارات المجلس في كل حالة ستكون ملزمة وستقوم فيسبوك (الآن ميتا) بتنفيذها على الفور، ما لم يكن تنفيذ القرار يمكن أن ينتهك القانون. في الحالات التي تحدد فيها فيسبوك أن محتوى مماثلًا مع سياق موازٍ – والذي قد قرر المجلس بشأنه بالفعل – لا يزال موجودًا على فيسبوك (الآن ميتا)، ستتخذ إجراءات من خلال تحليل ما إذا كان من الممكن تقنيًا وتشغيليًا تطبيق قرار المجلس على ذلك المحتوى أيضًا. عندما يتضمن القرار توجيهات سياسية أو رأيًا استشاريًا سياسيًا، ستتخذ فيسبوك (الآن ميتا) إجراءات إضافية من خلال تحليل الإجراءات التشغيلية المطلوبة لتنفيذ التوجيهات، والنظر فيها في عملية تطوير السياسات الرسمية لفيسبوك (الآن ميتا)، والتواصل بشفافية حول الإجراءات المتخذة نتيجة لذلك.”