Cas porté devant le Conseil de surveillance sur la mention des Talibans dans un reportage

Affaire résolue Élargit l'expression

Key Details

  • Mode D'expression
    Communication électronique / basée sur l'internet
  • Date de la Décision
    septembre 15, 2022
  • Résultat
    Décision du Conseil de Surveillance, Annulation de la décision initiale de Meta
  • Numéro de Cas
    2022-005-FB-UA
  • Région et Pays
    Afghanistan, Europe et Asie Centrale
  • Organe Judiciaire
    Conseil de surveillance
  • Type de Loi
    Droit international des droits de l'homme, Règles de contenu de Meta
  • thèmes
    Standards de la communauté Facebook, Violence et comportement criminel, Organisations et personnes dangereuses
  • Mots-Cles
    Recommandation du Conseil de surveillance en matière de politique de contenu, Avis consultatif du Conseil de surveillance sur la politique,, Valeur médiatique de Meta, Esprit de la politique de Meta, Glorification du terrorisme, Terrorisme

Ce cas est disponible dans d'autres langues:    Voir en : English    Voir en : Español

Analyse de Cas

Résumé du Cas et Résultat

Le 15 septembre 2022, le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Facebook d’une page d’un média rapportant une annonce positive du régime taliban en Afghanistan sur l’éducation des femmes et des filles. L’affaire a débuté en janvier 2022 lorsqu’un journal populaire en langue ourdoue, dont le siège est basé en Inde, a publié un article sur sa page Facebook. La publication rapportait que Zabiullah Mujahid, membre du régime taliban en Afghanistan et son porte-parole central officiel, avait annoncé que les écoles et les collèges pour femmes et filles rouvriraient en mars 2022. Meta a supprimé la publication, a imposé des « pénalités » à l’administrateur de la page qui avait publié le contenu et a limité son accès à certaines fonctionnalités de Facebook parce que l’entreprise a estimé que la publication enfreignait le standard de la communauté Facebook sur les individus et les organismes dangereux en vertu de son interdiction de faire l’éloge d’un groupe terroriste désigné. Néanmoins, après que le Conseil a sélectionné l’affaire pour examen, Meta a déterminé qu’il s’agissait d’une erreur d’application ; que le contenu relevait de l’exception à la politique sur l’information portant sur les individus et les organismes dangereux et, par conséquent, n’aurait pas dû être supprimé.

Selon le Conseil, la décision initiale de Meta de supprimer la publication n’était pas conforme au standard de la communauté Facebook sur les individus et organismes dangereux, car le contenu relevait de l’exception qui autorise la politique autorisent le fait d’« informer sur » des organisations et des personnes désignées. Le Conseil a également estimé que la décision de Meta était incompatible avec ses responsabilités en matière de droits de l’homme puisqu’elle a restreint de manière injustifiée la liberté d’expression, qui englobe le droit de communiquer et de recevoir des informations, y compris sur les groupes terroristes. Même si l’entreprise est revenue sur sa décision en raison de la sélection du cas par le Conseil, ce dernier a conclu que l’utilisateur avait déjà subi plusieurs jours de limitations de fonctionnalités qui n’ont pas été entièrement corrigées.

*Le Conseil de surveillance est une entité distincte de Meta qui rend des jugements indépendants sur les cas individuels et les questions de politique. Le Conseil et son administration sont financés par une fiducie indépendante. Le Conseil a le pouvoir de décider si Facebook et Instagram doivent autoriser ou supprimer du contenu. Ces décisions sont contraignantes, à moins que leur mise en œuvre ne viole la loi. Le Conseil peut également choisir d’émettre des recommandations sur les politiques de contenu de l’entreprise.


Les Faits

En janvier 2022, un journal populaire en langue ourdoue, dont le siège est basé en Inde, a publié un article sur sa page Facebook. La publication rapportait que Zabiullah Mujahid, membre du régime taliban en Afghanistan et son porte-parole central officiel, avait annoncé que les écoles et les collèges pour femmes et filles rouvriraient en mars 2022. La publication renvoyait à un article sur le site web du journal et a été vue environ 300 fois.

Le 20 janvier 2022, un utilisateur de Facebook a cliqué sur « signaler la publication » mais n’a pas mené sa plainte à terme. Cela a déclenché un classificateur qui a estimé que le contenu était susceptible d’enfreindre la politique relative aux personnes et organisations dangereuses et l’a envoyé pour examen manuel. Un examinateur parlant l’ourdou a déterminé que le contenu enfreignait la politique relative aux personnes et organisations dangereuses qui « interdit l’éloge » d’entités réputées « se livrer à de graves préjudices hors ligne », y compris les organisations terroristes » [p.2]. Meta a supprimé le contenu, imposé des « sanctions » à l’encontre de l’administrateur de la page et limité son accès à certaines fonctionnalités de Facebook.

L’utilisateur a fait appel et, après qu’un second examen manuel a jugé la publication contraire aux règles, celle-ci a été placée dans une file d’attente pour le système HIPO (High-Impact False Positive Override), « un système que Meta utilise pour identifier les cas où elle a agi de manière incorrecte, par exemple en supprimant à tort du contenu » [p.2]. Cependant, comme il y avait moins de 50 examinateurs parlant l’ourdou affectés à la plateforme HIPO à l’époque, et que la publication n’était pas classée priorité élevée, elle n’a jamais été examinée par le système HIPO. Une fois le cas retenu par le Conseil, Meta a conclu que la publication n’aurait pas dû être supprimée, car ses règles autorisent des « informations sur » les organisations terroristes. Le 25 février 2022, l’entreprise a restauré le contenu, annulé la pénalité et supprimé les restrictions sur le compte de l’utilisateur.


Aperçu des Décisions

La principale question que le Conseil de surveillance devait analyser était de savoir si la décision de Meta de supprimer la publication était conforme au standard de la communauté Facebook sur les individus et les organismes dangereux, aux valeurs de Meta et aux responsabilités de l’entreprise en matière de droits de l’homme.

Dans sa déclaration au Conseil, l’utilisateur a affirmé représenter un organisme de presse et ne pas soutenir l’extrémisme. L’utilisateur a soutenu que ses articles sont basés sur des sources médiatiques nationales et internationales et que ce contenu a été partagé pour fournir des informations sur l’éducation des femmes et des filles en Afghanistan.

Dans sa soumission au Conseil, Meta a expliqué qu’après avoir réexaminé sa décision initiale, l’entreprise a conclu que le contenu dans ce cas n’aurait pas dû être supprimé au motif qu’il faisait « l’éloge » d’une organisation désignée dans le cadre de la politique relative aux personnes et organisations dangereuses. Meta a expliqué que « le contexte d’actualité sous-jacent signifiait que le contenu aurait dû bénéficier de l’autorisation de la politique permettant aux utilisateurs d’informer sur les entités désignées [p.9]. Par ailleurs, l’entreprise a noté que « les utilisateurs peuvent partager des contenus incluant des références à des organismes et des individus dangereux pour les signaler, les condamner ou engager une discussion neutre sur leurs activités » [p.9]. Meta a affirmé que ses politiques sont conçues pour « laisser un espace à ces types de discussions tout en limitant simultanément les risques potentiels de violence hors ligne ». Toutefois, l’entreprise exige que « les utilisateurs déclarent clairement leur intention lorsqu’ils créent ou partagent un tel contenu » [p. 9]. Meta a également déclaré que si l’intention d’un utilisateur est ambiguë ou peu claire, l’entreprise supprimerait le contenu par défaut.

Meta a informé le Conseil de son incapacité à « expliquer pourquoi deux examinateurs ont incorrectement supprimé le contenu et n’ont pas appliqué de manière appropriée l’autorisation d’informer » [p. 9]. En réponse au Conseil qui demandait si l’éloge d’organisations dangereuses pouvait être diffusé dans le cadre d’un reportage, Meta a déclaré que sa politique « autorise les reportages dans lesquels une ou plusieurs personnes peuvent faire l’éloge d’une personne ou d’une entité dangereuse désignée » [p.9]. Meta a également expliqué que « le système de pénalités comporte deux volets pour la mise en application des Standards de la communauté : un qui s’applique à tous les types d’infraction (standard), et un qui s’applique aux infractions les plus flagrantes (sévères) » [p.10] et a ajouté que toutes les infractions à la politique relative aux personnes et organisations dangereuses sont traitées comme des infractions graves. Selon Meta, le contenu a été envoyé au canal HIPO après avoir été supprimé, mais il n’a pas été classé prioritaire pour un examen manuel. Il n’a pas fait l’objet d’un examen manuel supplémentaire « en raison de la capacité allouée au marché » et parce que les systèmes automatisés de Meta n’ont pas attribué au contenu en question un score de priorité aussi élevé que celui des autres contenus de la file d’attente HIPO.

Le Conseil a déclaré que ce cas revêt une importance particulière car il montre qu’un manque de clarté dans la définition du terme « éloge » semble entraîner de l’incertitude chez les examinateurs et les utilisateurs. Il a noté que la complexité de ce cas reposait sur l’intérêt à s’assurer que les groupes terroristes ou leurs partisans n’utilisent pas les plateformes pour leurs efforts de propagande et de recrutement. Cependant, cet intérêt, lorsqu’il est appliqué de manière trop large, peut conduire à la censure de tout contenu qui informe sur ces groupes.

Respect des politiques de contenu de Meta

Le Conseil a estimé que les mesures d’exécution prises dans ce cas n’auraient pas dû être imposées, car il n’y a pas eu d’infraction sous-jacente aux Standards de la communauté. Le Conseil a remarqué que les systèmes mis en place par Meta pour prévenir les erreurs de sanction garantissaient un deuxième examen manuel aux utilisateurs figurant sur la liste d’examen secondaire de l’équipe d’intervention rapide. Il a noté que « le fait d’être sur une liste d’examen secondaire de l’équipe d’intervention rapide garantit également que des employés de Meta, et non des examinateurs à l’échelle, vérifient le contenu avant de pouvoir le retirer » [p.14]. Néanmoins, le Conseil a souligné que si les pages Facebook de certains médias figurent sur cette liste, ce n’est pas le cas de la page en question. Il a estimé qu’il est peu probable que ce contenu aurait été supprimé si la page avait figuré sur la liste d’examen secondaire de l’équipe d’intervention rapide.

Le Conseil a félicité Meta pour l’introduction de son système HIPO, mais s’est inquiété du fait qu’il n’ait pas conduit à l’examen secondaire d’une publication conforme aux Standards de la communauté Meta. Il a noté que dans ce cas, le contenu n’a pas fait l’objet d’un examen manuel supplémentaire « en raison de la capacité allouée au marché » et parce que les systèmes automatisés de Meta n’ont pas attribué au contenu en question un score de priorité aussi élevé que celui des autres contenus de la file d’attente HIPO à ce moment-là » [p14]. Compte tenu de la nature d’intérêt public du reportage, et de l’identité de la page en tant qu’organe de presse affichant le contenu, le score aurait dû être suffisamment élevé pour qu’un examen supplémentaire puisse être effectué. Pour les mêmes raisons, le Conseil s’est dit préoccupé par le fait que la file d’attente en langue ourdoue ne comptait qu’à peine 50 examinateurs au moment des faits. Le Conseil a estimé que la taille du marché indien, le nombre de groupes désignés comme dangereux par Meta dans cette région et l’importance accrue des voix indépendantes, justifient « que l’entreprise investisse davantage dans la correction (et, idéalement, la prévention) des erreurs sur des sujets aussi importants » [p.14].

Respect des valeurs de Meta

Le Conseil a jugé que le contenu faisant l’éloge de groupes dangereux peut menacer la valeur « Sécurité » pour les utilisateurs de Meta et d’autres personnes en raison de ses liens avec la violence hors ligne et de son potentiel à « intimider, exclure ou faire taire les autres » [p.15]. Cependant, il n’y a pas de problème de sécurité significatif dans ce cas, car le contenu ne fait que rapporter l’annonce d’une organisation désignée. Le Conseil a également souligné que la valeur « Droit à la parole » est importante en ce qui concerne les médias, car ils fournissent à leurs audiences des informations essentielles et s’acquittent d’un rôle crucial en demandant des comptes aux gouvernements. Dans ce cas, le retrait du contenu n’a pas contribué de manière significative à la « Sécurité » et a constitué une restriction inutile du « Droit à la parole ».

Respect des responsabilités de Meta en matière des droits de l’homme

Le Conseil a rappelé que le Comité des droits de l’homme des Nations unies a déclaré dans son Observation générale 34 qu’« un organe de presse ou d’autres médias libres, non censurés et sans entraves sont essentiels dans toute société pour garantir la liberté d’opinion et d’expression et la jouissance des autres droits énoncés dans le Pacte » [p. 8]. Il a également noté que « Les plateformes de médias sociaux comme Facebook sont devenues un moyen de transmettre les reportages des journalistes dans le monde entier, et Meta a reconnu ses responsabilités envers les journalistes et les défenseurs des droits de l’homme dans sa politique d’entreprise pour ce qui relève des droits de l’homme » [p. 15].

Le Conseil a souligné que le droit à la liberté d’expression englobe la capacité des utilisateurs de Meta à accéder à des informations sur les évènements d’intérêt public en Afghanistan, en particulier lorsqu’un groupe dangereux désigné a renversé par la force le gouvernement légitime. De l’avis du Conseil, les informations publiées par l’utilisateur sont essentielles pour les personnes soucieuses du droit à l’égalité des filles et des femmes d’accéder à l’éducation même lorsque les talibans ne respectent pas ces engagements.

Par la suite, en utilisant le test en trois parties de l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), le Conseil a analysé si la décision initiale de Meta de supprimer le contenu était conforme à ses responsabilités sociétales en matière de droits de l’homme.

I. Légalité (clarté et accessibilité des règles)

Bien que le Conseil ait reconnu que les politiques de Meta en matière d’individus et d’organismes dangereux contenaient plus de détails que lorsqu’il avait publié ses premières recommandations, de sérieuses inquiétudes subsistaient. Le Conseil a souligné qu’il n’était pas clair si les Talibans restaient une entité dangereuse lorsqu’ils ont chassé par la force le gouvernement reconnu de l’Afghanistan. En se référant à sa décision précédente dans les cas de la « Citation nazie » et de « L’isolement d’Öcalan », le Conseil a souligné que, pour apporter de la clarté aux utilisateurs, il avait précédemment recommandé que Meta divulgue soit une liste complète des entités désignées, soit une liste à titre d’illustration. Le Conseil a déclaré qu’il regrettait l’absence de progrès concernant l’application de cette recommandation.

Le Conseil a estimé que la définition du terme “ éloge” dans les Standards de la communauté destinés au public à savoir « parler en termes positifs » d’une entité désignée, est trop large. Il a noté que « pour les personnes travaillant dans le traitement de l’information, le lien entre cette règle et l’autorisation d’effectuer des reportages, prévue dans la même politique, n’est pas clair » [p.17]. Il a aussi rappelé que selon Meta « cette autorisation permet de couvrir l’actualité même lorsqu’un utilisateur fait l’éloge de l’entité désignée dans la même publication » [p. 17]. Toutefois, le Conseil a estimé que « la relation entre l’autorisation « d’informer » contenue dans la politique relative aux personnes et organisations dangereuses et l’autorisation générale de publication de l’actualité n’est pas claire pour les utilisateurs » [p. 17]. Il a rappelé que dans sa décision dans le cas de la « publication partagée d’Al Jazeera », il avait recommandé que Meta fournisse des critères et des exemples à titre d’illustration dans les Standards de la communauté sur ce qui constitue une information d’actualité. Mais le Conseil a noté que Meta était en train de consulter plusieurs équipes en interne pour développer des critères et qu’elle prévoyait de conclure ce processus à l’horizon de T4 2022. Le Conseil s’est dit encore préoccupé par le fait que les modifications apportées au Standard de la communauté concerné ne sont pas traduites dans toutes les langues disponibles et qu’il existe des incohérences entre les langues. Par conséquent, la politique n’est pas accessible de manière égale à tous les utilisateurs, ce qui fait qu’il est alors difficile pour eux de comprendre ce qui est autorisé et ce qui ne l’est pas.

Le Conseil s’est dit aussi préoccupé par le fait que Meta n’a pas fait suffisamment d’efforts pour expliquer à ses utilisateurs le fonctionnement du système de sanctions. Il a jugé que la page « Limiter les comptes » dans l’Espace modération de Meta ne liste pas de manière exhaustive les limitations de fonctionnalités que l’entreprise peut appliquer et leur durée et n’énumère pas non plus les « périodes de temps définies » pour les pénalités graves comme elle le fait pour les pénalités standard. Ceci a été jugé particulièrement inquiétant, car les pénalités sévères sont plus importantes et il n’existe aucun mécanisme permettant de faire appel des sanctions au niveau du compte indépendamment de la décision relative au contenu. Même lorsque le contenu est rétabli, les limitations de fonctionnalités ne peuvent pas toujours être entièrement annulées. Dans le cas présent, par exemple, l’utilisateur avait déjà subi plusieurs jours de limitations de fonctionnalités qui n’ont pas été entièrement corrigées lorsque Meta est revenu sur sa décision.

Le Conseil a noté que le document « Sujets courants » (conseils internes destinés aux modérateurs) définit l’éloge comme un contenu qui « amène le public à avoir une meilleure opinion » d’un groupe désigné. Il pense que cette définition est sans doute plus large que la définition publique des Standards de la communauté. Ainsi, la signification du terme « éloges » dépend moins de l’intention de l’orateur que des effets sur l’audience. En outre, le Conseil a souligné le fait que ni les Standards de la communauté, ni le document sur les Sujets courants ne limitent la discrétion des examinateurs lorsqu’ils restreignent la liberté d’expression.

II. Objectif légitime

Le Conseil de surveillance a cité sa décision dans le cas « Inquiétude pendjabie concernant le RSS en Inde » pour mettre en exergue le fait qu’il avait précédemment « reconnu que la politique relative aux personnes et organisations dangereuses vise à protéger les droits d’autrui, notamment le droit à la vie, à la sécurité de la personne, à l’égalité et à la non-discrimination » [p. 18]. Il a reconnu que la propagande des entités désignées, y compris par le biais de mandataires se présentant comme des médias indépendants, pouvait présenter des risques d’atteinte aux droits d’autrui et que, par conséquent, chercher à atténuer ces violences à travers la présente politique constituait un objectif légitime.

III. Nécessité et proportionnalité

Le Conseil a noté que dans le cadre de l’Observation générale 34, le Comité des droits de l’homme de l’ONU avait souligné que « les médias jouent un rôle crucial en informant le public sur les actes de terrorisme, et leur capacité d’action ne devrait pas être indûment limitée. À cet égard, les journalistes ne devraient pas être pénalisés pour avoir exercé leurs activités légitimes » [p. 19]. Il a souligné que Meta a donc la responsabilité de prévenir et d’atténuer l’impact négatif de ses plateformes sur les reportages d’actualité en matière de droits de l’homme.

Pour le Conseil, le type d’erreurs de mise en application qui se sont produites lors de l’examen du contenu dans ce cas pourrait indiquer des défaillances plus larges. Le Conseil a noté que « les commentateurs réguliers sur les activités de personnes et d’organisations dangereuses de niveau 1 sont confrontés à des risques accrus d’erreurs de mise en application entraînant des sanctions sévères pour leurs comptes » [p. 19], ce qui pourrait «compromettre leurs moyens de subsistance et priver le public de l’accès à l’information à des moments clés» [p. 19].

De plus, le Conseil a souligné que la politique de suppression par défaut de contenu en vertu de la politique sur les personnes et les organisations dangereuses lorsque les utilisateurs n’indiquaient pas clairement qu’ils avaient l’intention « d’informer » pouvait conduire à une suppression excessive de contenu non violent. Il a déclaré que dans ce cas le système de prévention et de correction des erreurs n’a pas profité à cet utilisateur comme il aurait dû le faire. Cela indique des problèmes dans la manière dont le classificateur du système HIPO a hiérarchisé la décision de contenu pour un examen supplémentaire. Pour le Conseil, en l’espèce, « l’erreur de mise en application et le fait de ne pas l’avoir corrigée ont privé un certain nombre d’utilisateurs de Facebook de l’accès à des informations sur des questions d’importance mondiale et ont empêché un média d’exercer sa fonction journalistique d’information du public » [p. 8]. Le Conseil a averti que « Les journalistes peuvent rendre compte des évènements de manière impartiale en évitant le type de condamnation ouverte que les examinateurs pourraient rechercher. Pour éviter les suppressions de contenu et les sanctions de compte, les journalistes peuvent s’adonner à l’autocensure, et peuvent même être incités à s’écarter de leurs responsabilités professionnelles éthiques » [p. 19].

Le Conseil a noté également qu’en émettant ce que l’entreprise appelle des exceptions liées à « l’esprit de la politique » concernant les talibans, Meta reconnaît que, parfois, son approche dans le cadre de la politique relative aux personnes et organisations dangereuses produit des résultats qui sont incompatibles avec les objectifs de la politique, et ne répondent donc pas à l’exigence de nécessité.

D’après le Conseil, « des documents internes à l’entreprise obtenus par des journalistes ont révélé qu’en septembre 2021, l’entreprise a créé une exception « pour autoriser le contenu partagé par le ministère de l’Intérieur [afghan] » sur des questions telles que les nouvelles règles de circulation, et pour autoriser deux publications spécifiques du ministère de la Santé en relation avec la pandémie de COVID-19 » [p. 20]. Il a noté que d’autres exceptions auraient été plus adaptées et de plus courte durée et a illustré ce point en notant que pendant 12 jours en août 2021, des « personnalités gouvernementales » ont pu reconnaître les talibans comme le « gouvernement officiel de l’Afghanistan [ sic] » sans risquer des sanctions sur leurs comptes, et que de la fin août au 3 septembre 2021, les utilisateurs ont pu « publier les déclarations publiques des talibans sans avoir à ‘discuter de manière neutre, informer ou condamner’ ces déclarations » [p. 20].

Le Conseil a noté que lors d’un forum politique sur le protocole de politique de crise, le 25 janvier 2022, Meta a déclaré vouloir déployer des « leviers politiques » dans les situations de crise et a donné l’exemple de l’autorisation de « l’éloge en faveur d’une organisation désignée spécifique (par exemple, un groupe de guérilleros signant un traité de paix) » [p. 20]. Le Conseil a considéré que de telles exceptions à l’interdiction générale des éloges pourraient causer plus d’incertitude pour les examinateurs, ainsi que pour les utilisateurs qui pourraient ne pas savoir si ou quand une exception s’applique.

À la lumière de ce qui précède, le Conseil a conclu que la décision de Meta de retirer le contenu de Facebook était une mesure non nécessaire et disproportionnée.

Avis consultatif sur la politique :

Concernant la politique relative aux personnes et organisations dangereuses, le Conseil a recommandé à Meta d’enquêter sur les raisons pour lesquelles les modifications apportées en décembre 2021 n’ont pas été mises à jour dans le délai prévu de 6 semaines, et veiller à ce que de tels retards ou omissions ne se reproduisent pas. Le Conseil demande à Meta de l’informer dans les 60 jours des conclusions de son enquête et des mesures qu’elle a mises en place pour éviter les retards de traduction à l’avenir. De plus, il a exhorté Meta à rendre l’explication publique de son système de « pénalités » plus complète et plus accessible.

En ce qui concerne la politique de mise en application, le Conseil a recommandé à Meta de : i). Enquêter sur les raisons pour lesquelles les modifications apportées à la politique relative aux personnes et organisations dangereuses n’ont pas été traduites dans les délais prévus, et éviter que de tels retards ne se reproduisent. ii). Rendre l’explication publique de son système de « sanctions » plus complète et plus accessible. iii). Restreindre la définition de la notion d’« éloges » dans le document Sujets courants (conseils internes destinés aux modérateurs) en supprimant l’exemple d’un contenu qui « cherche à faire en sorte que les autres aient une meilleure opinion » des organisations dangereuses. iv). Réviser ses Standards d’implémentation afin de préciser que l’autorisation de déclaration prévue par la politique relative aux organisations et aux personnes dangereuses autorise les déclarations positives. Le document Sujets courants devrait clarifier l’importance de la protection des informations dans les situations de conflit ou de crise. v). Evaluer la précision avec laquelle les examinateurs appliquent l’autorisation de déclaration à la politique relative aux personnes et organisations dangereuses afin d’identifier la cause des erreurs. vi). Procéder à un examen du système HIPO afin de déterminer s’il est en mesure de hiérarchiser plus efficacement les erreurs potentielles dans l’application des exceptions à la politique relative aux personnes et organisations dangereuses. vii). Augmenter la capacité allouée à la révision du système HIPO dans toutes les langues.


Direction De La Décision

Info Rapide

La direction de la décision indique si la décision élargit ou réduit l'expression sur la base d'une analyse de l'affaire.

Élargit l'expression

La décision du Conseil de surveillance élargit l’expression en reconnaissant que la liberté d’expression englobe le droit de communiquer et de recevoir des informations, y compris sur les groupes terroristes, ce qui est particulièrement important en temps de conflit et de crise, notamment lorsque les groupes terroristes exercent un contrôle sur un pays.

Perspective Globale

Info Rapide

La perspective globale montre comment la décision de la Cour a été influencée par les normes d'une ou de plusieurs régions.

Tableau Des Autorités

Lois internationale et/ou régionale connexe

  • ICCPR, art. 19

    The Board analyzed Meta’s human rights responsibilities through this precept on freedom of expression. It employed the three-part test established in this Article to assess if Meta’s actions were a justifiable limitation on expression.

  • UNHR Comm., General Comment No. 34 (CCPR/C/GC/34)

    While employing the three-part test to assess if Meta’s actions allowed expression to be limited, the Board referred to the General Comment for guidance.

  • OSB, Shared Al Jazeera Post, 2021-009-FB-UA (2021)

    The Board noted that in its decision, in this case, it had urged  Meta to provide public criteria and examples in its Dangerous Individuals and Organizations Community Standard for the following allowances to the policy: “neutral discussion”; “reporting”; and “condemnation.”

  • OSB, Öcalan's Isolation, 2021-006-IG-UA (2021)

    The Board referred to this case to emphasize that it had previously suggested Meta clarify how users can make their intent clear when posting in its public-facing Dangerous Individuals and Organizations Community Standards.

  • OSB, Punjabi concern over the RSS in India, 2021-003-FB-UA (2021)

    The Board noted that in its decision on this case it had recommended that Meta should aim to make its Community Standards accessible in all languages widely spoken by its users. 

  • OSB, Nazi quote, 2020-005-FB-UA (2021)

    The Board recalled that in its decision on this case it had recommended that Meta provide examples of “praise,” “support” and “representation” in the Community Standard on Dangerous Individuals and Organizations.

Importance du Cas

Info Rapide

L'importance du cas fait référence à l'influence du cas et à la manière dont son importance évolue dans le temps.

La décision établit un précédent contraignant ou persuasif dans sa juridiction.

Selon l’article 2 de la charte du Conseil de surveillance, « pour chaque décision, toute décision antérieure du Conseil aura valeur de précédent et devra être considérée comme très convaincante lorsque les faits, les politiques applicables ou d’autres facteurs sont substantiellement similaires ». En outre, l’article 4 de la charte du Conseil de surveillance stipule que « la résolution du Conseil dans chaque cas sera contraignante et Facebook (désormais Meta) la mettra en œuvre rapidement, sauf si la mise en œuvre d’une résolution risque d’enfreindre la loi ». Dans les cas où Facebook constate qu’un contenu identique avec un contexte parallèle – sur lequel le conseil a déjà pris une décision – reste sur Facebook (maintenant Meta), il prendra des mesures en analysant s’il est techniquement et opérationnellement possible d’appliquer la décision du conseil à ce contenu également. Lorsqu’une décision comprend des orientations politiques ou un avis consultatif, Facebook (désormais Meta) prendra d’autres mesures en analysant les procédures opérationnelles requises pour mettre en œuvre les orientations, en les prenant en compte dans le processus formel d’élaboration des politiques de Facebook (désormais Meta) et en communiquant de manière transparente sur les mesures prises en conséquence ».

La décision a été citée dans:

Documents Officiels du Cas

Vous avez des commentaires?

Faites-nous savoir si vous remarquez des erreurs ou si l'analyse de cas doit être révisée.

Envoyer un Retour D'information