Cas porté devant le Conseil de surveillance sur le dessin animé de Knin

Affaire résolue Résultat mitigé

Key Details

  • Mode D'expression
    Communication électronique / basée sur l'internet
  • Date de la Décision
    juin 17, 2022
  • Résultat
    Annulation de la décision initiale de Meta
  • Numéro de Cas
    2022-001-FB-UA
  • Région et Pays
    Croatie, Europe et Asie Centrale
  • Organe Judiciaire
    Conseil de surveillance
  • Type de Loi
    Droit international des droits de l'homme, Règles de contenu de Meta
  • thèmes
    Standards de la communauté Facebook, Contenu répréhensible, Discours haineux
  • Mots-Cles
    Esprit de la politique de Meta, Recommandation du comité de surveillance concernant la politique de contenu, Avis consultatif du Conseil de surveillance sur la politique,, Recommandation du Conseil de surveillance en matière d’application

Ce cas est disponible dans d'autres langues:    Voir en : English

Analyse de Cas

Résumé du Cas et Résultat

Le 17 juin 2022, le Conseil de surveillance a annulé la décision initiale de Meta de maintenir une publication sur Facebook qui décrivait les personnes d’origine serbe comme des rats. Bien que Meta ait finalement supprimé le contenu, Meta a d’abord considéré que le message n’enfreignait pas le Standard de la communauté de l’entreprise en matière de discours haineux. Meta a par la suite décidé que la publication enfreignait « l’esprit » mais pas la lettre du Standard, puisque la politique n’interdisait pas les attaques envers des groupes sur la base d’une caractéristique protégée identifiée implicitement. Meta a ensuite décidé qu’il y a eu enfreinte à la lettre de la politique. Dans sa décision, le Conseil a conclu que la publication avait enfreint le Standard de la communauté sur les discours haineux ainsi qu’au Standard sur la violence et l’incitation. Il a constaté que la publication était déshumanisante, haineuse et qu’elle risquait de contribuer à un climat dans lequel les gens pouvaient se sentir en droit d’attaquer les personnes d’origine serbe. De l’avis du Conseil, la suppression du contenu de la plateforme était nécessaire pour remédier aux préjudices sérieux posés par les discours de haine fondés sur l’origine ethnique, et en conformité avec les responsabilités de Meta en matière de droits humains.

*Le Conseil de surveillance est une entité distincte de Meta qui rend des jugements indépendants sur les cas individuels et les questions de politique. Le Conseil et son administration sont financés par une fiducie indépendante. Le Conseil a le pouvoir de décider si Facebook et Instagram doivent autoriser ou supprimer du contenu. Ces décisions sont contraignantes, à moins que leur mise en œuvre ne viole la loi. Le Conseil peut également choisir d’émettre des recommandations sur les politiques de contenu de l’entreprise.


Les Faits

En décembre 2021, une Page Facebook publique comptant plus de 50 000 abonnés et se décrivant comme un portail d’informations sur la Croatie a publié une vidéo avec une légende en croate que Meta a traduite comme suit : « Le joueur de Čavoglave et les rats de Knin » [p. 4]. La vidéo était une version éditée du dessin animé de Disney intitulé « Le Joueur de flûte ».

La vidéo d’une durée de deux minutes et dix secondes met en scène une ville envahie par des rats. Dans le dessin animé original, le panneau situé à l’entrée de la ville indiquait « Hamelin », alors qu’il affiche désormais le nom de la ville croate de « Knin » dans la vidéo éditée. Au début de la vidéo, le narrateur explique que les rats et les humains ont vécu ensemble dans la ville royale de Knin pendant plusieurs années et que les rats ont décidé qu’ils voulaient vivre dans un « pays de rats purs » et ont donc commencé à harceler et à persécuter les habitants de la ville.

Le narrateur poursuit son récit, expliquant que lorsque les rats ont pris possession de la ville, un joueur de flûte du village croate de Čavoglave est apparu mais qu’au départ, les rats n’avaient pas pris le joueur de flûte au sérieux et ont continué « la grande agression des rats ». Après qu’il a joué un air sur sa « flûte enchantée », les rats se sont mis à chanter « leur chanson favorite » et ont suivi le joueur de flûte hors de la ville. Meta a traduit les paroles de la chanson chantée par les rats comme suit : « Quelle est cette chose qui brille sur le Dinara, la cocarde de Dujić sur sa tête […] La liberté émergera du Dinara, et sera apportée par Momčilo le chef de guerre » [p. 5].

La vidéo montre ensuite les habitants de la ville fermant la porte derrière le joueur de flûte et les rats. À la fin de la vidéo, le joueur de flûte rassemble les rats dans un tracteur, qui disparaît ensuite. Le narrateur a conclu qu’une fois que le joueur de flûte eût attiré tous les rats dans le « tracteur magique », les rats « disparurent de ces terres à jamais » et que « tout le monde vécut heureux pour toujours » [p. 5].

Le contenu a été vu plus de 380 000 fois, partagé plus de 540 fois et a suscité plus de 2400 réactions et plus de 1200 commentaires. Meta a traduit quelques-uns des commentaires écrits en croate : « La haine est une maladie » et « Pensez-vous aux problèmes que cette publication et vos autres stupidités du genre engendrent pour les personnes d’origine croate qui vivent en Serbie ? » [p. 6].

Les utilisateurs ont signalé le contenu 397 fois. Parmi ceux-ci, 362 utilisateurs l’ont signalé comme discours haineux mais Meta ne l’a pas supprimé. Certains utilisateurs ont donc fait appel de la décision de laisser la publication sur la plateforme auprès du Conseil.

La décision du Conseil se fonde sur l’appel intercédé par l’un de ces utilisateurs, dont le compte semble être basé en Serbie et dont le signalement a été rejeté par un système automatique. Une fois que ledit utilisateur a fait appel auprès du Conseil, Meta a effectué un nouvel examen manuel pour conclure, encore une fois, que le contenu ne violait pas ses politiques.

En janvier 2022, lorsque le Conseil a sélectionné le cas pour l’examiner en détail, Meta a déterminé que la publication ne violait pas la lettre de la politique en matière de discours haineux, mais qu’elle en violait l’esprit, et l’entreprise a décidé de supprimer le contenu de Facebook. Toutefois, lorsque l’entreprise a rédigé le brouillon de sa justification auprès du Conseil, Meta a conclu que la publication violait la lettre de la politique relative aux discours haineux, et que toutes les décisions précédentes étaient erronées.


Aperçu des Décisions

La question principale que le Conseil devait analyser dans cette affaire était de savoir si la décision initiale de Meta de conserver le contenu sur Facebook était conforme aux Standards de la communauté Facebook en matière de discours de haine et de violence et d’incitation, ainsi qu’aux valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.

L’utilisateur qui a signalé le contenu et fait appel auprès du Conseil a indiqué que le joueur de flûte symbolise l’armée croate qui, en 1995, a organisé l’expulsion des Serbes de Croatie, représentés ici par les rats. Selon cet utilisateur, Meta n’a pas évalué la vidéo correctement puisque son contenu constitue un discours haineux et alimente le ressentiment ethnique et religieux dans les Balkans.

Dans la justification qu’elle a fournie au Conseil, Meta a décrit la procédure d’examen suivie pour en arriver à cette décision, mais a surtout expliqué pourquoi la suppression du contenu en vertu de sa politique sur les discours haineux était finalement justifiée. Meta a expliqué qu’au départ elle a jugé que le contenu ne violait pas la lettre de sa politique en matière de discours haineux, mais a expliqué qu’elle s’était appuyée sur « l’esprit de la politique » pour prendre sa décision de supprimer le contenu.

Meta a expliqué que sa décision précédente, selon laquelle le contenu ne violait que « l’esprit » de sa politique sur les discours haineux, était basée sur la supposition que la lettre de ladite politique n’interdisait pas les attaques envers des groupes sur la base d’une caractéristique protégée identifiée implicitement. Mais après avoir réexaminé ce raisonnement, Meta a conclu qu’il était plus exact de dire que la lettre de la politique aussi interdit les attaques identifiant de manière implicite une caractéristique protégée.

L’entreprise a indiqué que la suppression était finalement conforme à ses valeurs de dignité et de sécurité par rapport à sa valeur de liberté d’expression. Meta a ajouté que, compte tenu des tensions ethniques historiques et de la discrimination continue à l’encontre des personnes d’origine serbe en Croatie, la vidéo pouvait contribuer à induire un risque de préjudices réels.

L’entreprise a également soutenu que la suppression était conforme aux normes internationales relatives aux droits de l’homme. Selon Meta, sa politique était « facilement accessible » sur le site web de son Espace modération. Par ailleurs, la décision de supprimer le contenu était légitime afin de protéger les droits d’autrui de la discrimination. Enfin, Meta a fait valoir que cette décision était nécessaire et proportionnée parce que le contenu « ne permettait pas aux utilisateurs d’interagir librement sans se sentir attaqués sur la base de leur identité » [p. 12] et parce qu’« aucun moyen moins intrusif, autre que le suppression n’était disponible pour limiter ce contenu ».

Le Conseil a également demandé à Meta si le contenu en question enfreignait le Standard de la communauté Facebook sur la violence et l’incitation. Meta a répondu qu’il ne l’enfreignait pas parce que « le contenu ne contenait pas de menaces ni de déclarations d’intention de commettre des actes de violence » à l’encontre de personnes d’origine serbe et que « l’exclusion ou l’expulsion non violente ne constituait pas une menace de violence ». Selon Meta, « un lien plus évident entre les rats de la vidéo et le déplacement forcé et violent » de Serbes est nécessaire pour que le contenu soit supprimé en vertu de cette politique.

Conformité aux politiques de contenu de Meta

En ce qui concerne les politiques de Meta en matière de contenu, le Conseil s’est penché sur la question de savoir si le contenu enfreignait le Standard de la communauté relatif aux discours haineux et le Standard relatif à la violence et à l’incitation. Il a estimé que, puisque la vidéo comportait une comparaison entre Serbes et rats et un appui à l’expulsion des Serbes de Knin, le contenu contenait deux « attaques » correspondant à la définition de ce terme telle qu’elle est donnée dans la politique sur les discours haineux.

Le Conseil a expliqué que les comparaisons implicites avec « des animaux qui sont culturellement perçus comme étant intellectuellement ou physiquement inférieurs » sont interdites par la politique de Meta en matière de discours haineux. Le Conseil a noté que bien que ni la légende ni la vidéo ne mentionnent les personnes d’origine serbe comme telles, le contenu de la vidéo considéré dans son contexte historique, le remplacement du nom « Hamelin » par celui de la ville de « Knin », les paroles utilisées dans la vidéo, l’association du joueur de flûte avec Čavoglave (et donc avec la chanson du groupe Thompson au sujet de l’Opération Tempête) ainsi que l’utilisation de l’image du tracteur sont des références manifestes aux résidents serbes de Knin. Le Conseil a jugé, en outre, que les commentaires sous la publication et les nombreux signalements d’utilisateurs confirment que ce lien était extrêmement clair aux yeux des personnes qui ont vu le contenu.

Par ailleurs, le Conseil a estimé que l’éloge implicite de l’expulsion des Serbes de Knin dans la vidéo apporte son soutien à des actes de nettoyage ethnique, ce qui constitue une violation du Standard sur les discours haineux. Le Conseil a également estimé que le contenu enfreignait la politique de l’entreprise en matière de violence et d’incitation, interdisant le contenu qui menace les autres en faisant référence à des incidents de violence historiques.

Le Conseil a indiqué que dans la vidéo, la ville porte le nom de Knin et les rats fuient sur des tracteurs, soit deux références à l’Opération Tempête, une opération militaire qui, en 1995, aurait entraîné le déplacement, l’exécution et la disparation forcée de civils d’origine serbe. Il a ainsi souligné que la vidéo est susceptible de contribuer à un climat où les gens se sentent en droit d’attaquer les personnes d’origine serbe.

De plus, le Conseil n’était pas d’accord avec l’évaluation de Meta selon laquelle le contenu ne contenait pas de menaces ou de déclarations d’intention de commettre des actes de violence et que les appels à l’exclusion ou à l’expulsion sans spécifier de moyens de violence pouvaient ne pas constituer une menace violente. Le Conseil a jugé que l’utilisation de l’histoire du joueur de flûte ne défend pas leur élimination pacifique, mais fait clairement référence à des incidents de violence historiques connus, en particulier avec l’image du tracteur. Il a ensuite rappelé que comme le prouvent les utilisateurs qui ont signalé cette publication, les rats du dessin animé représentent, aux yeux des témoins, la population d’origine serbe de la région de Knin, y compris les personnes qui y sont restées.

Le Conseil a ensuite examiné les raisons pour lesquelles l’entreprise a conclu à maintes reprises que le contenu était conforme aux politiques de l’entreprise. Il a d’abord exprimé qu’il aurait été utile que Meta se concentre là-dessus dès le départ plutôt que d’expliquer pourquoi elle avait finalement eu raison de supprimer la publication. Selon le Conseil, si l’entreprise souhaite réduire le nombre de contenus en infraction sur sa plateforme, elle doit traiter les erreurs de modération sélectionnées par le Conseil comme des occasions d’explorer les motifs de ces erreurs.

Conscient de la complexité et du volume des contenus que les modérateurs humains examinent au quotidien et de la difficulté d’appliquer les Standards de la communauté Facebook tout en prenant le contexte en considération, le Conseil pense qu’il est important que Meta améliore les instructions qu’elle fournit à ses modérateurs, ainsi que les voies et les processus de remontée.

De l’avis du Conseil, les deux facteurs qui ont peut-être empêché la remontée du contenu dans ce cas-ci sont, d’une part, le fait que Meta n’indique pas correctement à ses modérateurs à partir de quand un contenu est « populaire », et d’autre part, l’utilisation du système de modération automatique.

Respect des valeurs de Meta

Le Conseil a estimé que la décision de l’entreprise de supprimer le contenu est conforme aux valeurs de Meta en matière de liberté d’expression, de dignité et de sécurité. Le Conseil a jugé que la liberté d’expression des personnes ciblées par des stéréotypes négatifs et déshumanisants peut également être affectée, étant donné que l’utilisation de ces stéréotypes peut avoir une influence sur les personnes ciblées et entraver leur participation sur Facebook et Instagram. Le conseil a aussi considéré que l’augmentation continue du nombre de cas de violence physique à l’encontre des personnes d’origine serbe en Croatie justifiait de supplanter la liberté d’expression de l’utilisateur pour protéger la liberté d’expression, la dignité et la sécurité des autres personnes.

Respect des responsabilités de Meta en matière de droits de l’homme

Pour déterminer si la restriction à la liberté d’expression était justifiée au regard des responsabilités de Meta en matière de droits humains, le Conseil a utilisé le test en trois parties de l’article 19 du PIDCP.

I. Légalité (clarté et accessibilité des règles)

Le Conseil estime que le Standard de la communauté relatif aux discours haineux interdit les attaques implicites ciblant des groupes sur la base de caractéristiques protégées y compris les comparaisons déshumanisantes avec des animaux et les déclarations défendant ou promouvant l’exclusion. Toutefois, dans le cas d’espèce, une quarantaine de modérateurs humains ont décidé que le contenu ne violait pas le Standard de la communauté sur les discours haineux. De l’avis du Conseil, cela montre que les modérateurs ont systématiquement cru que la politique leur demandait de trouver une comparaison explicite entre les personnes d’origine serbe et les rats pour considérer que la publication violait bien ladite politique. Il a donc jugé que la confusion tout le long du processus prouve le besoin d’avoir une politique et des directives de modération plus claires.

II. Objectif légitime

Le Conseil a ensuite rappelé que les Standards de la communauté sur les discours haineux et sur la violence et l’incitation poursuivent l’objectif légitime de protéger les droits d’autrui et notamment les « droits à l’égalité et à la non-discrimination » [p. 18].

III. Nécessité et proportionnalité

Enfin, le Conseil s’est penché sur l’exigence de nécessité et de proportionnalité. Il a rappelé que le Standard de la communauté Facebook sur les discours haineux interdit certaines formes spécifiques d’expressions discriminatoires, y compris les comparaisons avec des animaux et les appels à l’exclusion. Etant donné que le contenu en question compare les personnes d’origine serbe à des rats et célèbre des actes discriminatoires accomplis par le passé et est déshumanisant et haineux, le Conseil a estimé que la suppression du contenu en question était nécessaire pour lutter contre les préjudices sérieux que peuvent poser les discours haineux fondés sur l’origine ethnique.

De plus, le Conseil a estimé que la suppression du contenu constitue une mesure nécessaire et proportionnée puisque les interventions moins perturbatrices, telles que les écrans d’avertissement ou d’autres mesures visant à réduire la diffusion, n’auraient pas fourni une protection adéquate contre les effets cumulatifs du maintien d’un tel contenu sur la plateforme.

En conclusion, le Conseil a déterminé que la décision de Meta de supprimer la publication de la plateforme est conforme aux responsabilités sociétales de Meta en matière de droits de l’homme.

Avis consultatif sur la politique

Le Conseil a recommandé à Meta de clarifier le Standard de la communauté Facebook relatif aux discours haineux et les instructions fournies aux modérateurs de contenu pour leur expliquer que « les références implicites aux groupes protégés sont elles aussi interdites par la politique lorsque ces références sont comprises assez facilement » [p. 21]. De plus, le Conseil a déterminé que Meta devait informer tous les utilisateurs ayant signalé le contenu lorsqu’elle revient sur sa décision initiale après un nouvel examen. Meta doit également dévoiler les résultats de toute expérience évaluant la possibilité d’introduire ce changement auprès du public.


Direction De La Décision

Info Rapide

La direction de la décision indique si la décision élargit ou réduit l'expression sur la base d'une analyse de l'affaire.

Résultat mitigé

La décision du Conseil de surveillance a restreint l’expression en acceptant la décision de Meta de supprimer le contenu. Cependant, il l’a fait en vertu d’une exception reconnue par le droit international des droits de l’homme, car le contenu en question était déshumanisant et haineux étant donné qu’il comparait les personnes d’origine serbe à des rats et célébrait les actes de traitement discriminatoire du passé. De l’avis du Conseil, le retrait du contenu de la plateforme était nécessaire pour lutter contre les graves discours haineux fondé sur l’origine ethnique.

Perspective Globale

Info Rapide

La perspective globale montre comment la décision de la Cour a été influencée par les normes d'une ou de plusieurs régions.

Tableau Des Autorités

Lois internationale et/ou régionale connexe

  • ICCPR, art. 19

    The Board highlighted the heightened protection of political speech through this precept on freedom of expression.

  • UNHR Comm., General Comment No. 34 (CCPR/C/GC/34)

    The Board analyzed Facebook’s human rights responsibilities through this precept on freedom of expression.

  • ICCPR, art. 2

    The Board referred to this provision to underscore Facebook’s human rights responsibilities regarding equality and non-discrimination.

  • ICCPR, art. 26

    The Board referred to this provision to underscore Facebook’s human rights responsibilities regarding equality and non-discrimination.

  • ICERD, art. 2

    The Board referred to this provision to underscore Facebook’s human rights responsibilities regarding equality and non-discrimination.

  • ICERD, Article 5

    The Board referred to this provision to underscore Facebook’s human rights responsibilities regarding equality and non-discrimination.

  • Committee on the Elimination of Racial Discrimination, General Recommendation No. 35, Combating Racist Hate Speech, of 12 September 2011

    The Board referred to this provision to underscore Facebook’s human rights responsibilities regarding equality and non-discrimination.

  • United Nations Guiding Principles on Business and Human Rights (2011)

    The Board referred to this instrument to highlight Facebook’s businesses’ human rights responsibilities.

  • OHCHR, Rabat Plan of Action on the prohibition of advocacy of national, racial or religious hatred that constitutes incitement to discrimination, hostility or violence (2011).

    The Board referred to this instrument to guide its analysis regarding the responsibility of businesses in relation to the protection of Human Rights.

  • OSB, Depiction of Zwarte Piet, 2021-002-FB-UA (2021)

    The Board recalled its decision in this case to note that “moderating content to address the cumulative harms of hate speech, even where the expression does not directly incite violence or discrimination, can be consistent with Facebook’s human rights responsibilities in certain circumstances.” Moreover, the Board explained that in this case, it had determined that “less severe interventions, such as labels, warning screens, or other measures to reduce dissemination, would not have provided adequate protection against the cumulative effects of leaving (…) content of this nature on the platform.”

  • OSB, Armenians in Azerbaijan, 2020-003-FB-UA (2021)

    By citing its decision in this case, the Board remarked that the context of language which targeted a group based on national origin during conflict might create an environment in which acts of discrimination and violence are more likely.

  • OSB, South African slurs, 2021-011-FB-UA (2021)

    The Board referenced its decision in this case to highlight that it is in line with Meta’s human rights responsibilities to prohibit “some discriminatory expression” even “absent any requirement that the expression incite violence or discriminatory acts”.

Importance du Cas

Info Rapide

L'importance du cas fait référence à l'influence du cas et à la manière dont son importance évolue dans le temps.

La décision établit un précédent contraignant ou persuasif dans sa juridiction.

Selon l’article 2 de la charte du Conseil de surveillance, « pour chaque décision, toute décision antérieure du Conseil aura valeur de précédent et devra être considérée comme très convaincante lorsque les faits, les politiques applicables ou d’autres facteurs sont substantiellement similaires ». En outre, l’article 4 de la charte du Conseil de surveillance stipule que « la résolution du Conseil dans chaque cas sera contraignante et Facebook (maintenant Meta) la mettra en œuvre rapidement, sauf si la mise en œuvre d’une résolution risque d’enfreindre la loi ». Dans les cas où Facebook constate qu’un contenu identique avec un contexte parallèle – sur lequel le conseil a déjà pris une décision – reste sur Facebook (maintenant Meta), il prendra des mesures en analysant s’il est techniquement et opérationnellement possible d’appliquer la décision du conseil à ce contenu également. Lorsqu’une décision comprend des orientations politiques ou un avis consultatif, Facebook (maintenant Meta) prendra d’autres mesures en analysant les procédures opérationnelles requises pour mettre en œuvre les orientations, en les prenant en compte dans le processus formel d’élaboration des politiques de Facebook (maintenant Meta) et en communiquant de manière transparente sur les mesures prises en conséquence ».

La décision a été citée dans:

Documents Officiels du Cas

Documents Officiels du Cas:


Mémoires D'amicus Curiae et Autres Autorités Juridiques


Pièces Jointes:

Vous avez des commentaires?

Faites-nous savoir si vous remarquez des erreurs ou si l'analyse de cas doit être révisée.

Envoyer un Retour D'information