Standards de la communauté Facebook, Violence et comportement criminel, Organisations et personnes dangereuses
Cas porté devant le Conseil de surveillance sur la mention des Talibans dans un reportage
Afghanistan
Affaire résolue Élargit l'expression
Ce cas est disponible dans d'autres langues: Voir en : English Voir en : Español Voir en : العربية
Le 8 juillet 2021, le Conseil de surveillance a annulé la décision initiale de Facebook (actuellement Meta) de supprimer une publication Instagram encourageant les gens à discuter de l’isolement cellulaire d’Abdullah Öcalan, membre fondateur du Parti des travailleurs du Kurdistan (PKK). Lorsque l’utilisateur a fait appel de la décision de l’entreprise et que le Conseil a choisi l’affaire pour examen, Facebook a constaté qu’une instruction interne relative à la politique sur les individus et les organismes dangereux « n’avait pas été transférée par inadvertance » au nouveau système d’examen et a donc décidé de restaurer le contenu. En analysant la décision initiale de l’entreprise, le Conseil a conclu que le contenu n’aurait jamais dû être supprimé. Il a déterminé que l’utilisateur n’avait pas prôné la violence, il a plutôt cherché à mettre en lumière les préoccupations relatives aux droits de l’homme que soulevait l’isolement cellulaire prolongé de M. Öcalan Par conséquent, le Conseil a conclu qu’il était peu probable que la publication cause un préjudice et que sa suppression n’était ni nécessaire ni proportionnée en vertu des normes internationales des droits de l’homme.
*Le Conseil de surveillance est une entité distincte de Meta qui rend des jugements indépendants sur les cas individuels et les questions de politique. Le Conseil et son administration sont financés par une fiducie indépendante. Le Conseil a le pouvoir de décider si Facebook et Instagram doivent autoriser ou supprimer du contenu. Ces décisions sont contraignantes, à moins que leur mise en œuvre ne viole la loi. Le Conseil peut également choisir d’émettre des recommandations sur les politiques de contenu de l’entreprise.
Le PKK a été fondé dans les années 1970 dans le but d’établir un État kurde indépendant dans le sud-est de la Turquie, en Syrie et en Irak.
Le 25 janvier 2021, un utilisateur d’Instagram a posté une photo d’Abdullah Öcalan, membre fondateur du PKK, emprisonné en Turquie depuis son arrestation et sa condamnation en 1999 pour avoir commis des actes de violence visant à faire sécession d’une partie du territoire turc. La publication comprenait les mots anglais « y’all ready for this conversation » (« vous êtes tous prêts à avoir cette discussion »). Dans la légende, l’auteur de la publication a écrit qu’il était temps de parler de l’isolement de M. Öcalan. L’utilisateur a également encouragé les lecteurs « à parler de l’emprisonnement de M. Öcalan et de la nature inhumaine de son isolement cellulaire, notamment par le biais de grèves de la faim, de protestations, d’actions en justice, d’articles d’opinion, de groupes de lecture et de mèmes » [p. 5].
Le 12 février 2021, la publication a été supprimée après qu’un modérateur a constaté qu’elle violait la politique de l’entreprise sur les individus et les organismes dangereux. L’utilisateur a fait appel de la décision, mais Facebook a répondu que la décision était définitive et ne pouvait être examinée en raison d’une réduction temporaire de la capacité d’examen de l’entreprise due au COVID-19. Néanmoins, un deuxième modérateur a examiné le contenu et a confirmé la première décision. En conséquence, l’utilisateur a fait appel devant le Conseil de surveillance.
Facebook a restauré le contenu sur Instagram le 23 avril après la sélection du cas pour examen par le Conseil. L’entreprise a informé le Conseil qu’elle avait trouvé une instruction interne, élaborée en 2017, relative à la politique sur les individus et les organismes dangereux qui permettait de discuter ou de débattre des conditions de détention des personnes désignées comme dangereuses. Elle a expliqué qu’en 2018, l’instruction n’avait « pas été transférée par inadvertance » à un nouveau système d’examen et qu’elle n’avait donc pas été appliquée dans ce cas. Après avoir découvert l’erreur, l’entreprise a restauré le contenu.
La principale question que le Conseil devait analyser était de savoir si la décision initiale de Facebook de supprimer la publication Instagram encourageant les gens à discuter de l’isolement cellulaire d’Abdullah Öcalan était conforme aux politiques de contenu, aux valeurs et aux responsabilités de l’entreprise en matière de droits de l’homme.
Dans son appel introduit auprès du Conseil, l’utilisateur a expliqué qu’il avait publié le contenu pour alimenter le débat concernant la philosophie de M. Öcalan et mettre fin à son isolement. Il a indiqué qu’il estimait que l’interdiction de communiquer sur M. Öcalan et sa philosophie empêche toute discussion qui pourrait conduire à un règlement pacifique pour le peuple kurde au Moyen-Orient. L’utilisateur a également affirmé qu’il ne souhaitait pas faire la promotion de la violence, mais est d’avis qu’il ne fallait pas interdire la publication d’images de M. Öcalan sur Instagram.
Dans sa soumission, Facebook a expliqué que l’entreprise a d’abord conclu que le contenu constituait un appel à l’action pour soutenir M. Öcalan et le PKK, ce qui enfreignait la politique sur les individus et les organismes dangereux. Après que le Conseil a sélectionné le cas pour examen, Facebook a réévalué le contenu enfreignant ses politiques et a constaté qu’elle avait mis au point une instruction interne à cet égard en 2017 qui autorise les contenus dans lesquels l’utilisateur appelle à la liberté d’un terroriste lorsque le contexte indique qu’il est partagé de manière à prôner la paix ou à débattre de l’incarcération d’un terroriste. Toutefois, Facebook a déclaré avoir omis, par inadvertance, de transférer cette instruction lorsque l’entreprise est passée à un nouveau système d’examen en 2018. Suite à l’application de cette instruction, Facebook a estimé qu’en l’espèce, le contenu relevait résolument du champ d’application et a restauré le contenu.
Respect des politiques de Facebook en matière de contenu
Le Conseil a noté que les Règles de la communauté Instagram, qui comprenaient un lien vers le standard de la communauté Facebook sur les individus et les organismes dangereux, indiquaient qu’Instagram n’est pas un endroit pour soutenir ou faire l’éloge du terrorisme, du crime organisé ou des groupes haineux. Il a ensuite souligné que les Standards de la communauté s’appliquent à Instagram de la même manière qu’elles s’appliquent à Facebook. Il a expliqué aussi que le Standard de la communauté sur les individus et les organismes dangereux cherche à « éviter et empêcher tout danger réel [en] ne permettant à aucune organisation ou individu qui revendique des objectifs violents ou qui se livre à la violence d’être présent sur Facebook ». Le Conseil a également fait remarquer qu’à l’époque où le Standard était mis en application, il indiquait que Facebook pouvait supprimer tout contenu soutenant ou faisant l’éloge de groupes, dirigeants ou individus impliqués dans ces activités.
Sur demande du Conseil, Facebook a partagé l’instruction interne aux modérateurs de contenu sur la signification du terme « soutien » envers des individus et des organismes désignés. Celle-ci définit un « appel à l’action » comme « un appel visant à inciter une audience à accomplir des actions pour faire la promotion d’un organisme désigné comme dangereux, ou sa cause » [p. 11]. Néanmoins, le Conseil a souligné que ces précisions ne figuraient pas dans les Standards de la communauté accessibles au public au moment où le contenu a été publié et n’étaient pas incluses dans la mise à jour publiée le 23 juin 2021.
Par ailleurs, le Conseil a considéré que l’instruction égarée et non publique mise en place en 2017 pour souligner que la discussion sur les conditions de détention d’une personne désignée comme dangereuse était autorisée et ne constituait pas une quelconque forme de « soutien ». Le Conseil a noté que la politique de Facebook consistant à supprimer par défaut le contenu qui témoigne du « soutien » à des individus désignés, tout en cachant au public des exceptions clés, a permis à cette erreur de passer inaperçue pendant environ trois ans sans que quiconque n’ait à rendre de comptes. Ainsi, le Conseil a décidé en l’espèce que même sans la découverte de l’instruction égarée, le contenu n’aurait jamais dû être supprimé pour avoir montré un quelconque « soutien » puisque l’utilisateur a uniquement encouragé les personnes à discuter de l’isolement cellulaire de M. Öcalan, notamment par le biais de grèves de la faim, de protestations, d’actions en justice, d’articles d’opinion, de groupes de lecture et de mèmes. Par conséquent, le Conseil a considéré que la suppression du contenu n’a pas servi l’objectif déclaré de la politique, à savoir éviter et empêcher tout danger réel.
Respect des valeurs de Facebook
Le Conseil a conclu que la décision de Facebook de supprimer le contenu n’était pas conforme aux valeurs de « liberté d’expression » et de « sécurité » de Facebook. Il a expliqué que l’utilisateur cherchait à mettre en évidence d’éventuelles violations des droits de l’homme et que la contestation de ces violations était au cœur de la valeur de « liberté d’expression ». De plus, le Conseil a noté que La valeur de « sécurité » a été théoriquement engagée parce que le contenu concernait un individu désigné comme dangereux. Toutefois, la suppression du contenu n’a pas répondu à un problème de sécurité patent puisque ce contenu n’incluait aucune formulation incitante ou préconisant le recours à la violence. La décision de Facebook a plutôt illégitimement étouffé la liberté d’expression d’une personne soulevant une question qui porte sur les droits de l’homme.
Respect des responsabilités de Facebook en matière des droits de l’homme
Le Conseil a rappelé que discuter des conditions de détention d’un individu et des infractions présumées à ses droits de l’homme en détention relève des types d’expression protégés par l’article 19 du PIDCP. Il a également fait remarquer que des organismes internationaux avaient soulevé des préoccupations en matière de droits de l’homme au sujet de pratiques qui visent à mettre en lumière les préoccupations concernant l’isolement et la détention prolongée d’un individu. Pour déterminer si la restriction à la liberté d’expression était justifiée, le Conseil a utilisé le triple critère de l’article 19 du PIDCP.
I. Légalité
Le Conseil a cité des standards en matière de droits de l’homme qui stipulent que les limitations de la liberté d’expression doivent être libellées avec suffisamment de précision pour permettre de comprendre ce qui est interdit et d’agir en conséquence. De l’avis du Conseil, bien que Facebook ait fourni aux examinateurs des instructions internes et confidentielles détaillées pour interpréter les politiques de contenu de l’entreprise, il n’a pas été tenu compte des règles clés sur les exclusions que comporte la définition du terme « soutien » mise au point par Facebook dans les Standards de la communauté accessibles au public.
Le Conseil a noté que Facebook a maintenant défini publiquement les termes « représentation », « éloge » et « soutien » dans le Standard de la communauté Facebook sur les individus et les organismes dangereux. Il a, toutefois, constaté que le Rapporteur spécial des Nations unies pour la liberté d’expression a indiqué que les interdictions des plateformes de médias sociaux concernant le « soutien » et « l’éloge » étaient « formulées de manière excessivement vague » (A/HRC/38/35, paragraphe 26, voir également : Observation générale n° 34, paragraphe 46) [p.14].
II. Objectif légitime
Le Conseil a constaté qu’étant donné l’annulation de la décision contre laquelle l’utilisateur a fait appel après la sélection de ce cas par le Conseil, l’entreprise n’a pas cherché à justifier la suppression en déclarant qu’elle poursuivait un objectif légitime, mais l’a plutôt présentée comme une erreur.
III. Nécessité et proportionnalité
De l’avis du Conseil, en revenant sur sa décision à la suite de la sélection de l’affaire par le Conseil, Facebook avait implicitement reconnu que la suppression du contenu n’était ni nécessaire ni proportionnée. Il a, en outre, souligné que l’ampleur de la notion « soutien » dans les Standards de la communauté, combinée à l’égarement de l’instruction interne sur les exclusions, a entraîné une suppression inutile et disproportionnée. Le Conseil a également jugé que Le contenu ne comprenait pas d’intention manifeste d’inciter à la violence. Ce contenu, ou tout autre contenu similaire, ne risquait pas non plus de provoquer un quelconque danger en étant maintenu.” [p.16].
Droit au recours
Le Conseil a exprimé plusieurs préoccupations indiquant que Facebook n’a pas respecté le droit au recours, ce qui contrevient à sa politique d’entreprise en matière de droits de l’homme. En l’espèce, l’utilisateur a été informé du fait qu’il n’était pas possible de faire appel en raison du COVID-19. Un appel a toutefois été introduit. Bien que le contenu de l’utilisateur ait été restauré, le Conseil a noté avec préoccupation le nombre potentiellement important de suppressions qui n’auraient pas dû se produire, car Facebook a égaré une instruction interne autorisant les débats sur les conditions de détention d’individus désignés. Le Conseil a également jugé que les rapports de transparence de Facebook ne sont pas suffisants pour évaluer de manière significative si le type d’erreur identifié en l’espèce reflète un problème systémique.
Avis consultatif sur la politique :
Le Conseil a notamment recommandé à Facebook de : « 1. Rétablir l’instruction égarée en 2017 dans les Standards d’implémentation internes et les Questions fréquemment posées (les instructions internes pour les modérateurs de contenu). 2. Évaluer les procédures de modération automatisées pour la mise en application de la politique sur les individus et les organismes dangereux et, le cas échéant, mettre à jour les classificateurs afin d’exclure les données d’entraînement provenant d’erreurs de mise en application antérieures résultant de l’incapacité à appliquer l’instruction de 2017. 3. Publier les résultats de la procédure d’examen continu pour déterminer si d’autres politiques ont été égarées, y compris la description de toute politique perdue, la période durant laquelle la politique a été égarée et les mesures prises pour la restaurer. 5. Ajouter à la politique sur les individus et les organismes dangereux une explication claire des exclusions que comporte la notion de « soutien ». Les utilisateurs doivent être libres de discuter des infractions et des abus présumés des droits de l’homme des membres d’organismes désignés. 8. Veiller à ce que des formations et des instructions internes soient fournies aux modérateurs de contenu concernant toute nouvelle politique […] 9. Veiller à ce que les utilisateurs soient prévenus de la suppression de leur contenu » [p. 19-20].
Le Conseil a également suggéré à Facebook : « d’indiquer dans la(es) notification(s) si la suppression est due à une demande gouvernementale ou à une infraction aux Standards de la communauté, ou encore à un gouvernement affirmant que sa législation nationale est enfreinte (et la portée juridictionnelle de toute suppression). 10. Préciser aux utilisateurs d’Instagram que les Standards de la communauté Facebook s’appliquent à Instagram de la même manière qu’ils s’appliquent à Facebook. 12. Inclure des informations plus complètes sur les taux d’erreur dans l’application des règles relatives aux « éloges » et au « soutien » envers les individus et les organismes dangereux, réparties par région et par langue » [p. 20-21].
La direction de la décision indique si la décision élargit ou réduit l'expression sur la base d'une analyse de l'affaire.
La décision a élargi l’expression parce que le Conseil a déterminé que les utilisateurs des plateformes Facebook devraient être en mesure de susciter des discussions sur les violations des droits de l’homme, les abus liés au terrorisme et à la lutte contre le terrorisme, même si de tels abus incluent les noms de personnes ou d’organisations désignées par la politique de l’entreprise comme des individus et organismes dangereux. Le Conseil a encouragé Facebook à protéger les contenus d’intérêt public dans les pays où les protections nationales, juridiques et institutionnelles des droits de l’homme, en particulier la liberté d’expression, sont faibles. Enfin, la décision élargit l’expression en demandant à l’entreprise de soutenir les discussions des utilisateurs sur les droits des personnes détenues, qui pourraient être dans l’incapacité de défendre efficacement leurs droits.
La perspective globale montre comment la décision de la Cour a été influencée par les normes d'une ou de plusieurs régions.
The Board used the UNGPs as the legal basis of Facebook’s commitment to respect human rights.
The Board used Article 19 of the ICCPR as a legal basis that provides broad protection for freedom of expression through any media and regardless of frontiers. They also used it to apply the three-part test of legality (clarity), legitimacy, and necessity and proportionality.
The Board used Article 6 as a reference to the right of people to study, discuss, form and defend human rights and fundamental freedoms.
The Board used General Comment No. 34 as the legal basis to apply the three-part test.
The Board used Report A/HRC/38/35 to argument how social media platforms prohibitions on the terms “praise” and “support” are “excessively vague”.
The Board used Report A/74/486 as the legal basis to analyze the right to remedy.
The Board used Article 2 of the ICCPR as the legal basis to analyze the right to remedy.
The Board used Article 2 of the ICCPR as the legal basis to analyze the right to remedy.
The Board used the Nelson Mandela Rules to analyze freedom of expression and its relationship with human rights and solitary and prolonged confinement.
By referring to this case the Board highlighted that it had recommended the company amend its Community Standard on Dangerous Individuals and Organizations to define “representation,” “praise,” and “support.
The Board recalled that through its decision in this case it had recommended that Facebook clarify the relationship between Instagram’s Community Guidelines and the Facebook Community Standards.
The Board stressed the need for Facebook to restore the appeals process in line with recommendations in this case.
The Board cited this case to reiterate its concern regarding Facebook removing content on matters in the public interest in countries where national legal and institutional protections for human rights, particularly freedom of expression, are weak.
The Board cited this case to reiterate its concern regarding Facebook removing content on matters in the public interest in countries where national legal and institutional protections for human rights, particularly freedom of expression, are weak.
L'importance du cas fait référence à l'influence du cas et à la manière dont son importance évolue dans le temps.
Selon l’article 2 de la charte du Conseil de surveillance, « pour chaque décision, toute décision antérieure du Conseil aura valeur de précédent et devra être considérée comme très convaincante lorsque les faits, les politiques applicables ou d’autres facteurs sont substantiellement similaires ». En outre, l’article 4 de la charte du Conseil de surveillance stipule que « la résolution du Conseil dans chaque cas sera contraignante et Facebook (désormais Meta) la mettra en œuvre rapidement, sauf si la mise en œuvre d’une résolution risque d’enfreindre la loi ». Dans les cas où Facebook constate qu’un contenu identique avec un contexte parallèle – sur lequel le conseil a déjà pris une décision – reste sur Facebook (maintenant Meta), il prendra des mesures en analysant s’il est techniquement et opérationnellement possible d’appliquer la décision du conseil à ce contenu également. Lorsqu’une décision comprend des orientations politiques ou un avis consultatif, Facebook (désormais Meta) prendra d’autres mesures en analysant les procédures opérationnelles requises pour mettre en œuvre les orientations, en les prenant en compte dans le processus formel d’élaboration des politiques de Facebook (désormais Meta) et en communiquant de manière transparente sur les mesures prises en conséquence ».
Faites-nous savoir si vous remarquez des erreurs ou si l'analyse de cas doit être révisée.