Diffamation / réputation, Discours de haine, Droits numériques, Modération du contenu, Réglementation du contenu / censure
Vannucci c. Twitter INC
Argentine
En cours Élargit l'expression
Ce cas est disponible dans d'autres langues: Voir en : English Voir en : Español Voir en : العربية
Le 22 septembre 2021, le tribunal de district des États-Unis a estimé que Facebook devait divulguer des documents relatifs à l’incitation à la haine ethnique contre la minorité musulmane des Rohingyas au Myanmar. En novembre 2019, la République de Gambie a engagé une procédure contre le Myanmar pour violation de ses obligations en vertu du droit international en raison des mauvais traitements infligés à la minorité rohingya. La Cour internationale de justice (« CIJ »), en janvier 2020, a déclaré des mesures conservatoires exigeant que le Myanmar empêche que des actes génocidaires soient commis contre les musulmans rohingyas. Compte tenu du rôle de Facebook en tant que principale plateforme d’information en ligne au Myanmar à cette époque, la Gambie a déposé une demande de communication préalable auprès du tribunal de district des États-Unis pour le district de Columbia afin de divulguer des communications publiques et privées ainsi que des documents concernant le contenu que Facebook avait supprimé à la suite du génocide. Le tribunal a accédé à la demande de la Gambie concernant le contenu supprimé et les documents d’enquête interne, en déterminant que le contenu supprimé par Facebook n’était pas soumis à la règle de non-divulgation de la loi sur les communications stockées (Stored Communications Act, SCA) et que les pages ou les publications qui étaient accessibles au public avant leur suppression par Facebook relevaient de l’exception légale à la règle de non-divulgation.
En 2012, le Myanmar a connu une vague d’actes de violence dans l’État de Rakhine, où vivent les musulmans rohingyas. Ces violences ont provoqué des déplacements à grande échelle affectant l’ethnie Rakhine et les musulmans, avec notamment des incendies, des actes de pillages et des exécutions sommaires. De multiples organisations internationales de défense des droits de l’homme, dont le Conseil des droits de l’homme des Nations unies (la « Mission de l’ONU »), ont conclu que les violences à Rakhine étaient « planifiées et fomentées à l’avance et que les forces de sécurité du Myanmar étaient activement impliquées et complices » [p. 3]. À partir d’octobre 2016, les militaires du Myanmar ont effectué des « opérations de nettoyage » qui ont donné lieu à des assassinats massifs ciblés, des exécutions, des disparitions, des détentions et des tortures de civils rohingyas, ainsi que des viols et d’autres violences sexuelles et sexistes.
L’une des conclusions des missions de l’ONU au Myanmar concernait le rôle influent joué par Facebook dans la diffusion des articles, étant « de loin la plateforme de médias sociaux la plus utilisée au Myanmar » pour les informations en ligne [p. 4]. Les responsables du Myanmar s’appuyaient fréquemment sur Facebook pour diffuser des nouvelles et des informations, et les médias l’utilisaient également comme méthode principale pour publier des articles. En réponse à ces affirmations, Facebook, en octobre 2018, a commandé une évaluation de l’impact sur les droits de l’homme (« EIDH ») de sa présence au Myanmar. Selon le rapport de l’EIDH, Facebook « [était] l’internet » au Myanmar et les responsables du Myanmar étaient en mesure de « diffuser de manière crédible des rumeurs sur des personnes et des événements » grâce à l’utilisation de la plateforme [p. 5]. Par conséquent, Facebook a largement contribué à façonner la perception du public à l’égard des Rohingyas. Sa plateforme a été utilisée pour diffuser des sentiments antimusulmans et de la désinformation, ce qui a conduit à des violences communautaires et à une justice populaire. En outre, la campagne de haine a également été marquée par plusieurs cas de stigmatisation de l’ensemble de la communauté rohingya comme « migrants illégaux ». Par exemple, le 1er juin 2012, Zaw Htay, porteparole du président du Myanmar, a publié sur son compte Facebook une déclaration assimilant les Rohingyas à des « terroristes », ce qui a largement contribué aux violences de 2012 qui se sont produites une semaine plus tard.
En 2018, Facebook a publié une mise à jour sur le Myanmar, reconnaissant qu’il a « trop tardé à prévenir la désinformation et la haine » [p. 6]. En août 2018, Facebook a interdit les comptes de personnes et d’organisations clés au Myanmar (le commandant en chef des forces armées du Myanmar, Min Aung Hlaing, et le réseau de télévision de l’armée) et a supprimé des pages d’information et d’opinion indépendantes qui faisaient passer secrètement les messages de l’armée du Myanmar. Les qualifiant de « violations de ses conditions de service », Facebook a supprimé 438 pages, 17 groupes et 160 comptes Facebook et Instagram, suivis par près de 12 millions de personnes, pour avoir adopté un « comportement inauthentique coordonné » visant à perpétuer la désinformation et les discours de haine à l’encontre des Rohingyas [p. 6]. Elle a toutefois conservé les contenus qu’elle a supprimés.
En novembre 2019, la République de Gambie a engagé une procédure devant la Cour internationale de justice contre le Myanmar, afin que ce dernier réponde du crime de génocide contre les Rohingyas en vertu de la Convention pour la prévention et la répression du crime de génocide de 1948. En janvier 2020, la CIJ a indiqué des mesures conservatoires qui obligent le Myanmar à empêcher que des actes génocidaires soient perpétrés contre les Rohingyas et que des preuves soient détruites. Le 5 juin 2020, alors que la requête de la Gambie était en instance devant la CIJ, elle a déposé une demande de communication préalable conformément à l’article 28 USC §1782 auprès du tribunal du district de Columbia, pour obtenir le contenu électronique, en particulier les documents et les communications qui ont été produits, rédigés, postés ou publiés par les personnes et les agences gouvernementales dont les comptes Facebook ont été suspendus ou supprimés. La demande englobait également tous les documents relatifs aux enquêtes internes menées par Facebook sur les violations de la politique de contenu concernant ces personnes et ces entités. En particulier, la Gambie a également réclamé une déposition de Facebook en vertu de la règle 30(b)(6) afin de donner un sens aux documents que Facebook devait produire.
Facebook s’est opposé à cette demande, affirmant que la disposition 28 USC §2702 du Stored Communications Act (« SCA ») lui interdisait de divulguer ces documents. Elle a également fait valoir que la demande de communication préalable était trop contraignante et que les informations pouvaient être obtenues par d’autres voies, demandant au tribunal d’exercer son pouvoir discrétionnaire pour rejeter la demande.
Le juge d’instance Zia Faruqui a rendu le jugement du tribunal de district des États-Unis pour le district de Columbia. La principale question soumise à la Cour était de savoir si le contenu supprimé demandé par la Gambie pouvait être divulgué par Facebook en vertu des dispositions du SCA.
En vertu de l’article 28 U.S.C. § 1782, un tribunal fédéral américain est autorisé à ordonner le témoignage ou la production de documents « en vue de leur utilisation dans le cadre d’une procédure devant un tribunal étranger ou international », à la demande d’un tel tribunal ou de « toute personne intéressée ». Essentiellement, trois facteurs doivent être réunis pour décider d’accorder ou de refuser la demande : (i) la personne réside ou se trouve dans le district, (2) la divulgation demandée sera utilisée dans une procédure devant un tribunal étranger ou international, et (3) la demande est faite par une personne intéressée [p. 7]. Considérant qu’en vertu de la disposition 28 U.S.C. § 1782 du SCA, une entité fournissant un service de communication électronique au public « ne doit pas sciemment divulguer à toute personne ou entité le contenu d’une communication pendant qu’elle est stockée électroniquement par ce service ». En vertu du SCA, un « utilisateur » est « toute personne ou entité qui : (A) utilise un [SCE] ; et (B) est dûment autorisée par le fournisseur de ce service à se livrer à cette utilisation ». En outre, le SCA définit le terme « personne » de manière extensive, comme « les agents du gouvernement des États-Unis et les particuliers ». (p. 10)
Devant le tribunal de district, la Gambie a soulevé une objection préliminaire selon laquelle les agents du gouvernement du Myanmar n’étaient pas des « utilisateurs protégés » en vertu du SCA, et ne pouvaient donc pas bénéficier du droit de protection contre la divulgation. Elle a émis l’hypothèse qu’en mentionnant explicitement les agents du gouvernement américain dans la définition de la « personne », le Congrès a voulu renoncer à la protection des agents des gouvernements étrangers en vertu du SCA. Cependant, la tentative de la Gambie de diviser ces catégories n’a pas abouti car la Cour a noté que toutes les personnes, y compris les agents de gouvernements étrangers, avaient droit à la protection contre l’accès non autorisé en vertu du SCA. En outre, Facebook a également été considéré comme un SCE aux fins du SCA.
Pour ce qui est de la question de savoir si les documents demandés par la Gambie répondent à la définition de « stockage électronique », la Cour a distingué deux types de stockage électronique, le premier étant le stockage temporaire (c’est-à-dire « tout stockage intermédiaire temporaire d’une communication électronique ou câblée liée à sa transmission électronique ») et le second étant le « stockage de sauvegarde » (c’est-à-dire « tout stockage d’une telle communication par un service de communication électronique à des fins de protection de sauvegarde de cette communication »). Les deux parties ont convenu que la question qui se posait à la Cour était de savoir si les documents demandés pouvaient être qualifiés de stockage de sauvegarde.
La Cour s’est livrée à un exercice d’interprétation pour reconnaître la véritable signification du mot « sauvegarde », déclarant que le contenu supprimé par Facebook n’était pas un stockage de sauvegarde car le contenu a été retiré de façon permanente de la plateforme et qu’aucune copie de sauvegarde ne peut exister sans l’original, rendant ainsi la règle de divulgation de la SCA inapplicable [p. 15]. Facebook avait fait valoir que le contenu livré et non supprimé constitue un stockage de sauvegarde puisque le contenu supprimé reste sur les serveurs de Facebook à proximité de l’endroit où est stocké le contenu actif sur la plateforme, bien que la Cour ait approuvé le raisonnement de la Gambie selon lequel le contenu supprimé auquel l’utilisateur n’a pas accès ne constitue pas un stockage de sauvegarde. Le tribunal a également pris note du but dans lequel les données étaient stockées, reconnaissant que Facebook stockait les données à des fins d’autoréflexion (car il a affirmé avoir conservé les enregistrements instantanés dans le cadre d’une autopsie de son rôle dans le génocide des Rohingyas) et non de sauvegarde. Selon le tribunal de district, le Congrès avait restreint le champ d’application du SCA pour protéger le stockage de sauvegarde et non l’ensemble du stockage électronique, Notamment, le tribunal a cité de nombreux jugements pour étayer son point de vue (par exemple, Sartori c. Schrodt, 424 F. Supp. 3d 1121 (N.D. Fla. 2019) ; Flagg c. City of Detroit, 252 F.R.D. 346 (E.D. Mich. 2008) ; Theofel, 359 F.3 d 1070 (9th Cir. 2004) ; Hately, 917 F.3d 785).
En ce qui concerne le recours de Facebook à l’arrêt Hately (où la Cour a jugé qu’« une communication électronique est stockée à des fins de protection de sauvegarde si elle constitue une copie ou un double de la communication stockée pour empêcher, entre autres, sa destruction », p. 17), la Cour a jugé que Facebook avait lui-même détruit son contenu et que, bien qu’il ait conservé un accès hors ligne au contenu, cet accès n’était pas destiné à empêcher sa destruction sur la plateforme.
Facebook avait également fait valoir qu’une interprétation restrictive de la notion de « stockage de sauvegarde » aurait des « répercussions considérables sur la vie privée », car même en cas de désactivation du compte d’un utilisateur, le contenu de ses communications pourrait être divulgué à quiconque, y compris au gouvernement américain [p. 18]. D’emblée, la Cour a noté que les préoccupations de Facebook concernant la divulgation portant atteinte au droit à la vie privée n’étaient pas pertinentes, d’autant plus que les comportements inauthentiques coordonnés (c’est-à-dire les faux comptes qui violaient les conditions de service) ne bénéficiaient d’aucun droit à la vie privée de la part de Facebook. Plus important encore, la Cour a estimé qu’il était pertinent de mettre en balance le droit à la vie privée et la nécessité de dévoiler la cause du génocide des Rohingyas, tout en notant que les incidences sur la vie privée étaient minimes, car le contenu demandé continuait d’imprégner les médias sociaux par ailleurs.
Nonobstant ce qui précède, la Cour a noté qu’il existait des exceptions au SCA permettant la divulgation de contenus autrement protégés, la plus pertinente étant l’« exception de consentement », selon laquelle un fournisseur est autorisé à divulguer le contenu d’une communication avec le consentement de l’auteur. La Gambie avait également fait valoir l’exception de « protection du fournisseur » (selon laquelle « un fournisseur peut divulguer le contenu d’une communication […] dans la mesure où cela est nécessaire à la fourniture du service ou à la protection des droits ou de la propriété du fournisseur de ce service », p. 20) pour justifier la divulgation de contenus sensibles. La Cour a accepté l’argument de la Gambie, citant Facebook, Inc. c. Super. Ct., 417 P.3d 725, 751 (2018) et déclarant que la Cour peut obliger la production de communications exemptées de la protection du SCA, même si l’utilisation du mot « peut » pourrait laisser présumer que cette divulgation en vertu de toute exception du SCA est purement volontaire de la part du fournisseur.
En ce qui concerne l’exception de consentement, bien que la Cour ait convenu qu’il n’y a pas de nombre magique de spectateurs accessibles pour que le contenu déclenche l’exception de consentement, elle a plutôt cherché à répondre à la question de savoir « si les messages avaient été configurés par l’utilisateur comme étant suffisamment restreints pour ne pas être facilement accessibles au grand public » [p. 22]. Sur la base des faits, la Cour a conclu que les responsables du Myanmar souhaitaient que leur portée soit publique, car rendre leurs comptes et leurs pages privés aurait fait échouer leur objectif d’attiser la haine contre les Rohingyas. Par conséquent, en dehors des messages privés, le contenu demandé par la Gambie relevait de l’exception de consentement et la communication préalable était donc appropriée. La Cour n’a cependant pas accepté l’exception de protection du fournisseur invoquée par la Gambie.
L’un des autres arguments soulevés par Facebook était la nature trop large de la demande de la Gambie qui, selon elle, n’offrait aucune mesure significative pour identifier les comptes et était indûment contraignante. La Cour a toutefois rejeté cet argument en faisant valoir que la portée de la demande de la Gambie était très spécifique, puisqu’il s’agissait de rechercher du contenu déplacé de la plateforme remontant à 2012 et pertinent pour l’affaire de la CIJ (c’est-à-dire des documents relatifs aux discours de haine et à l’incitation à la violence sur Facebook). Selon la Cour, un tel examen ne présentait pas de difficultés majeures, Facebook ayant publiquement vanté la force de son équipe en langue birmane et ses capacités d’examen du contenu. L’appel de Facebook à la Cour pour demander à la Gambie d’épuiser les voies alternatives de divulgation a également été rejeté – la Cour a déclaré qu’aucune loi ne soutenait une exigence de quasi-épuisement des recours dans cette affaire.
Enfin, en ce qui concerne la communication des documents de l’enquête interne de Facebook, le tribunal, pour des motifs similaires, a ordonné à la plateforme de produire toute documentation non privilégiée relative à son enquête interne. Le tribunal a noté que les documents de l’enquête interne demandés par la Gambie avaient un objectif viable – celui de clarifier la façon dont Facebook a relié des comptes en apparence inauthentiques à des fonctionnaires du gouvernement du Myanmar et quels comptes ou pages étaient gérés par les mêmes fonctionnaires du gouvernement du Myanmar ou depuis les mêmes sites gouvernementaux. La demande finale de la Gambie pour une déposition en vertu de la règle 30(b)(6) a été considérée comme une charge excessive pour Facebook et a donc été rejetée par le tribunal.
En conclusion, tout en reconnaissant que le SCA avait besoin d’une mise à jour pour s’adapter à l’époque actuelle, il a néanmoins établi une voie bien établie pour la divulgation de contenu supprimé et Facebook doit se conformer à la demande de la Gambie de divulguer le contenu supprimé et les documents d’enquête interne connexes.
La direction de la décision indique si la décision élargit ou réduit l'expression sur la base d'une analyse de l'affaire.
Le jugement élargit le champ d’expression.
Cette affaire présente un mélange rare des questions de vie privée, de modération de contenu et de liberté d’expression sur internet. La modération de contenu de Facebook au Myanmar a été reconnue par le rapporteur spécial de l’ONU pour la liberté d’expression dans un rapport de 2019 comme l’un des outils cruciaux pour modérer les contenus problématiques. Pourtant, le refus par Facebook de la demande de divulgation pour des raisons de confidentialité et de respect de la vie privée a été considéré par la Cour comme une restriction à la liberté d’expression. Dans cette affaire, la Cour a également reconnu que « la question sur la manière dont les plateformes de médias sociaux peuvent respecter les droits à la liberté d’expression des utilisateurs tout en les protégeant contre tout préjudice est l’un des défis les plus urgents de notre époque » [p. 13]. Dans le même temps, elle a également reconnu que le droit à la vie privée dans cette affaire doit être pondéré par la nécessité de dévoiler la cause du génocide des Rohingyas [p. 18].
Néanmoins, cette affaire est une victoire importante pour plusieurs initiatives de redevabilité en matière de droits de l’homme, telles que l’affaire de la Gambie devant la CIJ, qui continuent à lutter contre l’application arbitraire par Facebook des normes communautaires ainsi que contre ses décisions en matière de contenu à l’égard des acteurs étatiques dans diverses juridictions telles que le Myanmar.
La perspective globale montre comment la décision de la Cour a été influencée par les normes d'une ou de plusieurs régions.
L'importance du cas fait référence à l'influence du cas et à la manière dont son importance évolue dans le temps.
Faites-nous savoir si vous remarquez des erreurs ou si l'analyse de cas doit être révisée.