Résumé du Cas et Résultat
Le 28 janvier 2021, le Conseil de surveillance a annulé la décision de Facebook (actuellement Meta) de supprimer une publication sur Instagram contenant des images de mamelons féminins visibles et découverts, destinée à sensibiliser le public au cancer du sein et à ses symptômes. Facebook a supprimé la publication par le biais d’un classificateur automatisé, appliquant les Standards de la communauté Facebook sur la nudité et l’activité sexuelle chez les adultes. Bien que Facebook ait rétabli la publication en reconnaissant une erreur d’application, le Conseil a rendu une décision sur la question. Il a fait valoir que la décision de Facebook n’était pas conforme aux Standards de la communauté, car la nudité adulte est autorisée à des fins éducatives et médicales, telles que la sensibilisation au cancer du sein. De même, le Conseil de surveillance a estimé que la décision initiale de Facebook a affecté le droit des utilisateurs de recevoir des informations sur des questions liées à la santé et a eu un impact disproportionné sur les femmes, soulevant des préoccupations de discrimination.
*Le Conseil de surveillance est une entité distincte de Meta qui rend des jugements indépendants sur les cas individuels et les questions de politique. Le Conseil et son administration sont financés par une fiducie indépendante. Le Conseil a le pouvoir de décider si Facebook et Instagram doivent autoriser ou supprimer du contenu. Ces décisions sont contraignantes, à moins que leur mise en œuvre ne viole la loi. Le Conseil peut également choisir d’émettre des recommandations sur les politiques de contenu de l’entreprise.
Les Faits
En octobre 2020, un utilisateur au Brésil a publié une image sur Instagram avec huit photographies représentant les symptômes du cancer du sein accompagnées « des descriptions correspondantes, telles que « rides », « enflures » et « blessures ». [p. 4] Alors que trois photographies représentaient des seins de femme dont les mamelons étaient soit hors cadre, soit couverts par une main, les cinq autres affichaient des mamelons de femme découverts et visibles. Le titre de l’image en portugais indiquait que son objectif était de sensibiliser aux symptômes du cancer du sein. L’image était rose et en phase avec l’action « Octobre rose », « une campagne internationale, très populaire au Brésil, de sensibilisation à cette maladie ». [p. 4] L’utilisateur n’a partagé aucun autre commentaire supplémentaire dans sa publication.
La publication a été supprimée par un système automatique « appliquant le Standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes, applicable aussi sur Instagram ». [p. 4].
L’utilisateur a fait appel de cette décision auprès de Facebook (actuellement Meta) propriétaire de d’Instagram. Par le passé, l’entreprise avait déclaré publiquement à plusieurs reprises qu’elle ne serait pas toujours en mesure de proposer à ses utilisateurs la possibilité de faire appel en raison d’une réduction de sa capacité de révision provoquée par la COVID-19. En outre, Facebook a annoncé que « les appels ne feraient pas tous l’objet d’un examen manuel ». [p. 4].
L’utilisateur a envoyé une demande d’examen au Conseil, qui a décidé d’accepter le cas. Suite à la sélection du Conseil et à l’attribution du cas à un jury, « Facebook est revenu sur sa décision initiale de supprimer la publication et l’a restaurée en décembre 2020 ». [p. 4]. Facebook a affirmé que la décision initiale de supprimer la publication était due à l’automatisation des processus de modération et qu’elle a dès lors été identifiée comme une erreur de mise en application des règlements.
Puisque l’entreprise a restauré le contenu, Facebook estimait qu’il n’existait plus de désaccord au sujet de sa publication et que le Conseil « aurait dû refuser d’entendre le cas qui n’avait plus de raison d’être ». [p. 5] Néanmoins, le Conseil a décidé d’entendre le cas étant donné que des dommages irréversibles ont bel et bien été causés : « la décision de Facebook de restaurer le contenu au début du mois de décembre 2020 ne compensait pas le fait que la publication de l’utilisateur a été supprimée pendant toute la durée de la campagne « Octobre rose ». [p. 5].
Aperçu des Décisions
Le Conseil de surveillance a analysé si la décision de Facebook de supprimer la publication d’un utilisateur, contenant des images de mamelons féminins découverts et visibles dans le but de sensibiliser au cancer du sein, était conforme au Standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes. De même, le Conseil a évalué, en appliquant un test en trois parties, si la mesure de suppression du contenu prise par Facebook était conforme aux normes des droits de l’homme en matière de liberté d’expression.
Dans sa soumission, l’utilisateur a fait valoir que la publication faisait « partie de la campagne nationale ‘Octobre rose’ pour la prévention du cancer du sein. Il y montre certains des principaux signes du cancer du sein, qui, selon lui, sont essentiels pour la détection précoce de cette maladie et peuvent sauver des vies » [p. 8]
Pour sa part, Facebook a reconnu que la suppression du contenu était une erreur. L’entreprise a également expliqué que les Standards de la communauté s’appliquent à Instagram et que, bien que les Standards interdisent généralement les mamelons féminins visibles et découverts, « ils sont autorisés à des fins éducatives ou médicales, y compris pour la sensibilisation au cancer du sein » [p.8].
Conformité avec les standards de la communauté
Le Conseil de surveillance a commencé son argumentation en analysant si la décision de Facebook de supprimer le contenu était conforme à la politique de la plateforme en matière de nudité et d’activité sexuelle chez les adultes. Le Conseil a noté une divergence entre les Règles de la communauté Instagram et le Standard de la communauté Facebook susmentionné. Étant donné que les Règles de la communauté Instagram ont été citées à l’utilisateur lorsqu’il a été informé que son contenu enfreignait lesdites Règles, le Conseil a estimé que « les différences entre ces Règles justifient une analyse séparée » [p. 9].
Le Conseil a souligné que les Règles de la communauté Instagram n’autorisent pas la nudité sur la plateforme, à quelques exceptions près, telles que « des photos de cicatrices post-mastectomie et de femmes qui allaitent » [p. 9]. Ces exceptions n’autorisent pas expressément « les photos de mamelons féminins découverts à des fins de sensibilisation au cancer du sein ». [p. 9]. Cependant, le Standard de la communauté Facebook sur la nudité et l’activité sexuelle chez les adultes « précise que la nudité adulte consensuelle est autorisée lorsque l’utilisateur indique clairement que le contenu est « destiné à sensibiliser à une cause ou pour des raisons éducatives ou médicales » » [p. 10]. Le Conseil a jugé que « le rapport entre ces deux politiques, y compris laquelle prévaut contre l’autre, n’est pas expliqué » [p. 9].
Le Conseil a rappelé que le Standard de la communauté Facebook sur la nudité et l’activité sexuelle chez les adultes empêche les utilisateurs de publier des mamelons féminins découverts ou du contenu d’activité sexuelle sur la plateforme. Toutefois, il a relevé que la sensibilisation à des fins pédagogiques ou sanitaires constituait une exception à cette Règle : La section « Ne publiez pas » du Standard de la communauté [Facebook] répertorie « la sensibilisation au cancer du sein » en guise d’exemple de situation liée à la santé où il est acceptable de montrer des mamelons féminins découverts » [p. 10].
Ainsi, le Conseil a estimé que la publication de l’utilisateur qui a été retirée correspond exactement à l’exception accordée, « acceptant l’explication de Facebook selon laquelle les Standards de la communauté s’appliquent à Instagram » [p. 10]. Par conséquent, le Conseil a jugé que la décision de Facebook de supprimer le contenu n’était pas cohérente avec ses propres Standards.
Conformité avec les valeurs de Facebook
Les Standards de la communauté Facebook établissent la « liberté d’expression », la « sécurité » et la « confidentialité » comme valeurs fondamentales pour la plateforme. L’objectif de la « liberté d’expression », qui est une valeur primordiale, est de favoriser un espace d’expression dans lequel les gens sont « capables de parler ouvertement des questions qui leur tiennent à cœur, même si certains peuvent être en désaccord avec ces questions ou les juger répréhensibles » [p. 7] La « sécurité » souligne l’importance de faire de Facebook un endroit sûr dans lequel l’expression qui menace les gens ou qui « risque d’intimider, d’exclure ou de réduire les autres au silence, n’est pas autorisée » [p. 7]. La « confidentialité » vise à protéger la vie privée et les informations personnelles, en permettant aux gens « de choisir comment et quand partager sur Facebook » [p. 7].
Compte tenu de ce qui précède, le Conseil a considéré que la décision de Facebook de supprimer la publication de l’utilisateur n’était pas conforme aux valeurs de l’entreprise. Pour le Conseil, la valeur « liberté d’expression » comprend clairement les discussions sur des questions liées à la santé et est particulièrement utile pour sensibiliser la population aux symptômes du cancer du sein » [p. 10]. Le Conseil a fait également valoir que la possibilité de partager ce type de contenu contribue également à la « sécurité » de toutes les personnes atteintes ou vulnérables à la maladie. Enfin, le Conseil de surveillance a estimé que puisqu’aucune indication ne laisse supposer que les photographies [publiées par l’utilisateur] comprenaient des images non consensuelles » [p. 10], la « confidentialité » n’est pas affectée.
Respect des normes internationales relatives aux droits de l’homme
Conformément à ce qui a été dit dans un rapport du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, le Conseil a fait valoir que « les informations relatives à la santé sont particulièrement importantes ». Ainsi, ces informations sont protégées – comme l’indique l’Observation générale 14 du Comité des droits économiques, sociaux et culturels sur l’article 12 du Pacte international relatif aux droits civils et politiques – « dans le cadre du droit à la santé » [p. 11]. Le rapport entre ces deux droits a été souligné par le Conseil en tenant compte du contexte brésilien, « où les campagnes de sensibilisation sont cruciales pour promouvoir le diagnostic précoce du cancer du sein » [p. 11].
Dans cette optique, le Conseil a analysé la mesure prise par Facebook pour supprimer le contenu de l’utilisateur au regard des normes internationales des droits humains en matière de liberté d’expression, telles qu’énoncées à l’article 19 du PIDCP. Pour ce faire, le Conseil a analysé la légalité, la légitimité de l’objectif ainsi que la nécessité et la proportionnalité de la restriction à la liberté d’expression imposée par l’entreprise.
● Légalité
Suivant l’Observation générale 34 du Comité des droits de l’homme, le Conseil a spécifié que « toute règle restreignant la liberté d’expression doit être claire, précise et accessible au public. Selon le Conseil, cette exigence n’a pas été respectée puisqu’il existe des divergences entre les Standards de la communauté Facebook et les Règles de la communauté d’Instagram ; « Le fait que les Standards de la communauté Facebook prévalent sur les Règles de la communauté n’est pas non plus communiqué aux utilisateurs d’Instagram » [p. 11]. Cette incohérence et ce manque de clarté sont aggravés par les avis de suppression qui sont envoyés aux utilisateurs et qui ne font référence qu’aux Règles de la communauté. Ainsi, le Conseil a expliqué que « Les Règles de Facebook en la matière échouent donc au test de légalité » [p. 11].
● Objectif légitime
Le Conseil a noté que toute restriction de la liberté d’expression doit avoir un objectif légitime, répertorié dans l’article 19, paragraphe 3 du PIDCP » [p. 11]. Et comme l’affirme Facebook, son Standard de la communauté relatif à la nudité et aux activités sexuelles chez les adultes vise à « empêcher le partage d’images d’abus d’enfants et de scènes intimes non consensuelles sur Facebook et sur Instagram » [p. 11]. Pour le Conseil, il s’agit d’un objectif légitime en vertu du droit international des droits de l’homme, car les restrictions à la liberté d’expression sont valables pour protéger les « droits d’autrui », qui comprennent « le droit à la vie privée des victimes de partage non consensuel d’images intimes (article 17 du PIDCP), et les droits de l’enfant à la vie et au développement (article 6 de la CDE) », qui peuvent être menacés, comme le souligne l’Observation générale 13 du Comité des droits de l’enfant, dans les cas d’exploitation sexuelle.
● Nécessité et proportionnalité
Le Conseil a considéré, conformément à l’Observation générale 34 du Comité des droits de l’homme, que les restrictions à « la liberté d’expression doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » [p. 12].
Le Conseil a exprimé sa préoccupation quant à la suppression du contenu, à tort, « par un système de modération automatique et, potentiellement, sans examen manuel ou appel possible » [p. 12]. Citant un rapport du Rapporteur spécial des Nations Unies sur la liberté d’expression, le Conseil a souligné les limites des technologies automatisées lorsqu’il s’agit de comprendre le contexte et de saisir la complexité de la communication humaine. Dans ce cas-ci, ces technologies « ne sont pas parvenues à reconnaître les mots « cancer du sein » qui apparaissent dans l’angle supérieur gauche de l’image en portugais » [p. 12].
Le Conseil a reconnu que les technologies automatisées sont essentielles dans la modération de contenu, mais a précisé que cette dernière ne peut pas s’appuyer exclusivement sur ces technologies. Le Conseil a fait valoir que les suppressions automatisées doivent être sujettes à une procédure d’examen interne […] et un recours à un examen manuel doit être proposé » [p. 12], et a cité un rapport du Rapporteur spécial des Nations Unies sur la liberté d’expression.
Le Conseil de surveillance a conclu qu’en l’absence des mesures de protection nécessaires, la modération automatisée du contenu ne serait pas un moyen proportionné « pour que Facebook puisse s’attaquer aux formes de nudité adulte enfreignant les Règles » [p. 12].
Le Conseil s’est dit préoccupé par le fait que les actions de Facebook ne respectent pas le principe d’égalité et de non-discrimination, tel qu’énoncé dans l’Observation générale 34 du Comité des droits de l’homme sur la liberté d’opinion et d’expression. Pour le Conseil, sur la base de l’article 1 du CEDAW et de l’article 2 du PIDCP, le recours à l’automatisation « auraient probablement des retombées disproportionnées sur les femmes, ce qui suscite des inquiétudes en matière de discrimination » puisque les Règles de Facebook « traitent différemment les mamelons masculins et féminins » [p. 13]. Dès lors, les actions de Facebook ont eu un impact sur la sensibilisation au cancer du sein ce qui a compromis non seulement le droit des femmes à la liberté d’expression, mais également leur droit à la santé.
Enfin, le Conseil a jugé inquiétant « que Facebook n’informe pas les utilisateurs lorsque leur contenu est modéré par le biais de l’automatisation et que l’appel à un examen manuel ne soit pas forcément disponible dans tous les cas » [p. 13]. Cela pourrait être le signe d’un manque de transparence et contrevient, tel qu’exprimé par le Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, à l’obligation des « entreprises commerciales qui assurent la modération de contenu » de fournir aux clients et aux utilisateurs un moyen de recours.
Compte tenu de toutes ces raisons, le Conseil de surveillance a annulé la décision initiale de Facebook de supprimer le contenu et a demandé que la publication soit laissée en ligne » [p. 14], notant que Facebook a déjà pris des mesures à cet effet.
Avis consultatif sur la politique
En plus d’annuler la décision initiale de Facebook, le Conseil a également exhorté Facebook à améliorer son système automatisé de détection d’images. Il a également recommandé à Facebook d’être plus transparent en ce qui concerne l’application des Standards de la communauté de l’entreprise et le processus d’appel, en veillant à ce que « les utilisateurs soient notifiés des raisons de la mise en application des politiques relatives au contenu à leur encontre » qu’ils « soient informés quand l’automatisation est utilisée pour appliquer des mesures de modération contre leur contenu » et « qu’ils puissent faire appel à un examen manuel en cas de décisions prises par les systèmes automatisés lorsque le contenu est considéré comme ayant enfreint le Standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes » [p. 14].
Le Conseil a également recommandé que Facebook « implémente une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons ». En outre, le Conseil a estimé que Facebook devait “ dévoiler des données sur le nombre de décisions de suppression automatisées par Standard de la communauté et sur la proportion de ces décisions qui ont dû être annulées à la suite d’un examen manuel » [p. 14]. Le Conseil a également recommandé que Facebook procède à la révision des Règles de la communauté Instagram pour préciser que l’interdiction de nudité d’adultes n’est pas absolue et que « les mamelons de femme visibles peuvent être affichés pour sensibiliser au cancer du sein » [p. 15]. Enfin, le Conseil a demandé des précisions de la part de Facebook en rapport avec le fait que « les Règles de la communauté Instagram soient interprétées en phase avec les Standards de la communauté Facebook et que ces derniers prévalent en cas d’incohérences entre les deux politiques ». [p. 15].