Cas porté devant le Conseil de surveillance sur les symptômes du cancer du sein et nudité

Affaire résolue Élargit l'expression

Key Details

  • Mode D'expression
    Communication électronique / basée sur l'internet
  • Date de la Décision
    janvier 28, 2021
  • Résultat
    Décision du Conseil de Surveillance, Annulation de la décision initiale de Meta
  • Numéro de Cas
    2020-004-IG-UA
  • Région et Pays
    Brésil, Amérique latine et Caraïbes
  • Organe Judiciaire
    Conseil de surveillance
  • Type de Loi
    Droit international des droits de l'homme, Règles de contenu de Meta
  • thèmes
    Contenu répréhensible, Nudité et activités sexuelles des adultes, Règles de la communauté d’Instagram, Référence aux standards de la communauté Facebook
  • Mots-Cles
    Déclaration consultative de politique générale du Conseil de surveillance, Recommandation du Conseil de surveillance en matière de transparence, Recommandation du Conseil de surveillance en matière d’application

Ce cas est disponible dans d'autres langues:    Voir en : English    Voir en : Español

Analyse de Cas

Résumé du Cas et Résultat

Le 28 janvier 2021, le Conseil de surveillance a annulé la décision de Facebook (actuellement Meta) de supprimer une publication sur Instagram contenant des images de mamelons féminins visibles et découverts, destinée à sensibiliser le public au cancer du sein et à ses symptômes. Facebook a supprimé la publication par le biais d’un classificateur automatisé, appliquant les Standards de la communauté Facebook sur la nudité et l’activité sexuelle chez les adultes. Bien que Facebook ait rétabli la publication en reconnaissant une erreur d’application, le Conseil a rendu une décision sur la question. Il a fait valoir que la décision de Facebook n’était pas conforme aux Standards de la communauté, car la nudité adulte est autorisée à des fins éducatives et médicales, telles que la sensibilisation au cancer du sein. De même, le Conseil de surveillance a estimé que la décision initiale de Facebook a affecté le droit des utilisateurs de recevoir des informations sur des questions liées à la santé et a eu un impact disproportionné sur les femmes, soulevant des préoccupations de discrimination.

*Le Conseil de surveillance est une entité distincte de Meta qui rend des jugements indépendants sur les cas individuels et les questions de politique. Le Conseil et son administration sont financés par une fiducie indépendante. Le Conseil a le pouvoir de décider si Facebook et Instagram doivent autoriser ou supprimer du contenu. Ces décisions sont contraignantes, à moins que leur mise en œuvre ne viole la loi. Le Conseil peut également choisir d’émettre des recommandations sur les politiques de contenu de l’entreprise.


Les Faits

En octobre 2020, un utilisateur au Brésil a publié une image sur Instagram avec huit photographies représentant les symptômes du cancer du sein accompagnées « des descriptions correspondantes, telles que « rides », « enflures » et « blessures ». [p. 4] Alors que trois photographies représentaient des seins de femme dont les mamelons étaient soit hors cadre, soit couverts par une main, les cinq autres affichaient des mamelons de femme découverts et visibles. Le titre de l’image en portugais indiquait que son objectif était de sensibiliser aux symptômes du cancer du sein. L’image était rose et en phase avec l’action « Octobre rose », « une campagne internationale, très populaire au Brésil, de sensibilisation à cette maladie ». [p. 4] L’utilisateur n’a partagé aucun autre commentaire supplémentaire dans sa publication.

La publication a été supprimée par un système automatique « appliquant le Standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes, applicable aussi sur Instagram ». [p. 4].

L’utilisateur a fait appel de cette décision auprès de Facebook (actuellement Meta) propriétaire de d’Instagram. Par le passé, l’entreprise avait déclaré publiquement à plusieurs reprises qu’elle ne serait pas toujours en mesure de proposer à ses utilisateurs la possibilité de faire appel en raison d’une réduction de sa capacité de révision provoquée par la COVID-19. En outre, Facebook a annoncé que « les appels ne feraient pas tous l’objet d’un examen manuel ». [p. 4].

L’utilisateur a envoyé une demande d’examen au Conseil, qui a décidé d’accepter le cas. Suite à la sélection du Conseil et à l’attribution du cas à un jury, « Facebook est revenu sur sa décision initiale de supprimer la publication et l’a restaurée en décembre 2020 ». [p. 4]. Facebook a affirmé que la décision initiale de supprimer la publication était due à l’automatisation des processus de modération et qu’elle a dès lors été identifiée comme une erreur de mise en application des règlements.

Puisque l’entreprise a restauré le contenu, Facebook estimait qu’il n’existait plus de désaccord au sujet de sa publication et que le Conseil « aurait dû refuser d’entendre le cas qui n’avait plus de raison d’être ». [p. 5] Néanmoins, le Conseil a décidé d’entendre le cas étant donné que des dommages irréversibles ont bel et bien été causés : « la décision de Facebook de restaurer le contenu au début du mois de décembre 2020 ne compensait pas le fait que la publication de l’utilisateur a été supprimée pendant toute la durée de la campagne « Octobre rose ». [p. 5].


Aperçu des Décisions

Le Conseil de surveillance a analysé si la décision de Facebook de supprimer la publication d’un utilisateur, contenant des images de mamelons féminins découverts et visibles dans le but de sensibiliser au cancer du sein, était conforme au Standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes. De même, le Conseil a évalué, en appliquant un test en trois parties, si la mesure de suppression du contenu prise par Facebook était conforme aux normes des droits de l’homme en matière de liberté d’expression.

Dans sa soumission, l’utilisateur a fait valoir que la publication faisait « partie de la campagne nationale ‘Octobre rose’ pour la prévention du cancer du sein. Il y montre certains des principaux signes du cancer du sein, qui, selon lui, sont essentiels pour la détection précoce de cette maladie et peuvent sauver des vies » [p. 8]

Pour sa part, Facebook a reconnu que la suppression du contenu était une erreur. L’entreprise a également expliqué que les Standards de la communauté s’appliquent à Instagram et que, bien que les Standards interdisent généralement les mamelons féminins visibles et découverts, « ils sont autorisés à des fins éducatives ou médicales, y compris pour la sensibilisation au cancer du sein » [p.8].

Conformité avec les standards de la communauté

Le Conseil de surveillance a commencé son argumentation en analysant si la décision de Facebook de supprimer le contenu était conforme à la politique de la plateforme en matière de nudité et d’activité sexuelle chez les adultes. Le Conseil a noté une divergence entre les Règles de la communauté Instagram et le Standard de la communauté Facebook susmentionné. Étant donné que les Règles de la communauté Instagram ont été citées à l’utilisateur lorsqu’il a été informé que son contenu enfreignait lesdites Règles, le Conseil a estimé que « les différences entre ces Règles justifient une analyse séparée » [p. 9].

Le Conseil a souligné que les Règles de la communauté Instagram n’autorisent pas la nudité sur la plateforme, à quelques exceptions près, telles que « des photos de cicatrices post-mastectomie et de femmes qui allaitent » [p. 9]. Ces exceptions n’autorisent pas expressément « les photos de mamelons féminins découverts à des fins de sensibilisation au cancer du sein ». [p. 9]. Cependant, le Standard de la communauté Facebook sur la nudité et l’activité sexuelle chez les adultes « précise que la nudité adulte consensuelle est autorisée lorsque l’utilisateur indique clairement que le contenu est « destiné à sensibiliser à une cause ou pour des raisons éducatives ou médicales » » [p. 10]. Le Conseil a jugé que « le rapport entre ces deux politiques, y compris laquelle prévaut contre l’autre, n’est pas expliqué » [p. 9].

Le Conseil a rappelé que le Standard de la communauté Facebook sur la nudité et l’activité sexuelle chez les adultes empêche les utilisateurs de publier des mamelons féminins découverts ou du contenu d’activité sexuelle sur la plateforme. Toutefois, il a relevé que la sensibilisation à des fins pédagogiques ou sanitaires constituait une exception à cette Règle : La section « Ne publiez pas » du Standard de la communauté [Facebook] répertorie « la sensibilisation au cancer du sein » en guise d’exemple de situation liée à la santé où il est acceptable de montrer des mamelons féminins découverts » [p. 10].

Ainsi, le Conseil a estimé que la publication de l’utilisateur qui a été retirée correspond exactement à l’exception accordée, « acceptant l’explication de Facebook selon laquelle les Standards de la communauté s’appliquent à Instagram » [p. 10]. Par conséquent, le Conseil a jugé que la décision de Facebook de supprimer le contenu n’était pas cohérente avec ses propres Standards.

Conformité avec les valeurs de Facebook

Les Standards de la communauté Facebook établissent la « liberté d’expression », la « sécurité » et la « confidentialité » comme valeurs fondamentales pour la plateforme. L’objectif de la « liberté d’expression », qui est une valeur primordiale, est de favoriser un espace d’expression dans lequel les gens sont « capables de parler ouvertement des questions qui leur tiennent à cœur, même si certains peuvent être en désaccord avec ces questions ou les juger répréhensibles » [p. 7] La « sécurité » souligne l’importance de faire de Facebook un endroit sûr dans lequel l’expression qui menace les gens ou qui « risque d’intimider, d’exclure ou de réduire les autres au silence, n’est pas autorisée » [p. 7]. La « confidentialité » vise à protéger la vie privée et les informations personnelles, en permettant aux gens « de choisir comment et quand partager sur Facebook » [p. 7].

Compte tenu de ce qui précède, le Conseil a considéré que la décision de Facebook de supprimer la publication de l’utilisateur n’était pas conforme aux valeurs de l’entreprise. Pour le Conseil, la valeur « liberté d’expression » comprend clairement les discussions sur des questions liées à la santé et est particulièrement utile pour sensibiliser la population aux symptômes du cancer du sein » [p. 10]. Le Conseil a fait également valoir que la possibilité de partager ce type de contenu contribue également à la « sécurité » de toutes les personnes atteintes ou vulnérables à la maladie. Enfin, le Conseil de surveillance a estimé que puisqu’aucune indication ne laisse supposer que les photographies [publiées par l’utilisateur] comprenaient des images non consensuelles » [p. 10], la « confidentialité » n’est pas affectée.

Respect des normes internationales relatives aux droits de l’homme

Conformément à ce qui a été dit dans un rapport du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, le Conseil a fait valoir que « les informations relatives à la santé sont particulièrement importantes ». Ainsi, ces informations sont protégées – comme l’indique l’Observation générale 14 du Comité des droits économiques, sociaux et culturels sur l’article 12 du Pacte international relatif aux droits civils et politiques – « dans le cadre du droit à la santé » [p. 11]. Le rapport entre ces deux droits a été souligné par le Conseil en tenant compte du contexte brésilien, « où les campagnes de sensibilisation sont cruciales pour promouvoir le diagnostic précoce du cancer du sein » [p. 11].

Dans cette optique, le Conseil a analysé la mesure prise par Facebook pour supprimer le contenu de l’utilisateur au regard des normes internationales des droits humains en matière de liberté d’expression, telles qu’énoncées à l’article 19 du PIDCP. Pour ce faire, le Conseil a analysé la légalité, la légitimité de l’objectif ainsi que la nécessité et la proportionnalité de la restriction à la liberté d’expression imposée par l’entreprise.

Légalité

Suivant l’Observation générale 34 du Comité des droits de l’homme, le Conseil a spécifié que « toute règle restreignant la liberté d’expression doit être claire, précise et accessible au public. Selon le Conseil, cette exigence n’a pas été respectée puisqu’il existe des divergences entre les Standards de la communauté Facebook et les Règles de la communauté d’Instagram ; « Le fait que les Standards de la communauté Facebook prévalent sur les Règles de la communauté n’est pas non plus communiqué aux utilisateurs d’Instagram » [p. 11]. Cette incohérence et ce manque de clarté sont aggravés par les avis de suppression qui sont envoyés aux utilisateurs et qui ne font référence qu’aux Règles de la communauté. Ainsi, le Conseil a expliqué que « Les Règles de Facebook en la matière échouent donc au test de légalité » [p. 11].

Objectif légitime

Le Conseil a noté que toute restriction de la liberté d’expression doit avoir un objectif légitime, répertorié dans l’article 19, paragraphe 3 du PIDCP » [p. 11]. Et comme l’affirme Facebook, son Standard de la communauté relatif à la nudité et aux activités sexuelles chez les adultes vise à « empêcher le partage d’images d’abus d’enfants et de scènes intimes non consensuelles sur Facebook et sur Instagram » [p. 11]. Pour le Conseil, il s’agit d’un objectif légitime en vertu du droit international des droits de l’homme, car les restrictions à la liberté d’expression sont valables pour protéger les « droits d’autrui », qui comprennent « le droit à la vie privée des victimes de partage non consensuel d’images intimes (article 17 du PIDCP), et les droits de l’enfant à la vie et au développement (article 6 de la CDE) », qui peuvent être menacés, comme le souligne l’Observation générale 13 du Comité des droits de l’enfant, dans les cas d’exploitation sexuelle.

Nécessité et proportionnalité

Le Conseil a considéré, conformément à l’Observation générale 34 du Comité des droits de l’homme, que les restrictions à « la liberté d’expression doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » [p. 12].

Le Conseil a exprimé sa préoccupation quant à la suppression du contenu, à tort, « par un système de modération automatique et, potentiellement, sans examen manuel ou appel possible » [p. 12]. Citant un rapport du Rapporteur spécial des Nations Unies sur la liberté d’expression, le Conseil a souligné les limites des technologies automatisées lorsqu’il s’agit de comprendre le contexte et de saisir la complexité de la communication humaine. Dans ce cas-ci, ces technologies « ne sont pas parvenues à reconnaître les mots « cancer du sein » qui apparaissent dans l’angle supérieur gauche de l’image en portugais » [p. 12].

Le Conseil a reconnu que les technologies automatisées sont essentielles dans la modération de contenu, mais a précisé que cette dernière ne peut pas s’appuyer exclusivement sur ces technologies. Le Conseil a fait valoir que les suppressions automatisées doivent être sujettes à une procédure d’examen interne […] et un recours à un examen manuel doit être proposé » [p. 12], et a cité un rapport du Rapporteur spécial des Nations Unies sur la liberté d’expression.

Le Conseil de surveillance a conclu qu’en l’absence des mesures de protection nécessaires, la modération automatisée du contenu ne serait pas un moyen proportionné « pour que Facebook puisse s’attaquer aux formes de nudité adulte enfreignant les Règles » [p. 12].

Le Conseil s’est dit préoccupé par le fait que les actions de Facebook ne respectent pas le principe d’égalité et de non-discrimination, tel qu’énoncé dans l’Observation générale 34 du Comité des droits de l’homme sur la liberté d’opinion et d’expression. Pour le Conseil, sur la base de l’article 1 du CEDAW et de l’article 2 du PIDCP, le recours à l’automatisation « auraient probablement des retombées disproportionnées sur les femmes, ce qui suscite des inquiétudes en matière de discrimination » puisque les Règles de Facebook « traitent différemment les mamelons masculins et féminins » [p. 13]. Dès lors, les actions de Facebook ont eu un impact sur la sensibilisation au cancer du sein ce qui a compromis non seulement le droit des femmes à la liberté d’expression, mais également leur droit à la santé.

Enfin, le Conseil a jugé inquiétant « que Facebook n’informe pas les utilisateurs lorsque leur contenu est modéré par le biais de l’automatisation et que l’appel à un examen manuel ne soit pas forcément disponible dans tous les cas » [p. 13]. Cela pourrait être le signe d’un manque de transparence et contrevient, tel qu’exprimé par le Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, à l’obligation des « entreprises commerciales qui assurent la modération de contenu » de fournir aux clients et aux utilisateurs un moyen de recours.

Compte tenu de toutes ces raisons, le Conseil de surveillance a annulé la décision initiale de Facebook de supprimer le contenu et a demandé que la publication soit laissée en ligne » [p. 14], notant que Facebook a déjà pris des mesures à cet effet.

Avis consultatif sur la politique

En plus d’annuler la décision initiale de Facebook, le Conseil a également exhorté Facebook à améliorer son système automatisé de détection d’images. Il a également recommandé à Facebook d’être plus transparent en ce qui concerne l’application des Standards de la communauté de l’entreprise et le processus d’appel, en veillant à ce que « les utilisateurs soient notifiés des raisons de la mise en application des politiques relatives au contenu à leur encontre » qu’ils « soient informés quand l’automatisation est utilisée pour appliquer des mesures de modération contre leur contenu » et « qu’ils puissent faire appel à un examen manuel en cas de décisions prises par les systèmes automatisés lorsque le contenu est considéré comme ayant enfreint le Standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes » [p. 14].

Le Conseil a également recommandé que Facebook « implémente une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons ». En outre, le Conseil a estimé que Facebook devait “ dévoiler des données sur le nombre de décisions de suppression automatisées par Standard de la communauté et sur la proportion de ces décisions qui ont dû être annulées à la suite d’un examen manuel » [p. 14]. Le Conseil a également recommandé que Facebook procède à la révision des Règles de la communauté Instagram pour préciser que l’interdiction de nudité d’adultes n’est pas absolue et que « les mamelons de femme visibles peuvent être affichés pour sensibiliser au cancer du sein » [p. 15]. Enfin, le Conseil a demandé des précisions de la part de Facebook en rapport avec le fait que « les Règles de la communauté Instagram soient interprétées en phase avec les Standards de la communauté Facebook et que ces derniers prévalent en cas d’incohérences entre les deux politiques ». [p. 15].


Direction De La Décision

Info Rapide

La direction de la décision indique si la décision élargit ou réduit l'expression sur la base d'une analyse de l'affaire.

Élargit l'expression

En annulant la décision de Facebook de supprimer des contenus destinés à sensibiliser au cancer du sein, le Conseil de surveillance élargit le champ d’application de la liberté d’expression, tout en protégeant l’accès à l’information, le droit à la santé et le droit des femmes à la non-discrimination sur une question de la plus haute importance en matière de santé publique. La décision du Conseil renforce également la liberté d’expression en recommandant à Facebook de mettre en œuvre des mesures de protection, telles que l’examen manuel, sur la modération automatisée du contenu. En exhortant l’entreprise à faire preuve d’une plus grande transparence quant à l’efficacité de sa suppression automatisée de contenu, le Conseil favorise également un meilleur environnement pour la liberté d’expression en ligne.

Perspective Globale

Info Rapide

La perspective globale montre comment la décision de la Cour a été influencée par les normes d'une ou de plusieurs régions.

Tableau Des Autorités

Lois internationale et/ou régionale connexe

  • CEDAW, art. 1

    The Board analyzed Facebook’s human rights responsibilities through this precept on Women’s rights and nondiscrimination.

  • CRC, art. 6

    The Board cited this precept to highlight the protection of children’s right under International Human Rights law.

  • ICCPR, art. 2

    The Board analyzed Facebook’s human rights responsibilities through this precept on the right to nondiscrimination.

  • ICCPR, art. 19

    The Board analyzed Facebook’s human rights responsibilities through this precept on freedom of expression.

  • ICCPR, Art. 19, para. 3

    The Board analyzed the legitimate aim requirement through this precept on freedom of expression.

  • ICCPR, art. 17

    The Board referred to this article to highlight that the protection of privacy can be a legitimate aim for measures that restrict freedom of expression.

  • UNHR Comm., General Comment No. 34 (CCPR/C/GC/34)

    The Board referred to this general comment to state the principle of equality and nondiscrimination and to define the legality requirement.

  • CESCR, General Comment No. 14: The Right to the Highest Attainable Standard of Health

    The Board referred to this general comment to highlight the relationship between the right to health and access to information

  • CESCR, General Comment No. 13

    The Board referred to this general comment to underscore the threat of sexual exploitation to Children’s rights.

  • United Nations Guiding Principles on Business and Human Rights (2011)

    The Board referred to this instrument to highlight Facebook’s businesses’ human rights responsibilities.

  • Rapporteur on freedom of opinion and expression, A/HRC/38/35 (2018)

    The Board referenced the report to point out the key role of remedies in content moderation.

  • UN Special Rapporteur on Freedom of Expression, report A/HRC/44/49 (2020)

    The Board referenced the report to underscore the relevance of health-related information.

  • UN Special Rapporteur on Freedom of Expression, report A/73C/348 (2018)

    The Board referenced the report to highlight the limitations of automated technologies in content moderation and the importance of human review

Importance du Cas

Info Rapide

L'importance du cas fait référence à l'influence du cas et à la manière dont son importance évolue dans le temps.

La décision établit un précédent contraignant ou persuasif dans sa juridiction.

Selon l’article 2 de la charte du Conseil de surveillance, « pour chaque décision, toute décision antérieure du Conseil aura valeur de précédent et devra être considérée comme très convaincante lorsque les faits, les politiques applicables ou d’autres facteurs sont substantiellement similaires ». En outre, l’article 4 de la charte du Conseil de surveillance stipule que « la résolution du Conseil dans chaque cas sera contraignante et Facebook (maintenant Meta) la mettra en œuvre rapidement, sauf si la mise en œuvre d’une résolution risque d’enfreindre la loi ». Dans les cas où Facebook constate qu’un contenu identique avec un contexte parallèle – sur lequel le conseil a déjà pris une décision – reste sur Facebook (maintenant Meta), il prendra des mesures en analysant s’il est techniquement et opérationnellement possible d’appliquer la décision du conseil à ce contenu également. Lorsqu’une décision comprend des orientations politiques ou un avis consultatif, Facebook (maintenant Meta) prendra d’autres mesures en analysant les procédures opérationnelles requises pour mettre en œuvre les orientations, en les prenant en compte dans le processus formel d’élaboration des politiques de Facebook (maintenant Meta) et en communiquant de manière transparente sur les mesures prises en conséquence ».

La décision a été citée dans:

Documents Officiels du Cas

Vous avez des commentaires?

Faites-nous savoir si vous remarquez des erreurs ou si l'analyse de cas doit être révisée.

Envoyer un Retour D'information