Caso del Consejo Asesor de Contenido sobre los síntomas del cáncer de mama y desnudos

Cerrado Expande el alcance del derecho a la Expresión

Key Details

  • Tipo de Expresión
    Comunicaciones electrónicas o a través de Internet
  • Fecha de la decisión
    enero 28, 2021
  • Decisión
    Overturned Meta’s initial decision
  • Número del caso
    2020-004-IG-UA
  • Región y País
    Brasil, Latinoamérica y el Caribe
  • Órgano Judicial
    Oversight Board
  • Régimen Jurídico
    Meta’s content policies, International Human Rights Law
  • Temas
    Normas comunitarias de Instagram, Normas comunitarias de Facebook, Contenido objetable, Desnudos y actividad sexual de adultos
  • Palabras clave
    Oversight Board Policy Advisory Statement

Content Attribution Policy

Global Freedom of Expression is an academic initiative and therefore, we encourage you to share and republish excerpts of our content so long as they are not used for commercial purposes and you respect the following policy:
  • Attribute Columbia Global Freedom of Expression as the source.
  • Link to the original URL of the specific case analysis, publication, update, blog or landing page of the down loadable content you are referencing.
Attribution, copyright, and license information for media used by Global Freedom of Expression is available on our Credits page.

This case is available in additional languages:    View in: English    View in: Français

Analisis de Caso

Resumen y resultado del caso

El 28 de enero de 2021, el Consejo Asesor de Contenido anuló la decisión de Facebook (actualmente Meta) de eliminar una publicación en Instagram con imágenes de pezones femeninos visibles y descubiertos cuyo objetivo era concientizar sobre el cáncer de mama y sus síntomas. Facebook eliminó la publicación mediante un clasificador basado en aprendizaje automático, aplicando las normas comunitarias de Facebook sobre desnudez y actividad sexual en adultos. Aunque Facebook restauró la publicación reconociendo un error de aplicación, el Consejo Asesor de Contenido emitió una decisión sobre el asunto. Este argumentó que la decisión de Facebook no cumplía con sus Normas comunitarias, ya que la desnudez adulta está permitida con fines educativos y médicos, como lo es la concientización sobre el cáncer de mama. Así mismo, el Consejo Asesor de Contenido consideró que la decisión original de Facebook afectaba el derecho de las/os usuarias/os a recibir información sobre cuestiones relacionadas con la salud y afectaba de forma desproporcionada a las mujeres, lo que suscitó preocupaciones en torno a la discriminación.

*El Consejo Asesor de Contenido es una entidad separada de Meta y aportará su criterio independiente tanto en casos individuales como en cuestiones de políticas. Tanto el Consejo como su administración están financiadas por un fondo fiduciario independiente. El Consejo tiene autoridad para decidir si Facebook e Instagram deben permitir o eliminar contenidos. Estas decisiones son vinculantes, a menos que su aplicación infrinja la ley. El Consejo también puede decidir emitir recomendaciones sobre las políticas de contenidos de la empresa.


Hechos

En octubre de 2020, un usuario en Brasil publicó en Instagram una única imagen que incluía ocho fotografías en las que se mostraban diferentes síntomas de cáncer de mama “con las descripciones pertinentes debajo de ellas, como ‘ondulaciones’, ‘racimos’ y ‘heridas’” [p. 6]. Mientras que tres fotografías incluían pechos femeninos con los pezones cubiertos por una mano o fuera de plano, en cinco de ellas los pezones femeninos estaban descubiertos y visibles. La imagen tenía “un título en portugués en el que se indicaba que la intención de la publicación era concientizar acerca de los síntomas del cáncer de mama. La imagen era rosa, en consonancia con el ‘Octubre rosa’, una campaña internacional de concientización sobre esta enfermedad” [p. 6]. El usuario no compartió ningún comentario adicional en la publicación.

Un clasificador basado en aprendizaje automático eliminó la publicación “a fin de aplicar las normas comunitarias de Facebook sobre desnudos y actividad sexual de adultos, que también se aplican en Instagram” [p. 7].

El usuario afectado apeló la decisión ante Facebook (actualmente Meta), propietaria de Instagram. La compañía había declarado previamente que no siempre puede ofrecer a los usuarios la opción de apelar las decisiones debido a la reducción de su capacidad de revisión a causa de la pandemia de Covid-19. Además, Facebook indicó “que no todas las apelaciones recibir[ía]n una revisión manual” [p. 7].

En consecuencia, el usuario recurrió la decisión de Facebook ante el Consejo Asesor de Contenido. Tras la admisión del caso por parte del Consejo, y su asignación a un panel, “Facebook revirtió su decisión original de eliminar el contenido y restauró la publicación en diciembre de 2020” [p. 7]. La empresa manifestó que la determinación inicial de eliminar la publicación fue automatizada; sin embargo, cuando revisó su decisión, identificó que hubo un error de aplicación.

Dado que Facebook consideró que el asunto era irrelevante tras haber restaurado el contenido, la empresa argumentó que el Consejo debía no “considerar el caso en cuestión porque el problema asociado es irrelevante actualmente” [p. 8]. No obstante, el Consejo decidió examinar el caso ya que seguía produciéndose un daño irreversible: “La decisión de Facebook de restaurar el contenido a principios de diciembre de 2020 no compensó el hecho de que la publicación del usuario se eliminó durante toda la campaña del ‘mes rosa’ en octubre de 2020” [p. 9].


Análisis de la Decisión

El Consejo Asesor analizó si la decisión de Facebook de eliminar la publicación de un usuario, que incluía imágenes de pezones femeninos descubiertos y visibles con la intención de concientizar sobre el cáncer de mama, cumplía la Norma comunitaria sobre desnudos y actividad sexual de adultos de la plataforma. Asimismo, el Consejo evaluó aplicando un test tripartito si la medida de Facebook de retirar el contenido cumplía con las estándares de derechos humanos en materia de libertad de expresión.

En su alegato, el usuario declaró que la publicación formaba “parte de la campaña nacional ‘Octubre rosa’ para la prevención del cáncer de mama. El contenido muestra algunos de los síntomas principales del cáncer de mama, que el usuario afirma que son esenciales para detectar la enfermedad en una fase temprana y salvar vidas” [p. 14].

Por su parte, Facebook reconoció que eliminar el contenido había sido un error. La empresa también explicó que en Instagram se aplican las Normas comunitarias y que, aunque estas prohíben en general los pezones femeninos visibles y descubiertos, “sí permiten hacerlo con ‘fines educativos o médicos’, lo que incluye la concientización sobre el cáncer de mama” [p. 14].

Cumplimiento de las normas comunitarias

El Consejo Asesor de Contenido comenzó su argumentación analizando si la decisión de Facebook de retirar el contenido se ajustaba a la política sobre desnudos y actividad sexual de adultos de la plataforma. El Consejo observó una discrepancia entre las Normas comunitarias de Instagram y la mencionada Norma comunitaria de Facebook. Dado que las Normas comunitarias de Instagram le fueron citadas al usuario cuando se le notificó que su contenido infringía dichas normas, el Consejo consideró que “[l]as diferencias entre estas reglas hacen que sea necesario hacer análisis independientes” [p. 16].

El Consejo destacó que las Normas comunitarias de Instagram no permiten desnudos en la plataforma; aunque hay algunas excepciones, como “fotos de cicatrices de mastectomías y de lactancia materna” [p. 16]. Estas excepciones no permiten expresamente “fotos de pezones femeninos al descubierto para concientizar sobre el cáncer de mama” [p. 17]. Sin embargo, la Norma comunitaria de Facebook sobre desnudos y actividad sexual de adultos sí “especifica que se permite mostrar desnudos consentidos de adultos en los casos en que el usuario indique claramente que el contenido se publica para ‘concientizar acerca de una causa o con fines educativos o médicos’” [p. 17]. El Consejo consideró que “no se describe la relación existente entre los dos conjuntos de reglas ni se especifica cuál prevalece sobre el otro” [p. 17].

El Consejo recordó que la Norma comunitaria de Facebook sobre desnudos y actividad sexual de adultos prohíbe a los usuarios publicar en la plataforma contenido sobre pezones femeninos descubiertos o actividad sexual. No obstante, señaló que la concientización por motivos educativos o médicos constituía una excepción a esta norma: “En la sección ‘No publiques’ de las Normas comunitarias [de Facebook], se menciona la ‘concientización sobre el cáncer de mama’ como ejemplo de situación relacionada con la salud en la que se permite mostrar pezones femeninos al descubierto” [p. 17].

Así, el Consejo consideró que la publicación que fue eliminada se enmarcaba perfectamente en el ámbito de la excepción, “[a]l aceptar la explicación de Facebook en la que se estipula que las Normas comunitarias de esa plataforma son también de aplicación en Instagram” [p. 18]. Por lo tanto, el Consejo consideró que la decisión de Facebook de eliminar el contenido era incompatible con sus propias normas comunitarias.

Cumplimiento de los valores de Facebook

Las Normas comunitarias de Facebook establecen la “expresión”, la “seguridad” y la “privacidad” como valores fundamentales de la plataforma. El objetivo de la “expresión”, que constituye un valor primordial, consiste en fomentar un lugar de expresión en el que las personas “puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables” [p. 12]. El valor “seguridad” subraya la importancia de hacer de Facebook un lugar seguro, en el que la expresión que amenace a la gente o que “puede intimidar, excluir o silenciar a otros (…) no est[é] permitida en Facebook” [p. 12]. La “privacidad” tiene como objetivo la protección de la intimidad y la información personal, para permitirle a la gente “elegir cómo y cuándo compartir contenido en Facebook” [p. 12].

Teniendo esto en consideración, el Consejo consideró que la decisión de Facebook de eliminar la publicación del usuario no se ajustaba a los valores de la compañía. Para el Consejo, el “valor de ‘expresión’ incluye claramente conversaciones sobre temas relacionados con la salud y es especialmente útil para concientizar sobre los síntomas del cáncer de mama” [p. 18]. La posibilidad de compartir este tipo de contenidos también contribuye a la “seguridad” de todas las personas que padecen la enfermedad o son vulnerables a ella, argumentó el Consejo. Por último, el Consejo sostuvo que, dado que “no hay ningún indicio de que las fotos [publicadas por el usuario] incluyeran imágenes no consentidas” [p. 19], la “privacidad” no se veía afectada.

Cumplimiento de las normas internacionales de derechos humanos

El Consejo, en línea con lo dicho por el Relator Especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión, argumentó que “la información relacionada con la salud es particularmente importante” [p. 19]. Como tal, está protegida —como afirma la Observación General Nº 14 del Comité de Derechos Económicos, Sociales y Culturales sobre el artículo 12 del PIDESC— “como parte del derecho a la salud” [p. 19]. La relación entre estos dos derechos fue subrayada por el Consejo al considerar el contexto de Brasil, “donde las campañas de concientización son vitales para fomentar diagnósticos tempranos del cáncer de mama” [p. 19].

En este sentido, el Consejo analizó la medida de Facebook de eliminar el contenido del usuario en relación con las normas internacionales de derechos humanos sobre libertad de expresión, según lo establecido en el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos. Para ello, el Consejo analizó la legalidad, el fin legítimo y la necesidad y proporcionalidad de la restricción de la libertad de expresión por parte de la empresa.

  • Legalidad

Siguiendo la Observación General Nº 34 del Comité de Derechos Humanos de la ONU, el Consejo especificó que “[t]oda regla que limite la libertad de expresión debe ser clara, precisa y de acceso público” [p. 20]. Según el Consejo, este requisito no se cumplió, ya que existen discrepancias entre las Normas comunitarias de Facebook y las Normas comunitarias de Instagram; “[t]ampoco se avisa a los usuarios de Instagram que las Normas comunitarias de Facebook prevalecen sobre las de Instagram” [p. 20]. Esta incoherencia y falta de claridad se ve agravada por el hecho de que, en este caso, los avisos de eliminación sólo hacían referencia a las Normas comunitarias de Instagram. Por lo tanto, el Consejo explicó que “las reglas de Facebook no consiguen superar la prueba en lo que respecta a la legalidad” [p. 20].

  • Fin legítimo

El Consejo señaló que “[c]ualquier restricción que afecte a la libertad de expresión debe aplicarse para conseguir fines legítimos, los cuales se indican en el Artículo 19, párrafo 3, del ICCPR” [p. 20]. La norma comunitaria sobre desnudos y actividad sexual de adultos, según alegó Facebook, pretende “evitar que se compartan imágenes de abuso infantil y de carácter sexual no consentidas en Facebook e Instagram” [p. 20]. Para el Consejo, se trata de un objetivo legítimo en virtud de la legislación internacional sobre derechos humanos, ya que las restricciones a la libertad de expresión son válidas para proteger los “derechos de los demás”, que incluyen “el derecho a la privacidad de víctimas cuyas imágenes de carácter sexual se hayan compartido sin su consentimiento (Artículo 17 del ICCPR) y los derechos de los niños a la vida y el desarrollo (Artículo 6 del CRC)” [p. 21], que pueden verse amenazados, como destaca la Observación General 13 del Comité de los Derechos del Niño, en casos de explotación sexual.

  • Necesidad y proporcionalidad

El Consejo consideró, de conformidad con la Observación General Nº 34 del Comité de Derechos Humanos, que “[t]oda restricción que se aplique a la libertad de expresión debe ser adecuada a fin de cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; debe ser proporcional al interés que se busca proteger” [p. 21].

El Consejo mostró su preocupación por el hecho de que el contenido fuera eliminado injustamente “mediante un sistema automatizado de cumplimiento de normas y, posiblemente, sin una apelación o revisión humana” [p. 21]. Citando un informe del Relator Especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión, el Consejo destacó las limitaciones de las tecnologías automatizadas para comprender el contexto y la complejidad de la comunicación humana. En el caso en cuestión, las tecnologías automatizadas “fueron incapaces de reconocer las palabras “cáncer de mama” que aparecían en la parte superior izquierda de la imagen en portugués” [p. 22].

Aunque, como argumentó el Consejo, las tecnologías automatizadas desempeñan un papel vital en la moderación de contenidos, su aplicación no puede depender únicamente de ellas. El Consejo argumentó que “la eliminación automatizada de contenido debería estar sujeta al proceso de auditoría interno […] y debería ofrecerse la posibilidad de apelar para solicitar una revisión manual” [p. 23]. Para destacar este punto, el Consejo citó un informe del Relator Especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión.

El Consejo Asesor de Contenido llegó a la conclusión de que, sin las salvaguardias necesarias, la moderación automatizada de contenidos no es proporcional y no permite que “Facebook aborde distintos tipos de contenido infractor que incluyan desnudos de adultos” [p. 23].

El Consejo expresó su preocupación por el hecho de que las acciones de Facebook no respetan el principio de igualdad y no discriminación, tal y como lo establece la Observación General Nº 34 del Comité de Derechos Humanos sobre la libertad de opinión y de expresión. Para el Consejo, sobre la base del artículo 1 de la CEDAW y del artículo 2 del PIDCP, es probable que la utilización de la automatización “tenga una repercusión desmedida en las mujeres, lo que genera preocupación en cuanto a la discriminación”, ya que las normas de Facebook “tratan los pezones femeninos y los masculinos de forma distinta” [p. 23]. Las acciones de Facebook en este caso repercuten en la posibilidad de concientizar sobre el cáncer de mama. Esto pone en peligro tanto el derecho de las mujeres a la libertad de expresión como su derecho a la salud.

Por último, el Consejo consideró preocupante “el hecho de que Facebook no informe a los usuarios cuando emplea un sistema automatizado para comprobar si el contenido cumple las normas, y la posibilidad de que el proceso de apelación para solicitar una revisión manual no esté disponible en todos los casos” [p. 25]. Esto podría ser indicativo de falta de transparencia y contraviene la responsabilidad, delineada por el Relator Especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión, de “las empresas que participan en la moderación de contenido” de proporcionar remedios y reparaciones a clientes y usuarios.

En vista de todas estas razones, el Consejo anuló “la decisión original de Facebook de eliminar el contenido y exig[ió] que el contenido siga publicado” [p. 25], señalando que tiene conocimiento de que Facebook ya ha restaurado el contenido retirado.

Declaración de política consultiva

Además de anular la decisión original de Facebook, el Consejo también instó a Facebook a mejorar su sistema automatizado de detección de imágenes. También recomendó a Facebook que fuera más transparente en lo que respecta a la aplicación de las Normas comunitarias de la empresa y el proceso de apelación, para garantizar que “siempre se informe a los usuarios los motivos por los que se aplican políticas de contenido” —y de “cuando se usen sistemas automatizados de aplicación de políticas contra su contenido”—, y que “puedan apelar las decisiones que tomen los sistemas automatizados a fin de solicitar una revisión manual cuando se haya determinado que su contenido incumplió la norma comunitaria de Facebook sobre desnudos y actividad sexual de adultos” [p. 26].

El Consejo también recomendó que Facebook pusiera en marcha “un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse a fin de aprender de los errores del sistema de cumplimiento de normas”. Además, el Consejo dijo que Facebook debería “divulgar datos sobre el número de decisiones automatizadas de eliminación de contenido para cada norma comunitaria, y la proporción de estas decisiones que posteriormente se hayan tenido que revertir tras una revisión manual” [p. 27].

El Consejo también recomendó que Facebook revisara las Normas comunitarias de Instagram para especificar que la prohibición de los desnudos de adultos no es absoluta y “que se pueden mostrar pezones femeninos visibles para concientizar sobre el cáncer de mama” [p. 27]. Por último, el Consejo pidió aclaraciones a Facebook en relación con el hecho de que “las Normas comunitarias de Instagram se interpretan en consonancia con las de Facebook, y que estas últimas prevalecerán en caso de que surjan incoherencias entre ellas” [p. 28].


Impacto de la decisión

Información Inmediata

El Impacto de la Decisión indica si la decisión expande o restringe la expresión basado en el análisis del caso.

Expande el alcance del derecho a la Expresión

Al revocar la decisión de Facebook de eliminar contenidos destinados a concientizar sobre el cáncer de mama, el Consejo Asesor de Contenido amplía el alcance de la libertad de expresión, al tiempo que protege el acceso a la información, el derecho a la salud y el derecho de las mujeres a la no discriminación en un asunto de máxima relevancia para la salud pública. La decisión del Consejo también refuerza la libertad de expresión al recomendar que Facebook aplique salvaguardas como la revisión humana en la moderación automatizada de contenidos. Al instar a la empresa a ser más transparente respecto a la eficacia de sus sistemas de eliminación automática de contenidos, el Consejo también fomenta un mejor entorno para la libertad de expresión en línea.

Perspectiva Global

Información Inmediata

La Perspectiva Global demuestra cómo la decisión de la corte fue influenciada por normas de una o más regiones.

Table of Authorities

Normas jurídicas Internacionales o Regionales relacionadas

  • CEDAW, art. 1

    El Consejo analizó las responsabilidades de Facebook en materia de derechos humanos a través de este precepto sobre los derechos de la mujer y la no discriminación.

  • CRC, art. 6

    El Consejo citó este precepto para destacar la protección del derecho de las/os niñas/os en virtud de la legislación internacional sobre derechos humanos.

  • ICCPR, art. 2

    El Consejo analizó las responsabilidades de Facebook en materia de derechos humanos a través de este precepto sobre el derecho a la no discriminación.

  • ICCPR, art. 19

    El Consejo analizó las responsabilidades de Facebook en materia de derechos humanos a través de este precepto sobre la libertad de expresión.

  • ICCPR, Art. 19, para. 3

    El Consejo analizó el requisito de finalidad legítima a través de este precepto sobre la libertad de expresión.

  • ICCPR, art. 17

    El Consejo se refirió a este artículo para subrayar que la protección de la intimidad puede ser un objetivo legítimo de las medidas que restringen la libertad de expresión.

  • UNHR Comm., General Comment No. 34 (CCPR/C/GC/34)

    El Consejo se remitió a esta observación general para enunciar el principio de igualdad y no discriminación y definir el requisito de legalidad.

  • CESCR, General Comment No. 14: The Right to the Highest Attainable Standard of Health

    El Consejo se remitió a esta observación general para destacar la relación entre el derecho a la salud y el acceso a la información.

  • CESCR, General Comment No. 13

    El Consejo se remitió a esta observación general para subrayar la amenaza que supone la explotación sexual para los derechos de las/os niñas/os.

  • United Nations Guiding Principles on Business and Human Rights (2011)

    El Consejo se refirió a este instrumento para destacar las responsabilidades de las empresas de Facebook en materia de derechos humanos.

  • IACHR, Annual Report of the Special Rapporteur for Freedom of Expression (2018)

    El Consejo hizo referencia al informe para señalar el papel clave de los recursos y las reparaciones en la moderación de contenidos.

  • UN Special Rapporteur on Freedom of Expression, report A/HRC/44/49 (2020)

    El Consejo hizo referencia al informe para subrayar la importancia de la información relacionada con la salud.

  • UN Special Rapporteur on Freedom of Expression, report A/73C/348 (2018)

    El Consejo hizo referencia al informe para destacar las limitaciones de las tecnologías automatizadas en la moderación de contenidos y la importancia de la revisión humana.

Importancia De La Decisión

Información Inmediata

La importancia del caso se refiere a cuán influyente es el caso y cómo su importancia cambia con el tiempo.

La decisión tiene un efecto vinculante o persuasivo dentro de su jurisdicción.

Según el artículo 2 del Acta Constitutiva del Consejo Asesor de Contenido, “[p]ara cada decisión, cualquier decisión anterior del Consejo tendrá valor de precedente y deberá considerarse altamente persuasiva cuando los hechos, las políticas aplicables u otros factores sean sustancialmente similares”. Además, el artículo 4 del Acta Constitutiva del Consejo Asesor de Contenido establece: “[l]a resolución del Consejo en cada caso será vinculante y Facebook (actualmente Meta) la aplicará sin demora, a menos que la aplicación de una resolución pueda infringir la ley. En los casos en los que Facebook identifique que un contenido idéntico con un contexto paralelo sobre el que el Consejo ya ha tomado una decisión permanece en Facebook (ahora Meta), tomará medidas analizando si es técnica y operativamente viable aplicar la decisión del Consejo también a ese contenido. Cuando una decisión incluya orientaciones políticas o una opinión consultiva sobre políticas, Facebook (actualmente Meta) adoptará medidas adicionales analizando los procedimientos operativos necesarios para aplicar las orientaciones, teniéndolas en cuenta en el proceso formal de desarrollo de políticas de Facebook (actualmente Meta) y comunicando de forma transparente las medidas adoptadas en consecuencia.”

La decisión fue citada en:

Enlace a los documentos oficiales del caso

Enlace a los documentos oficiales del caso:


Enlace a reportes, análisis y artículos de prensa sobre la decisión analizada:


Archivos Adjuntos:

¿Tienes comentarios?

Notifícanos si detectas un error o si el análisis sobre un caso necesita ser revisado.

Envía tu comentario