Facebook Community Standards, Dangerous Individuals and Organizations, Violence And Criminal Behavior
Caso del Consejo Asesor de Contenido sobre la suspensión del ex presidente Trump
Estados Unidos
Closed Expands Expression
Global Freedom of Expression is an academic initiative and therefore, we encourage you to share and republish excerpts of our content so long as they are not used for commercial purposes and you respect the following policy:
Attribution, copyright, and license information for media used by Global Freedom of Expression is available on our Credits page.
This case is available in additional languages: View in: English
El Consejo Asesor de Contenido anuló la decisión de Meta de eliminar de Facebook una publicación en la que un usuario denunciaba la violación de dos menores y ofrecía detalles gráficos del impacto en una de las supervivientes. El contenido fue publicado en agosto de 2019 e incluye comentarios sobre el sistema de justicia penal sueco. Meta, aplicando la norma comunitaria sobre explotación sexual infantil, abuso y desnudez, lo retiró al cabo de dos años. Para el Consejo, el contexto más amplio de la publicación lleva a la conclusión de que el usuario estaba informando sobre un tema de interés público y condenando la explotación sexual de menores. El contenido no se refería a las/os niñas/os en un «contexto sexualizado» ni utilizaba un lenguaje que las/os explotara sexualmente. El Consejo determinó que la publicación no infringía la política contra las representaciones de explotación sexual de menores y exigió su restitución. Además, el Consejo consideró que restaurar el contenido era coherente con las responsabilidades de Meta en materia de derechos humanos. El Consejo argumentó que la retirada de la publicación por parte de Meta era innecesaria, ya que la eliminación de contenidos sobre asuntos de interés público, como los delitos sexuales contra menores, no es la forma menos intrusiva de proteger los derechos de las/os niñas/os.
*El Consejo Asesor de Contenido es una entidad separada de Meta y aportará su criterio independiente tanto en casos individuales como en cuestiones de política. Tanto el Consejo como su administración están financiadas por un fondo fiduciario independiente. El Consejo tiene autoridad para decidir si Facebook e Instagram deben permitir o eliminar contenidos. Estas decisiones son vinculantes, a menos que su aplicación infrinja la ley. El Consejo también puede decidir emitir recomendaciones sobre las políticas de contenidos de la empresa.
En agosto de 2019, un usuario de Facebook de Suecia publicó una imagen de archivo de una adolescente sentada con la cabeza entre las manos ocultando su rostro, con un pie de foto que describía incidentes de violencia sexual contra dos menores sin nombre. El pie de foto incluía lenguaje gráfico que detallaba las violaciones de las dos menores anónimas, especificando sus edades y el lugar en el que se había producido el primer delito. Además, el usuario describía las condenas que recibieron los dos agresores. Uno de ellos era un menor que cometió el delito y, al parecer, recibió una condena no privativa de la libertad. El otro agresor había cumplido recientemente una pena privativa de libertad por un delito violento contra otra mujer.
En la publicación, «[e]l usuario argumentó que el sistema de justicia penal de Suecia es demasiado indulgente e incentiva el delito» [p. 4]. El usuario abogó por la creación de un registro de delincuentes sexuales en el país. El usuario proporcionó fuentes en la sección de comentarios de la publicación, identificó los casos penales por los números de referencia de los tribunales y enlazó a la cobertura de los delitos por parte de medios de comunicación locales. Además, en el momento de la publicación, había deliberaciones en curso sobre el debate de la reforma de la justicia penal en Suecia, que incluían discusiones sobre las penas por agresión sexual a menores. El usuario ya se dedicaba a denunciar a abusadores sexuales de menores en su página de Facebook. También abogaba por reformar las penas existentes para los delitos sexuales en su país.
«La publicación obtuvo unos dos millones de visualizaciones, 2.000 comentarios y 20.000 reacciones (…) la publicación se compartió en una página cuya configuración de privacidad era pública, lo que significa que cualquier persona podía ver el contenido publicado. La página tiene alrededor de 100.000 seguidores, y el 95% de ellos se encuentran en Suecia» [p. 4].
Desde agosto de 2019 hasta el 1 de septiembre de 2021, Meta recibió varias quejas sobre la publicación alegando que no cumplía con las normas comunitarias de Facebook. En 2021, fue finalmente retirada de la plataforma. Meta consideró que la publicación incumplía la norma sobre explotación sexual, maltrato y desnudos de menores, ya que describía con detalle las secuelas físicas de la violación y citaba la descripción explícita que el agresor hizo de la superviviente. Al usuario también se le bloquearon algunas de las funciones que podía realizar en la red social; por ejemplo, no se le permitió entrar en directo en Facebook. El usuario apeló. Meta revocó el bloqueo «porque la empresa determinó que la finalidad de la publicación era generar conciencia» [p. 4]. Sin embargo, la publicación no se restableció.
La cuestión principal que analizó el Consejo Asesor de Contenido fue si la publicación del usuario debía ser restaurada teniendo en cuenta la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores; su justificación; y los valores declarados públicamente por Meta. El Consejo también analizó, aplicando un test tripartito, si la decisión de Meta cumplía con sus obligaciones en materia de derechos humanos. El Consejo decidió que la publicaicón no violaba ninguna de las normas mencionadas y que debía ser restituida. También recomendó a Meta «ofrecer una definición clara de ‘sexualización’, ‘representación gráfica’ e ‘informar sobre el tema’» [p. 10] en sus políticas de contenido.
Aunque el Consejo dio al usuario la oportunidad de presentar una declaración, este no lo hizo.
En su presentación ante el Consejo, Meta explicó los motivos por los que había eliminado el contenido y citó conclusiones de expertas/os y artículos académicos que demostraban que «permitir representaciones de violaciones puede perjudicar a las víctimas al traumatizarlas de nuevo, invadir su intimidad y facilitar el acoso» [p. 10]. A continuación, la empresa declaró que «debido al riesgo de revictimización determinó que la eliminación era necesaria» [p. 10], al tiempo que reconocía la excepción de interés periodístico que podría aplicarse si el interés público de un determinado contenido superara el riesgo de daño.
Cumplimiento de las normas comunitarias
El Consejo concluyó que la publicación eliminada no infringía la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores porque la política prohíbe contenido que “explote sexualmente o ponga en peligro a niños» [p. 10]. Según el Consejo, la descripción y los hechos clínicos sobre las secuelas de los delitos, presentados en la publicación, no constituían un lenguaje que explotara sexualmente a las/os niñas/os o mostrara a un/a menor en un «contexto sexualizado». Además, la publicación no mostraba a menores en un contexto sexualizado porque el contexto más amplio de la publicación dejaba claro que el usuario estaba informando sobre un asunto de interés público y condenando la explotación sexual de menores. El usuario replicó el lenguaje utilizado en la información de los medios de comunicación suecos.
Cumplimiento de los valores de Meta
El Consejo concluyó que la decisión de Meta de eliminar este contenido era incompatible con su valor de «Expresión». Consideró que el interés público en llamar la atención sobre este asunto e informar al público, o abogar por reformas legales y políticas, son el núcleo de dicho valor. El Consejo consideró que la «Privacidad», la «Seguridad» y la «Dignidad» son de gran importancia cuando se trata de contenidos que describen gráficamente la explotación sexual de un/a menor. Sin embargo, concluyó que el contenido en cuestión no alcanzaba el nivel de contenido de explotación sexual a menores y que era importante proteger la expresión de las/os defensoras/es contra la explotación sexual infantil y de las/os supervivientes de la explotación sexual infantil.
Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
Basándose en el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos, el Consejo consideró que, en este caso, el restablecimiento del contenido era coherente con las responsabilidades de Meta en materia de derechos humanos. Explicó que, aunque el PIDCP no crea las mismas obligaciones para Meta que para los Estados, Meta se ha comprometido a respetar los derechos humanos tal y como se establece en los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas. Por lo tanto, el Consejo aplicó un test tripartito que analizaba la legalidad, legitimidad, necesidad y proporcionalidad de la medida emitida por Meta.
El Consejo determinó que los términos «representación» y «sexualización», incluidos en la política sobre explotación sexual, maltrato y desnudos de menores, no están definidos en las normas comunitarias de cara al público y que la política podría beneficiarse de una definición clara de los términos clave y de ejemplos de casos dudosos. El Consejo señaló que cuando Meta no define los términos clave ni revela las excepciones, los usuarios no pueden entender cómo cumplir las normas.
El Consejo observó que las «Preguntas frecuentes de Meta» y las Normas de implementación internas (IIS), que son directrices proporcionadas a los revisores de contenidos para ayudarles a evaluar los contenidos que podrían suponer una infracción de una de las normas comunitarias de Facebook, proporcionan más especificidad, pero no abordan «la diferencia entre la representación gráfica prohibida o la sexualización de un menor, y la comunicación de información no infractora sobre la violación y la explotación sexual de un menor» [p. 11].
Por último, el Consejo consideró preocupante que el contenido se retirara dos años después de su publicación inicial, sin ninguna explicación. El Consejo también observó que ningún cambio sustancial de política durante este periodo explicaba la supresión.
El Consejo explicó que las restricciones a la libertad de expresión deben perseguir un fin legítimo, lo que incluye la protección de los derechos de las/os demás. En este caso, la norma comunitaria de Facebook sobre explotación sexual, maltrato y desnudos de menores tiene como objetivo prevenir el “daño fuera de la plataforma que podrían sufrir los sobrevivientes de explotación sexual infantil si en la plataforma hubiera representaciones de esa explotación» [p. 12]. El Consejo opinó que las restricciones de esta política tienen el propósito legítimo de proteger los derechos de las/os niñas/os a la salud física y mental (artículo 12 del PIDESC, artículo 19 de la CDN), y son coherentes con el interés superior del niño (artículo 3 de la CDN) [p. 12].
III. Necesidad y proporcionalidad
El Consejo concluyó que «eliminar este contenido que trataba delitos sexuales contra menores, un asunto de interés público y una materia de debate público, no constituye el instrumento menos invasivo en la promoción de los derechos del niño» [p. 14]. Para el Consejo, dado que la Observación General nº 34 destacaba la importancia de la expresión política en el artículo 19 del PIDCP, incluido el derecho a la libertad de expresión en «discursos políticos», «comentarios sobre asuntos propios y públicos» y «debates sobre los derechos humanos», los usuarios deberían poder debatir sobre el sistema de justicia penal de un país e informar sobre su funcionamiento en casos concretos sin ser censurados.
El Consejo dijo que era consciente de los perjuicios que puede ocasionar a las/os supervivientes de la explotación sexual infantil el hecho de que las imágenes de dicha explotación estén disponibles en la plataforma. Sin embargo, el Consejo dejó claro que hay una gran diferencia entre el lenguaje de un agresor que sexualiza a un/a niño/a y la publicación de un usuario que cita al agresor para concientizar sobre un asunto de interés público. Para el Consejo, no todo lenguaje explícito constituye una representación gráfica o una sexualización.
Por último, el Consejo consideró el potencial de daño fuera de línea cuando la denuncia incluye información suficiente para identificar a un/a niño/a. «El contenido que pudiera favorecer una identificación funcional o ‘por partes’ de un menor que fue víctima de explotación sexual infantil involucra los derechos de los niños a la libertad de expresión (PIDCP, art. 19), a la privacidad (CDN, art. 16) y a la seguridad (CDN, art. 19). La identificación funcional podría tener lugar cuando el contenido ofrece o compila suficientes fragmentos discretos de información que permiten identificar a una persona sin mencionarla» [p. 15]. Sin embargo, el Consejo no pudo determinar si, en el presente caso, las víctimas tenían más probabilidades de ser identificadas.
Declaración de política consultiva:
El Consejo recomendó que Meta definiera que entiende por representación gráfica y sexualización en la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores. Además, sugirió que los términos legales, clínicos o médicos deberían diferenciarse del contenido gráfico, y debería quedar claro que «no todo lenguaje explícito constituye una representación gráfica o sexualización» [p. 16]. Además, Meta debería aclarar las diferencias entre explotación sexual infantil e informar sobre explotación sexual infantil.
El Consejo también recomendó que Meta «debe llevar a cabo un proceso de desarrollo de políticas, incluido un debate en el foro de políticas, para determinar si se debe incorporar una prohibición en cuanto a la identificación funcional de víctimas infantiles de violencia sexual en sus normas comunitarias y cómo hacerlo» [p. 16]. Este proceso debe incluir la participación de las partes interesadas y de expertas/os sobre la identificación funcional y los derechos del niño. Meta debe publicar las actas del Foro de Políticas de Productos en el que se debata esta política para que el Consejo la considere aplicada.
Opiniones discrepantes o concurrentes:
Algunos miembros del Consejo subrayaron que «cuando hay dudas de si cierto contenido podría favorecer la identificación funcional de una víctima menor, Meta debería priorizar la protección de la privacidad y de la salud física y mental del menor, de acuerdo con los principios internacionales de derechos humanos». Para estas/os consejeras/os, “el poder de amplificación de la plataforma es un factor clave a la hora de evaluar si un menor podría ser identificado y, en consecuencia, las protecciones otorgadas a los niños que son víctimas de abuso sexual» [p. 15].
El Impacto de la Decisión indica si la decisión expande o restringe la expresión basado en el análisis del caso.
La decisión amplió la libertad de expresión porque el Consejo reconoció «la importancia de no silenciar a quienes abogan por prevenir la explotación sexual infantil ni a los sobrevivientes de esta» [p. 10]. El Consejo estableció que los usuarios de las plataformas de Meta deben poder denunciar la explotación sexual infantil sin que se considere que existe representación gráfica y sexualización bajo la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores. Para el Consejo, no todo lenguaje explícito constituye necesariamente una representación gráfica o sexualización: en algunos casos, los usuarios informan sobre un tema de interés público y condenan la explotación sexual de un/a menor, razón por la cual debe ser protegido/a. Además, el Consejo reconoció las deficiencias de las razones esgrimidas por Meta para retirar el contenido, ya que no eran coherentes con las responsabilidades de Meta en materia de derechos humanos.
La Perspectiva Global demuestra cómo la decisión de la corte fue influenciada por normas de una o más regiones.
Aunque el PIDCP no crea las mismas obligaciones para Meta que para los Estados, el Consejo utilizó los UNGP como base jurídica del compromiso de Meta de respetar los derechos humanos.
El Consejo utilizó el artículo 19 del PIDCP como base jurídica que proporciona una amplia protección a la libertad de expresión a través de cualquier medio y sin importar las fronteras. También aplicó la prueba tripartita de legalidad (claridad), legitimidad, y necesidad y proporcionalidad.
El Consejo utilizó la Observación General Nº 34 como base jurídica para aplicar la prueba de las tres partes.
El Consejo utilizó el informe A/74/486 (2019) como base jurídica para aplicar el principio de necesidad y proporcionalidad.
El Consejo utilizó el informe A/HRC/17/27 (2011) como base jurídica para decidir si se estaba respetando el derecho a la libertad de expresión.
El Consejo utilizó el artículo 3 de la CDN como base jurídica para decidir si se estaba respetando el interés superior del niño.
El Consejo utilizó la Observación General Nº 25 como base jurídica para decidir si se respetaba el interés superior del niño.
El Consejo utilizó el artículo 12 del PIDESC como base jurídica para decidir si se estaban respetando los derechos de las/os niñas/os a acceder a la información para la promoción de su salud física y mental, y a ser protegidas/os de todas las formas de violencia física o mental.
The Board used Articles 17 and 19 of the CRC as the legal basis to decide if the rights of children, to access information for the promotion of their physical and mental health, and to be protected from all forms of physical or mental violence, were being respected.
El Consejo utilizó los artículos 17 y 19 de la CDN como base jurídica para decidir si se respetaban los derechos de las/os niñas/os a acceder a la información para la promoción de su salud física y mental, y a ser protegidos de todas las formas de violencia física o mental.
El Consejo utilizó el artículo 17 del PIDCP como base jurídica para decidir si se estaba respetando el derecho a la privacidad.
El Consejo utilizó el artículo 16 de la CDN como base jurídica para decidir si se respetaba el derecho a la privacidad.
El Consejo utilizó las observaciones finales CRC/C/15/Add.261 como base jurídica para decidir si se respetaba el derecho a la privacidad.
Decisión del Consejo:
La importancia del caso se refiere a cuán influyente es el caso y cómo su importancia cambia con el tiempo.
Según el artículo 2 del Acta constitutiva del Consejo Asesor de Contenido, «[p]ara cada decisión, cualquier decisión anterior del Consejo tendrá valor de precedente y deberá considerarse altamente persuasiva cuando los hechos, las políticas aplicables u otros factores sean sustancialmente similares”. Además, el artículo 4 del Acta constitutiva del Consejo establece: «La resolución de la junta en cada caso será vinculante y Meta la aplicará sin demora, a menos que la aplicación de una resolución pueda infringir la ley. En los casos en que Meta identifique que un contenido idéntico con un contexto paralelo –sobre el que el consejo ya ha decidido– permanece en Meta, actuará analizando si es técnica y operativamente factible aplicar la decisión del consejo también a ese contenido. Cuando una decisión o una opinión consultiva sobre una política incluya recomendaciones, Meta tomará medidas adicionales analizando los procedimientos operativos necesarios para aplicar las recomendaciones, teniendo en cuenta dichas recomendaciones en el proceso formal de desarrollo de políticas de Meta y comunicando de forma transparente las medidas adoptadas en consecuencia.»
Notifícanos si detectas un error o si el análisis sobre un caso necesita ser revisado.