Normas comunitarias de Instagram, Normas comunitarias de Facebook, Contenido objetable, Desnudos y actividad sexual de adultos
Caso del Consejo Asesor de Contenido sobre los síntomas del cáncer de mama y desnudos
Brasil
Cerrado Resultado mixto
Global Freedom of Expression is an academic initiative and therefore, we encourage you to share and republish excerpts of our content so long as they are not used for commercial purposes and you respect the following policy:
Attribution, copyright, and license information for media used by Global Freedom of Expression is available on our Credits page.
This case is available in additional languages: View in: English View in: Français View in: العربية
El 17 de junio de 2022, el Consejo Asesor de Contenido revocó la decisión original de Meta de mantener una publicación de Facebook en la que se representaba a personas de etnia serbia como ratas. Aunque Meta retiró finalmente el contenido, inicialmente consideró que la publicación no infringía la norma comunitaria sobre lenguaje que incita al odio de la empresa. Posteriormente decidió que infringía el «espíritu» pero no la letra de la norma, ya que la política no prohibía los ataques contra grupos en virtud de una característica protegida que se identificara de forma implícita. Luego decidió que sí infringía la letra de la norma. En su decisión, el Consejo consideró que la publicación incumplía la norma comunitaria sobre lenguaje que incita al odio y la norma comunitaria de violencia e incitación. Consideró que era deshumanizante, que incitaba al odio y que podía contribuir a crear un clima en el que la gente se sintiera justificada para atacar a personas de etnia serbia. En opinión del Consejo, eliminar el contenido de la plataforma era necesario para hacer frente a los graves daños que plantea el lenguaje que incita al odio por motivos étnicos, y se ajustaba a las responsabilidades de Meta en materia de derechos humanos.
*El Consejo Asesor de Contenido es una entidad separada de Meta y aportará su criterio independiente tanto en casos individuales como en cuestiones de políticas. Tanto el Consejo como su administración están financiadas por un fondo fiduciario independiente. El Consejo tiene autoridad para decidir si Facebook e Instagram deben permitir o eliminar contenidos. Estas decisiones son vinculantes, a menos que su aplicación infrinja la ley. El Consejo también puede decidir emitir recomendaciones sobre las políticas de contenidos de la empresa.
En diciembre de 2021, una página pública de Facebook con más de 50.000 seguidores que se describía como un portal de noticias de Croacia publicó un video con un pie de foto en croata. Meta tradujo el pie de foto como “El flautista de Čavoglave y las ratas de Knin” [p. 2]. El video era una versión editada del dibujo animado de Disney “El flautista de Hamelín”.
El vídeo de dos minutos y 10 segundos retrataba una ciudad infestada de ratas. Mientras que la entrada a la ciudad en el dibujo animado original de Disney es conocida como Hamelín, la ciudad en el video editado es la ciudad croata de “Knin”. Al principio del video, el narrador describía cómo las ratas y los humanos vivían en la ciudad real de Knin desde hacía muchos años y que las ratas habían decidido que querían vivir en un “país exclusivo de ratas”, por lo que empezaron a acosar y perseguir a las personas que vivían en la ciudad.
El narrador relataba que, cuando las ratas se habían apoderado de la ciudad, apareció un flautista del pueblo croata de Čavoglave, pero que, al principio, las ratas no habían tomado en serio al flautista y continuaron con “la gran embestida de las ratas”. Sin embargo, después de que el flautista empezara a tocar una melodía con su “flauta mágica”, las ratas, cautivadas por la melodía, empezaron a cantar “su canción favorita” y siguieron al flautista fuera de la ciudad. Meta tradujo la letra de la canción cantada por las ratas como: “¿Qué es lo que brilla en Dinara? La escarapela de Dujić en su cabeza […] La libertad emergerá de Dinara y la traerá el comandante Momčilo” [p. 8].
A continuación, el video mostraba a los habitantes de la ciudad cerrando el portón tras el flautista y las ratas, y terminaba con el flautista arreando a las ratas hacia un tractor, que luego desaparecía. El narrador concluye que una vez que el flautista atrajo a todas las ratas al “tractor mágico”, las ratas “desaparecieron para siempre de estas tierras” y “todos vivieron felices para siempre” [p. 8].
El contenido tuvo más de 380.000 visualizaciones, se compartió más de 540 veces, recibió más de 2.400 reacciones y tuvo más de 1.200 comentarios. Entre los comentarios en croata había declaraciones traducidas por Meta como: “El odio es una enfermedad” y “¿Se dan cuenta de todo el daño que causan con esta y otras estupideces similares a los croatas que viven en Serbia?” [p. 10].
Los usuarios reportaron el contenido 397 veces, de los cuales 362 lo señalaron como lenguaje que incita al odio; sin embargo, Meta no eliminó el contenido. Como consecuencia, varios usuarios recurrieron al Consejo.
La decisión del Consejo en este caso se basó en el recurso presentado por uno de estos usuarios, cuya cuenta parecía estar ubicada en Serbia y cuya denuncia fue rechazada automáticamente por un sistema automatizado. Tras la apelación del usuario ante el Consejo, Meta llevó a cabo una revisión manual adicional y, una vez más, determinó que el contenido no infringía sus políticas.
En enero de 2022, cuando el Consejo identificó el caso para una revisión completa, Meta determinó que, si bien la publicación no infringía la letra de su política de incitación al odio, sí infringía el espíritu de la política y retiró la publicación de Facebook. Sin embargo, al redactar la explicación de su decisión para presentar ante el Consejo, Meta concluyó que la publicación sí infringía la letra de la política sibre lenguaje que incita al odio y señaló que todas las revisiones anteriores eran erróneas.
La cuestión principal que el Consejo tuvo que analizar en este caso fue si la decisión original de Meta de mantener el contenido en Facebook se ajustaba a las normas comunitarias de Facebook sobre lenguaje que incita al odio y violencia, así como a los valores y responsabilidades de la empresa en materia de derechos humanos.
El usuario que denunció el contenido y recurrió al Consejo afirmó que el flautista de Hamelín simbolizaba al ejército croata, que en 1995 llevó a cabo una expulsión de los serbios de Croacia, retratados aquí como ratas. Según el usuario, Meta no evaluó adecuadamente el video, ya que el contenido representaba un discurso de odio étnico y fomentaba el odio por motivos étnicos y religiosos en los Balcanes.
En la explicación que Meta dio al Consejo, la empresa describió el proceso de revisión que siguió para tomar su decisión, pero se centró en explicar por qué estaba justificada la eliminación del contenido en virtud de la política sobre lenguaje que incita al odio. Meta describió que, en un principio, había determinado que el contenido no infringía la letra de la política sobre lenguaje que incita al odio y había tomado la decisión de retirar el contenido conforme al “espíritu de la política”.
Meta explicó que su determinación anterior de que el contenido sólo infringía el “espíritu” de la política de incitación al odio, se basaba en la suposición de que el lenguaje de la política no prohibía los ataques contra grupos en virtud de una característica protegida que se identificara de forma implícita. Sin embargo, tras una revisión adicional, la empresa llegó a la conclusión de que era más preciso decir que el lenguaje de la política también prohibía los ataques que identificaban implícitamente una característica protegida.
La empresa señaló entonces que su eliminación final era coherente con sus valores de “Dignidad” y “Seguridad” cuando se sopesaba con el valor de “Expresión”. Meta señaló que, dada la historia de tensiones étnicas y discriminación permanente contra la etnia serbia en Croacia, el video podría contribuir a un riesgo de daño en el mundo real.
Meta comentó que la retirada era coherente con las normas internacionales de derechos humanos. Afirmó que la política era fácilmente accesible en el sitio web del Centro de Transparencia de Meta y que su decisión de retirar el contenido era legítima para proteger los derechos de los demás contra la discriminación. Además, la empresa argumentó que retirar el contenido era necesario y proporcionado, ya que “porque el contenido no les permite a los usuarios conectarse libremente con los demás sin sentir que se los ataca a raíz de su identidad” [p. 22]. Asimismo, consideró que no existían medios menos invasivos para limitar dichos contenidos que no fueran su eliminación.
Cuando el Consejo preguntó a Meta si el contenido infringía la norma comunitaria sobre violencia e incitación, la empresa respondió que no porque el contenido no contenía amenazas ni declaraciones de intención de cometer actos violentos contra personas de etnia serbia. Así, Meta consideró que la exclusión o expulsión sin violencia no constituye una amenaza violenta. Según la empresa, habría sido necesaria una conexión más evidente que vinculara a las ratas del video con el desplazamiento violento y forzoso de serbios para eliminar el contenido en virtud de la política.
Cumplimiento de las políticas de contenidos de Meta
En cuanto a las políticas de contenidos de Meta, el Consejo se centró en determinar si el contenido infringía la norma comunitaria sobre lenguaje que incita al odio y la norma sobre violencia e incitación. Consideró que, dado que el video incluía una comparación visual de los serbios con las ratas y el apoyo a la expulsión de los serbios de Knin, el contenido contenía dos “ataques” según la definición de ese término en la política sobre lenguaje que incita al odio.
El Consejo explicó que las comparaciones implícitas con “animales que culturalmente se perciben como inferiores desde el punto de vista intelectual o físico” estaban prohibidas por la política de lenguaje que incita al odio de Meta. El Consejo observó que, aunque el pie de foto y el video no mencionaban a los serbios por su nombre, el contenido del video en su contexto histórico, la sustitución del nombre “Hamelín” por “Knin”, la letra de la canción utilizada en el video, la identificación del flautista con Čavoglave y, por tanto, con la canción de Thompson sobre la Operación Tormenta, así como el uso de la imagen del tractor, eran referencias inequívocas a los residentes serbios de Knin. Además, el Consejo consideró que los comentarios sobre la publicación y los numerosos informes de los usuarios confirman que esta conexión era muy clara para las personas que veían el contenido.
Además, el Consejo consideró que la alabanza implícita a la expulsión de los serbios de Knin en el video constituía un apoyo a la depuración étnica en infracción de la norma sobre lenguaje que incita al odio. El Consejo también consideró que el contenido infringía la política de violencia e incitación de la empresa, que prohíbe los contenidos que amenacen a otros haciendo referencia a incidentes de violencia históricos.
El Consejo destacó que, en el video, la ciudad se llamaba Knin y las ratas huían en tractores, ambas referencias a la Operación Tormenta, la operación militar de 1995 que, según consta, provocó el desplazamiento, la ejecución y la desaparición de civiles de etnia serbia. Así, subrayó que el video podía contribuir a crear un clima en el que la gente se sintiera justificada para atacar a personas de etnia serbia.
Además, el Consejo no estuvo de acuerdo con la valoración de Meta de que el contenido no contenía amenazas ni declaraciones de intención de cometer actos violentos y de que las incitaciones a la exclusión o la expulsión sin especificar los medios de violencia no pueden constituir una amenaza violenta. El Consejo consideró que el uso de la historia del Flautista de Hamelín no era una apología de la expulsión pacífica, sino una aparente referencia a incidentes de violencia históricos conocidos, en particular con la imagen del tractor. Posteriormente, recordó que, tal y como evidenciaban los usuarios que denunciaron esta publicación y los comentarios públicos, a ojos de los observadores, las ratas de la caricatura representaban a la población de etnia serbia de la zona de Knin, incluidos los que permanecían allí.
Seguidamente, el Consejo examinó por qué la empresa había concluido en varias ocasiones que el contenido no infringía las políticas de Meta. En primer lugar, expresó que habría sido útil que, en sus alegaciones, Meta se hubiera centrado en esto desde el principio en lugar de dilucidar por qué su decisión revisada de eliminar la publicación era correcta. En opinión del Consejo, si la empresa deseaba reducir el nivel de contenidos infractores en su plataforma, necesitaba tratar la selección de casos de errores del sistema de aplicación de políticas del Consejo como una oportunidad para explorar las razones de sus errores.
Consciente de la complejidad y el volumen de contenidos que los revisores humanos evalúan cada día y de la dificultad de aplicar las normas comunitarias de Facebook teniendo en cuenta el contexto, el Consejo consideró que era importante que Meta mejorara las instrucciones que proporciona a los revisores, así como sus secuencias y procesos de escalamiento.
El Consejo consideró que dos factores que podrían haber impedido el escalamiento de contenidos en el caso concreto fueron, por un lado, que Meta no proporcionara a los revisores de escalamiento, límites claros sobre cuándo un contenido es “tendencia” y, por otro, el uso del sistema de revisión automatizado.
Cumplimiento de los valores de Meta
El Consejo consideró entonces que la decisión de la empresa de retirar el contenido finalmente era coherente con los valores de Meta de “Expresión”, “Dignidad” y “Seguridad”. El Consejo consideró que las personas objeto de estereotipos deshumanizantes y negativos también podrían ver afectada su “Expresión”, ya que su uso puede tener un efecto silenciador en las personas objeto de los estereotipos e inhibir su participación en Facebook e Instagram. El Consejo consideró que el constante aumento de los casos de violencia física contra personas de etnia serbia en Croacia justificaba la moderación de la «expresión» del usuario para proteger la “Expresión”, la “Dignidad” y la “Seguridad” de los demás.
Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
Para determinar si la restricción de la libertad de expresión estaba justificada en virtud de las responsabilidades de Meta en materia de derechos humanos, el Consejo procedió a emplear el test tripartito previsto en el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos.
I. Legalidad (claridad y accesibilidad de las reglas)
El Consejo declaró que la norma comunitaria sobre lenguaje que incita al odio prohíbe dirigirse implícitamente a grupos en función de características protegidas, incluidas las comparaciones deshumanizantes con animales y las declaraciones a favor o en apoyo de la exclusión. Sin embargo, en el caso concreto, unos 40 revisores humanos decidieron que el contenido no infringía la norma comunitaria de lenguaje que incita al odio. Para el Consejo, los revisores habían interpretado de manera sistemática que la norma les exigía encontrar una comparación explícita entre la etnia serbia y las ratas antes de considerar que se había producido una infracción. Por tanto, el Consejo consideró que la confusión a lo largo del proceso evidenciaba la necesidad de una política y unas directrices de aplicación más claras.
II. Fin legítimo
Seguidamente, el Consejo recordó que la norma comunitaria sobre lenguaje que incita al odio y la norma sobre violencia e incitación persiguen el fin legítimo de proteger los derechos de los demás, especialmente los “derechos a la igualdad y a la no discriminación” [p. 18].
III. Necesidad y proporcionalidad
Por último, el Consejo examinó el requisito de necesidad y proporcionalidad. Recordó que la norma comunitaria de Facebook sobre lenguaje que incita al odio prohíbe formas específicas de expresión discriminatoria, incluida la comparación con animales y la incitación a la exclusión. Dado que, en el caso concreto, el contenido comparaba a las personas de etnia serbia con ratas y celebraba hechos pasados de trato discriminatorio, además de ser deshumanizante y ofensivo, el Consejo consideró que era necesario eliminar este contenido de la plataforma para hacer frente a los graves daños que supone el lenguaje que incita al odio por motivos étnicos.
Además, el Consejo consideró que retirar el contenido de la plataforma era una medida necesaria y proporcionada, ya que medidas menos invasivas, como pantallas de advertencia u otras medidas para reducir la difusión, no habrían proporcionado una protección adecuada contra los efectos acumulativos de dejar el contenido en la plataforma.
En conclusión, el Consejo determinó que la decisión de Meta de retirar la publicación de la plataforma es coherente con las responsabilidades de Meta en materia de derechos humanos como empresa.
Declaración de política consultiva
El Consejo recomendó a Meta que aclarara la norma comunitaria sobre lenguaje que incita al odio y las directrices proporcionadas a los revisores, con el fin de explicar que “incluso las referencias implícitas a los grupos protegidos cuando hubiera una referencia razonablemente comprensible” [p. 39]. Además, el Consejo determinó que Meta debe notificar a todos los usuarios que hayan reportado contenidos cuando, en una revisión posterior, modifique su determinación inicial. La empresa debe revelar al público los resultados de cualquier experimento que evalúe la viabilidad de introducir este cambio.
El Impacto de la Decisión indica si la decisión expande o restringe la expresión basado en el análisis del caso.
La decisión del Consejo Asesor de Contenido contrajo la expresión al estar de acuerdo con la decisión de Meta de eliminar el contenido. Sin embargo, lo hizo en virtud de una excepción reconocida por el derecho internacional de los derechos humanos, ya que el contenido en cuestión era deshumanizante y ofensivo, dado que comparaba a la etnia serbia con ratas y celebraba hechos pasados de trato discriminatorio. En opinión del Consejo, eliminar el contenido de la plataforma era necesario para hacer frente a la grave incitación al odio por motivos étnicos.
La Perspectiva Global demuestra cómo la decisión de la corte fue influenciada por normas de una o más regiones.
A través de esta disposición sobre libertad de expresión, el Consejo resaltó la mayor protección del discurso político.
A través de esta disposición sobre libertad de expresión el Consejo analizó las responsabilidades de Facebook en materia de derechos humanos.
El Consejo se refirió a esta disposición para subrayar las responsabilidades de Facebook en materia de derechos humanos en relación con la igualdad y la no discriminación.
El Consejo se refirió a esta disposición para subrayar las responsabilidades de Facebook en materia de derechos humanos en relación con la igualdad y la no discriminación.
El Consejo se refirió a esta disposición para subrayar las responsabilidades de Facebook en materia de derechos humanos en relación con la igualdad y la no discriminación.
El Consejo se refirió a esta disposición para subrayar las responsabilidades de Facebook en materia de derechos humanos en relación con la igualdad y la no discriminación.
El Consejo se refirió a esta disposición para subrayar las responsabilidades de Facebook en materia de derechos humanos en relación con la igualdad y la no discriminación.
El Consejo se refirió a este instrumento para destacar las responsabilidades de las empresas de Facebook en materia de derechos humanos.
El Consejo se refirió a este instrumento para orientar su análisis sobre la responsabilidad de las empresas en relación con la protección de los derechos humanos.
El Consejo recordó su decisión en este caso para señalar que “moderar el contenido con el objetivo de abordar los daños acumulativos que ocasiona el lenguaje que incita al odio, incluso cuando la expresión no incita a la violencia o la discriminación directamente, puede ser coherente con las responsabilidades de Facebook con los derechos humanos en determinadas circunstancias”. Además, el Consejo explicó que, en este caso, había determinado que “si se hubiera intervenido de un modo más moderado, por ejemplo, con etiquetas, pantallas de advertencia u otras medidas para reducir la difusión, no habría habido una protección adecuada contra los efectos acumulativos que supone permitir contenido de esta naturaleza en la plataforma”.
Citando su decisión en este caso, el Consejo señaló que el contexto de un lenguaje dirigido a un grupo basado en el origen nacional durante un conflicto podría crear un entorno en el que los actos de discriminación y violencia fueran más probables.
El Consejo hizo referencia a su decisión en este caso para destacar que está en consonancia con las responsabilidades de Meta en materia de derechos humanos prohibir “determinadas expresiones discriminatorias”, incluso “sin la necesidad de que la expresión en cuestión incite a actos violentos o discriminatorios”.
La importancia del caso se refiere a cuán influyente es el caso y cómo su importancia cambia con el tiempo.
Según el artículo 2 del Acta Constitutiva del Consejo Asesor de Contenido, “[p]ara cada decisión, cualquier decisión anterior del Consejo tendrá valor de precedente y deberá considerarse altamente persuasiva cuando los hechos, las políticas aplicables u otros factores sean sustancialmente similares”. Además, el artículo 4 del Acta Constitutiva del Consejo Asesor de Contenido establece: “[l]a resolución del Consejo en cada caso será vinculante y Facebook (actualmente Meta) la aplicará sin demora, a menos que la aplicación de una resolución pueda infringir la ley. En los casos en los que Facebook identifique que un contenido idéntico con un contexto paralelo –sobre el que el Consejo ya ha tomado una decisión– permanece en Facebook (ahora Meta), tomará medidas analizando si es técnica y operativamente viable aplicar la decisión del Consejo también a ese contenido. Cuando una decisión incluya orientaciones políticas o una opinión consultiva sobre políticas, Facebook (actualmente Meta) adoptará medidas adicionales analizando los procedimientos operativos necesarios para aplicar las orientaciones, teniéndolas en cuenta en el proceso formal de desarrollo de políticas de Facebook (actualmente Meta) y comunicando de forma transparente las medidas adoptadas en consecuencia.”
Notifícanos si detectas un error o si el análisis sobre un caso necesita ser revisado.