Caso del Consejo Asesor de Contenido sobre la mención de los talibanes en los informes de noticias

Cerrado Expande el alcance del derecho a la Expresión

Key Details

  • Tipo de Expresión
    Comunicaciones electrónicas o a través de Internet
  • Fecha de la decisión
    septiembre 15, 2022
  • Decisión
    Overturned Meta’s initial decision
  • Número del caso
    2022-005-FB-UA
  • Región y País
    Afganistán, Europa y Asia Central
  • Órgano Judicial
    Oversight Board
  • Régimen Jurídico
    Derecho Internacional/regional de Derecho Humanos, Meta’s content policies
  • Temas
    Normas comunitarias de Facebook, Violencia y delitos, Personas y organizaciones peligrosas
  • Palabras clave
    Oversight Board Content Policy Recommendation, Facebook

Content Attribution Policy

Global Freedom of Expression is an academic initiative and therefore, we encourage you to share and republish excerpts of our content so long as they are not used for commercial purposes and you respect the following policy:

  • Attribute Columbia Global Freedom of Expression as the source.
  • Link to the original URL of the specific case analysis, publication, update, blog or landing page of the down loadable content you are referencing.

Attribution, copyright, and license information for media used by Global Freedom of Expression is available on our Credits page.

This case is available in additional languages:    View in: English    View in: Français    View in: العربية

Analisis de Caso

Resumen y resultado del caso

El 15 de septiembre de 2022, el Consejo Asesor de Contenido revocó la decisión original de Meta de eliminar una publicación en Facebook de la página de un medio de comunicación en la que se informaba de un comunicado favorable del régimen talibán de Afganistán sobre la educación de mujeres y niñas. El caso se originó en enero de 2022, cuando un popular periódico indio, en lengua urdu, informó en su página de Facebook acerca de que Zabiullah Mujahid, miembro del régimen talibán de Afganistán y su portavoz oficial principal, había anunciado que las escuelas y colegios para mujeres y niñas reabrirían sus puertas en marzo de 2022. Meta eliminó la publicación, impuso faltas al administrador de la página y limitó su acceso a determinadas funciones de Facebook. Esto se debió a que la empresa determinó que la publicación infringía su Norma Comunitaria sobre Personas y Organizaciones Peligrosas, en virtud de su prohibición de exaltar a un grupo terrorista designado. Sin embargo, después de que el Consejo seleccionara el caso para su revisión, Meta determinó que se trataba de un error de aplicación, por cuanto el contenido entraba dentro de la excepción de la Norma Comunitaria sobre Personas y Organizaciones Peligrosas —que permite informar sobre estas—, y por lo tanto, no debería haber sido eliminado.

Según el Consejo, la decisión original de Meta de eliminar la publicación no era coherente con la Norma Comunitaria de Facebook sobre Personas y Organizaciones Peligrosas, ya que el contenido entraba dentro de la excepción de la política respecto a “informar sobre» entidades designadas. El Consejo también consideró que la decisión de Meta era incompatible con las responsabilidades de la empresa en materia de derechos humanos, ya que restringía injustificadamente la libertad de expresión, que abarca el derecho a difundir y recibir información, incluida la relativa a grupos terroristas. Aunque Meta revocó su decisión debido a que el Consejo seleccionó el caso, el Consejo concluyó que el usuario ya había experimentado varios días de limitación de funciones que no se habían rectificado completamente.

*El Consejo Asesor de Contenido es una entidad separada de Meta y aportará su criterio independiente tanto en casos individuales como en cuestiones de políticas. Tanto el Consejo como su administración están financiadas por un fondo fiduciario independiente. El Consejo tiene autoridad para decidir si Facebook e Instagram deben permitir o eliminar contenidos. Estas decisiones son vinculantes, a menos que su aplicación infrinja la ley. El Consejo también puede decidir emitir recomendaciones sobre las políticas de contenidos de la empresa.


Hechos

En enero de 2022, un periódico en lengua urdu, con sede en India, publicó en su página de Facebook que Zabiullah Mujahid, miembro del régimen talibán de Afganistán y su portavoz oficial principal, había anunciado que las escuelas y colegios para mujeres y niñas volverían a abrir en marzo de 2022. La publicación enlazaba a un artículo del sitio web del periódico y fue vista unas 300 veces.

El 20 de enero de 2022, un usuario de Facebook hizo clic en “Reportar publicación” sobre el contenido, pero no completó su denuncia. Sin embargo, esto activó un clasificador que evaluó el contenido como potencialmente violatorio de la Política de Personas y Organizaciones Peligrosas y, por tanto, la publicación se envió a revisión humana. Un revisor que hablaba urdu determinó que el contenido infringía la “Política de Personas y Organizaciones Peligrosas”, que “que prohíbe exaltar a entidades que se considera que ocasionan daños graves en la vida real, incluidas las organizaciones terroristas” [p. 1]. Meta retiró el contenido, impuso faltas al administrador de la página y limitó su acceso a determinadas funciones de Facebook.

En consecuencia, el usuario que subió el contenido apeló la decisión de Meta. Después de que un segundo revisor humano coincidiera con la primera valoración de que el contenido era infractor, la publicación fue colocada en una cola para la invalidación de falsos positivos de alto impacto (HIPO, por sus siglas en inglés), un sistema que Meta utiliza “para identificar casos en los que actuó de forma incorrecta, por ejemplo, al eliminar contenido por error” [p.2]. Sin embargo, dado que en aquel momento había menos de 50 revisores de habla urdu asignados a HIPO, y que la publicación no se consideró de alta prioridad, nunca se revisó en el sistema HIPO.

Después de que el Consejo seleccionara el caso, Meta determinó que la publicación no debería haber sido eliminada a la luz de sus normas que permiten “informar sobre” organizaciones terroristas. El 25 de febrero de 2022, la empresa restauró el contenido, anuló las faltas y eliminó las restricciones de la cuenta del usuario.


Análisis de la Decisión

La cuestión principal que debía analizar el Consejo Asesor de Contenido era si la decisión de Meta de eliminar una publicación —que informaba sobre la decisión del régimen talibán de reabrir escuelas para mujeres y niñas en Afghanistán— se ajustaba a la Norma Comunitaria de Facebook sobre Personas y Organizaciones Peligrosas, a los valores de Meta y a las responsabilidades de la empresa en materia de derechos humanos.

En su declaración ante el Consejo, el usuario señaló que era representante de una organización de medios de comunicación y que no apoyaba el extremismo. Argumentó que sus artículos se basaban en fuentes de medios de comunicación nacionales e internacionales y que el contenido en cuestión pretendía proporcionar información sobre la educación de mujeres y niñas en Afganistán.

En su comunicación al Consejo, Meta explicó que, tras reexaminar su decisión original, había decidido que el contenido no debería haber sido eliminado por “exaltar” a una organización designada en virtud de la Política sobre Personas y Organizaciones Peligrosas. La empresa explicó que en virtud del “contexto subyacente a la noticia, al contenido debería haberse[le] aplicado la concesión a la política por la que se permite a los usuarios informar sobre entidades designadas” [p. 12]. Además, la empresa señaló que “los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas con el fin de informar sobre ellas, condenarlas o hablar sobre estas o sus actividades en un tono neutral” [p. 10]. Aunque Meta explicó que sus políticas estaban diseñadas para “para dar lugar a estos tipos de conversaciones sin dejar de limitar, al mismo tiempo, los riesgos de que ocurran posibles daños en la vida real” [p. 10], exigía que “las personas indiquen con claridad su intención al crear o compartir dicho contenido” [p. 10]. La empresa declaró que si la intención de un usuario era ambigua o poco clara, eliminaría el contenido por defecto.

Además, la empresa informó al Consejo que no podía “explicar por qué los dos revisores eliminaron el contenido de forma incorrecta, en lugar de aplicar la concesión para informes periodísticos de modo adecuado” [p. 13]. En respuesta a la pregunta del Consejo sobre si la exaltación de organizaciones peligrosas podían difundirse a través de información periodística, Meta señaló que su política “permite los informes periodísticos en los que una o varias personas exaltan a una persona o una organización peligrosas designadas” [p. 13]. Asimismo, la empresa explicó que el “sistema de faltas incluye dos vías para la aplicación de las Normas comunitarias: una que es válida para todo tipo de infracción (estándar) y otra que es válida para las infracciones más notorias (graves)” [p. 13]. Señaló que todas las infracciones de la Política sobre Personas y Organizaciones Peligrosas se trataban como graves. Según Meta, aunque el contenido se envió al canal HIPO tras su retirada, no se priorizó para su revisión humana “debido a la capacidad asignada al mercado” [p. 15] y a que los sistemas automatizados de Meta no otorgaron al contenido una puntuación de alta prioridad en la cola de HIPO.

El Consejo declaró que este caso revestía especial importancia porque demostraba que la falta de claridad en la definición del término “exaltación” parecía generar incertidumbre entre los revisores y los usuarios. El Consejo observó que la complejidad del caso se debía al interés por garantizar que los grupos terroristas, o quienes los apoyan, no utilicen las plataformas para fines propagandísticos y de reclutamiento. Sin embargo, si se priorizaba con demasiada amplitud, el Consejo explicó que dicho interés podía conducir a la censura de cualquier contenido que informara sobre estos grupos.

Cumplimiento de las políticas de contenido de Meta

El Consejo consideró que las medidas coercitivas adoptadas por Meta, en este caso, no deberían haberse impuesto, ya que no existía una violación subyacente de las normas comunitarias. El Consejo señaló que el sistema de verificación cruzada de Meta garantizaba la revisión humana secundaria a los usuarios incluidos en la lista de revisión secundaria de respuesta rápida. El Consejo señaló que “[e]star en la lista de revisión secundaria de respuesta rápida también garantiza que empleados de Meta, y no revisores según la medida de la necesidad, revisen el contenido antes de que pueda eliminarse” [p. 20]. No obstante, destacó que, mientras que las páginas de Facebook de algunos medios de comunicación estaban en esa lista, esta página no lo estaba. El Consejo consideró poco probable que el contenido en cuestión se hubiera eliminado si la página hubiera estado en la lista de revisión secundaria de respuesta rápida.

El Consejo felicitó a Meta por introducir su sistema HIPO, pero expresó su preocupación por el hecho de que no realizara una revisión secundaria de una publicación que se ajustaba a las normas comunitarias de Meta. Señaló que, en este caso, el contenido no recibió una revisión humana adicional “debido a la capacidad asignada al mercado y porque los sistemas automatizados de Meta no le otorgaron una puntuación de prioridad tan alta como la de otros contenidos que había en la cola del canal HIPO en ese momento” [p. 20]. Sin embargo, el Consejo consideró que, dado el interés público de la información y que un medio de comunicación publicó el contenido, debería haber recibido una puntuación lo suficientemente alta como para que se hubiera llevado a cabo una revisión adicional. Del mismo modo, el Consejo señaló su preocupación por el hecho de que la cola en lengua urdu sólo tuviera menos de 50 revisores en ese momento. El Consejo consideró que el tamaño del mercado indio, el número de grupos que Meta había designado como peligrosos en la región y la mayor importancia que debía concedérsele a las voces independientes, justificaban “una mayor inversión de la empresa en corregir los errores e, idealmente, evitar que ocurran cuando se trata de temas tan importantes” [p. 20].

Cumplimiento de los valores de Meta

El Consejo consideró que “[e]l contenido que incluye exaltaciones a grupos peligrosos podría poner en riesgo el valor de seguridad de los usuarios de Meta y otras personas debido a su conexión con la violencia fuera de internet y su capacidad potencial para intimidar, excluir o silenciar a los demás” [p. 21]. Sin embargo, en el caso que nos ocupa, el Consejo consideró que no existía un problema de seguridad significativo, ya que el contenido sólo informaba sobre un anuncio de una organización designada. Asimismo, el Consejo subrayó que el valor “expresión” era importante, ya que los medios de comunicación no sólo proporcionan al público información crucial, sino que también exigen rendición de cuentas a los gobiernos. Por lo tanto, el Consejo consideró que la decisión de Meta de retirar contenidos no contribuía materialmente a la “seguridad» y constituía una restricción innecesaria de la “expresión”.

Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

El Consejo recordó que el Comité de Derechos Humanos de la ONU, en su Observación General Nº 34, declaró que “la existencia de medios de prensa u otros medios de comunicación libres y exentos de censura y de trabas es esencial en cualquier sociedad para asegurar la libertad de opinión y expresión y el goce de otros derechos reconocidos por el Pacto” [p. 22]. Además, este señaló que “las plataformas de medios sociales, como Facebook, se convirtieron en un vehículo para compartir informes periodísticos en todo el mundo, y Meta reconoció sus responsabilidades respecto de los periodistas y los defensores de los derechos humanos en su Política corporativa de derechos humanos” [p. 22].

El Consejo subrayó que el derecho a la libertad de expresión abarca la capacidad de los usuarios de Meta para acceder a información sobre acontecimientos de interés público en Afganistán, especialmente cuando un grupo designado como peligroso destituyó por la fuerza al gobierno reconocido. En opinión del Consejo, la información publicada por el usuario era esencial para las personas preocupadas por los derechos de niñas y mujeres a la hora de acceder, de forma igualitaria, a la educación, independientemente de si los talibanes cumplían o no esos compromisos.

Mediante la aplicación del test tripartito previsto en el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (PIDCP), el Consejo procedió a analizar si la decisión inicial de Meta de retirar el contenido era coherente con sus responsabilidades en materia de derechos humanos como empresa.

I. Legalidad (claridad y accesibilidad de las reglas)

Aunque el Consejo reconoció que las políticas de Meta sobre personas y organizaciones peligrosas contenían más detalles que cuando el Consejo emitió sus primeras recomendaciones, también consideró que seguían existiendo serias preocupaciones. El Consejo destacó que no estaba claro si los talibanes seguían siendo una entidad designada como peligrosa cuando destituyeron por la fuerza al gobierno reconocido de Afganistán. Haciendo referencia a sus decisiones anteriores en los casos de Cita nazi  y Aislamiento de Öcalan, el Consejo subrayó que, para aportar claridad a los usuarios, había recomendado previamente a Meta que divulgara una lista completa de entidades designadas o una lista ilustrativa. El Consejo lamentó la falta de avances en esta recomendación.

El Consejo consideró que la definición de “exaltar” en las normas comunitarias públicas —como “discursos positivos sobre” una entidad designada— era demasiado amplia. Señaló que “[p]ara las personas involucradas en el periodismo, no es claro cómo esta regla se relaciona con la concesión para informes periodísticos correspondiente a la misma política” [p. 24]. El Consejo recordó que, según Meta, “esta concesión permite la conservación de informes periodísticos incluso cuando un usuario exalta a la entidad designada en la misma publicación” [p. 24]. Sin embargo, el Consejo consideró que la “relación entre la concesión ‘para informes periodísticos’ correspondiente a la política sobre personas y organizaciones peligrosas y la concesión de interés periodístico general sigue siendo confusa para los usuarios” [p. 24].

El Consejo recordó que, en su decisión en el caso Publicación compartida de Al Jazeera, había recomendado a Meta que proporcionara criterios y ejemplos ilustrativos en las normas comunitarias sobre lo que constituía un informe periodístico. Sin embargo, el Consejo declaró que Meta estaba en proceso de consulta con varios equipos internos para desarrollar criterios y que esperaba concluir este proceso para el cuarto trimestre de 2022. El Consejo expresó su preocupación por el hecho de que los cambios en la Norma Comunitaria no se tradujeran a todas las lenguas disponibles y de que hubiera discrepancias entre las lenguas. Por lo tanto, el Consejo determinó que, dado que la norma no era igualmente accesible para todos los usuarios, le resultaba difícil comprender lo que estaba permitido.

Además, el Consejo comentó que le preocupaba que Meta no hubiera hecho lo suficiente para aclarar cómo funcionaba el sistema de faltas. El Consejo consideró que la página del Centro de Transparencia de Meta sobre “Restricción de cuentas” no enumeraba de forma exhaustiva las limitaciones de funciones que la empresa podía aplicar, ni su duración, ni establecía periodos para las faltas graves como sí lo hacía para las faltas estándar. El Consejo consideró especialmente preocupante que, aunque Meta establecía que las faltas graves conllevaban sanciones más importantes, no proporcionaba un mecanismo para apelar las sanciones a nivel personal (account-level) independientemente de la decisión sobre el contenido. Además, el Consejo consideró que las limitaciones de funciones no siempre podían anularse por completo, incluso cuando se restablecía el contenido. En el caso en cuestión, el Consejo determinó que el usuario había sufrido varios días de limitación de funciones que no se habían rectificado por completo cuando Meta revocó su decisión.

El Consejo observó que el documento “Preguntas frecuentes” (la pauta interna de Meta para moderadores) definía el término “exaltar” como aquel contenido que hace que “las personas piensen de modo más positivo sobre” un grupo designado. En opinión del Consejo, esta definición era posiblemente más amplia que la definición de cara al público que figura en las normas comunitarias, por lo que el significado de “exaltar” no se refería tanto a la intención del orador como a los efectos en la audiencia. Además, el Consejo subrayó que ni las normas comunitarias ni el documento de preguntas frecuentes limitaban la discrecionalidad del revisor a la hora de restringir la libertad de expresión.

II. Fin legítimo

El Consejo Asesor de Contenido citó su decisión en el caso Inquietud punyabí en torno a la RSS en la India para subrayar que anteriormente había “reconoció que la política sobre personas y organizaciones peligrosas tiene el fin de proteger los derechos de los demás, incluido el derecho a la vida, la seguridad personal y la igualdad y no discriminación” [p. 26]. El Consejo reconoció que la propaganda de las entidades designadas, incluso a través de representantes que se declaran medios de comunicación independientes, podría plantear riesgos de daño para los derechos de los demás, por lo que determinó que tratar de mitigar esos perjuicios a través de esta política era un objetivo legítimo.

III. Necesidad y proporcionalidad

El Consejo destacó que, en virtud de la Observación General Nº 34, el Comité de Derechos Humanos de las Naciones Unidas había subrayado que “los medios de comunicación desempeñan una función crucial en la tarea de informar a la población sobre los actos de terrorismo, y no debe limitarse indebidamente su capacidad de acción. Los periodistas no deben ser penalizados por ejercer sus actividades legítimas” [p. 27]. En consecuencia, el Consejo dijo que Meta es responsable de prevenir y mitigar el impacto negativo de sus plataformas sobre los derechos humanos respecto a las informaciones periodísticas.

Para el Consejo, el tipo de errores de aplicación que se produjeron al revisar el contenido, en este caso, podría indicar fallas más amplias. El Consejo observó que “[l]os comentaristas que habitualmente trabajan en torno a actividades de personas y organizaciones peligrosas de nivel 1 enfrentan un mayor riesgo de [sufrir] errores en la aplicación de políticas que se deriven en sanciones graves para sus cuentas” [p. 27], lo que podría “podría perjudicar sus fuentes de trabajo y denegar el acceso público a información en momentos clave” [p. 27].

Además, el Consejo señaló que la política de eliminar por defecto contenidos en virtud de la Política sobre Personas y Organizaciones Peligrosas, cuando los usuarios no dejan claro que tienen intención de “denunciar”, podría llevar a la eliminación excesiva de contenidos no infractores. El Consejo declaró que, en este caso, el sistema de prevención y corrección de errores no benefició al usuario como debería. Afirmó que esto indicaba problemas en la forma en que el sistema HIPO priorizaba las decisiones de contenido para una revisión adicional. Para el Consejo, en este caso, “el error en la aplicación de la política y la falta de corrección de este denegaron a muchos usuarios de Facebook el acceso a información sobre asuntos de importancia mundial y obstaculizaron el ejercicio de la función periodística de un medio de comunicación, que es informar al público” [p. 28]. El Consejo advirtió que es posible que “los periodistas informen sobre los hechos de un modo imparcial que evita el tipo de condena evidente que los revisores quizá esperan ver. Para evitar la eliminación del contenido y las sanciones a sus cuentas, posiblemente los periodistas se autocensuren y hasta, quizá, se vean incentivados a desviarse de sus responsabilidades profesionales éticas” [p. 28].

Asimismo, el Consejo señaló que, al establecer excepciones basadas en el “espíritu de la política” en relación con el régimen talibán, Meta reconocía implícitamente que, en ocasiones, su enfoque en el marco de la Política sobre Personas y Organizaciones Peligrosas podría producir resultados incoherentes con los objetivos de la política. Por tanto, no se cumplía el requisito de necesidad. Según el Consejo, “[l]os materiales internos de la empresa que se proporcionan a los periodistas ponen de manifiesto que, en septiembre de 2021, la empresa creó una excepción para permitir la conservación de contenido compartido por el Ministerio del Interior de Afganistán que tratara ciertos asuntos, como nuevas reglamentaciones de tráfico, así como dos publicaciones específicas del Ministerio de Salud en relación con el COVID-19” [p. 28]. Además, el Consejo observó que, al parecer, otras excepciones han sido más específicas y de menor duración. Ejemplificó este punto señalando que en agosto de 2021, durante 12 días, “figuras del Gobierno pudieron, según se informó, reconocer al régimen talibán como el Gobierno oficial de Afganistán sin riesgo de que se aplicaran sanciones a sus cuentas”. Del mismo modo, el Consejo observó que, desde finales de agosto de 2021 hasta el 3 de septiembre, los usuarios de Facebook podían “publicar declaraciones públicas de los talibanes sin tener que hablar sobre estas en un tono neutral, informar sobre ellas ni condenarlas” [p. 29].

El Consejo observó que el 25 de enero de 2022, durante un Foro de Políticas sobre el Protocolo de Políticas ante Crisis, Meta había afirmado que desplegaría “recursos normativos” en situaciones de crisis. A manera de ejemplo, la compañía dijo que permitiría “la exaltación de una organización designada específica” [p. 29] El Consejo consideró que dichas excepciones a la prohibición general de “exaltar” podrían traer más incertidumbre sobre cuando aplican estas, no solo para los moderadores sino para los usuarios también.

A la luz de lo anterior, el Consejo concluyó que la decisión de Meta de retirar el contenido de Facebook era una medida innecesaria y desproporcionada.

Declaración de política consultiva

En cuanto a la Política sobre Personas y Organizaciones Peligrosas, el Consejo recomendó a Meta que investigara por qué los cambios introducidos en la política en diciembre de 2021 no se actualizaron en el plazo previsto de seis semanas y que se asegurara de que no se repitieran tales retrasos u omisiones. Además, el Consejo instó a Meta a hacer más exhaustiva y accesible la explicación pública de su sistema de faltas.

En cuanto a la aplicación de la política, el Consejo recomendó a Meta: i) investigar por qué los cambios en la Política sobre Personas y Organizaciones Peligrosas no se tradujeron en el plazo previsto y evitar que se repitan tales retrasos; ii) hacer más exhaustiva y accesible la explicación pública de su sistema de faltas; iii) limitar la definición de “exaltar” en las preguntas frecuentes (orientación interna para moderadores) eliminando el ejemplo de contenido que “procura que otras personas piensen de forma más positiva acerca” organizaciones peligrosas; iv) revisar sus normas de implementación para aclarar que la excepción para informar, de la Política sobre Personas y Organizaciones Peligrosas, permite declaraciones positivas. Las preguntas frecuentes deberían explicar la importancia de proteger la información periodística en situaciones de conflicto o crisis; v) evaluar la precisión con la que los revisores hacen cumplir la excepción para informar de la Política sobre Personas y Organizaciones Peligrosas para identificar la causa de los errores; vi) llevar a cabo una revisión del sistema HIPO para examinar si puede priorizar más eficazmente los errores potenciales a la hora de aplicar las excepciones a la Política de Personas y Organizaciones Peligrosas, y vii) aumentar su capacidad asignada a la revisión HIPO en todos los idiomas.


Impacto de la decisión

Información Inmediata

El Impacto de la Decisión indica si la decisión expande o restringe la expresión basado en el análisis del caso.

Expande el alcance del derecho a la Expresión

La decisión del Consejo Asesor de Contenido amplía la expresión al reconocer que este derecho abarca la posibilidad de difundir y recibir información, incluso sobre grupos terroristas — lo que es especialmente importante en tiempos de conflicto y crisis, incluso cuando los grupos terroristas ejercen el control de un país.

Perspectiva Global

Información Inmediata

La Perspectiva Global demuestra cómo la decisión de la corte fue influenciada por normas de una o más regiones.

Table of Authorities

Normas jurídicas Internacionales o Regionales relacionadas

  • ICCPR, art. 19

    El Consejo analizó las responsabilidades de Meta en materia de derechos humanos a través de este precepto sobre la libertad de expresión. Empleó el test tripartito establecido en este artículo para evaluar si las acciones de Meta constituían una limitación justificable de la expresión.

  • UNHR Comm., General Comment No. 34 (CCPR/C/GC/34)

    Al emplear el test tripartito para evaluar si las acciones de Meta permitían limitar la expresión, el Consejo se remitió a la Observación General en busca de orientación.

  • OSB, Shared Al Jazeera Post, 2021-009-FB-UA (2021)

    El Consejo señaló que en su decisión, en este caso, había instado a Meta a proporcionar criterios y ejemplos públicos en su Norma Comunitaria sobre Personas y Organizaciones Peligrosas para las siguientes concesiones a la política: “discusión neutral”; “denuncia”; y “condena”.

  • OSB, Öcalan's Isolation, 2021-006-IG-UA (2021)

    El Consejo se refirió a este caso para subrayar que anteriormente había sugerido a Meta que aclarara, en sus normas comunitarias públicas sobre personas y organizaciones peligrosas, cómo los usuarios pueden dejar clara su intención al publicar.

  • OSB, Punjabi concern over the RSS in India, 2021-003-FB-UA (2021)

    El Consejo señaló que, en su decisión sobre este caso, había recomendado a Meta que intentara que sus normas comunitarias fueran accesibles en todas las lenguas habladas por sus usuarios.

  • OSB, Nazi quote, 2020-005-FB-UA (2021)

    El Consejo recordó que, en su decisión sobre este caso, había recomendado a Meta que incluyera ejemplos de “exaltación”, “apoyo” y “representación” en la Norma Comunitaria sobre Personas y Organizaciones Peligrosas.

Importancia De La Decisión

Información Inmediata

La importancia del caso se refiere a cuán influyente es el caso y cómo su importancia cambia con el tiempo.

La decisión tiene un efecto vinculante o persuasivo dentro de su jurisdicción.

Según el artículo 2 del Acta Constitutiva del Consejo Asesor de Contenido, “[p]ara cada decisión, cualquier decisión anterior del Consejo tendrá valor de precedente y deberá considerarse altamente persuasiva cuando los hechos, las políticas aplicables u otros factores sean sustancialmente similares”. Además, el artículo 4 del Acta Constitutiva del Consejo Asesor de Contenido establece: “[l]a resolución del Consejo en cada caso será vinculante y Facebook (actualmente Meta) la aplicará sin demora, a menos que la aplicación de una resolución pueda infringir la ley. En los casos en los que Facebook identifique que un contenido idéntico con un contexto paralelo sobre el que el Consejo ya ha tomado una decisión permanece en Facebook (ahora Meta), tomará medidas analizando si es técnica y operativamente viable aplicar la decisión del Consejo también a ese contenido. Cuando una decisión incluya orientaciones políticas o una opinión consultiva sobre políticas, Facebook (actualmente Meta) adoptará medidas adicionales analizando los procedimientos operativos necesarios para aplicar las orientaciones, teniéndolas en cuenta en el proceso formal de desarrollo de políticas de Facebook (actualmente Meta) y comunicando de forma transparente las medidas adoptadas en consecuencia.”

La decisión fue citada en:

Enlace a los documentos oficiales del caso

Enlace a los documentos oficiales del caso:


Amicus/Intervenciones Ciudadanas e intervenciones relevantes de otras autoridades nacionales


Archivos Adjuntos:

¿Tienes comentarios?

Notifícanos si detectas un error o si el análisis sobre un caso necesita ser revisado.

Envía tu comentario