Normas comunitarias de Facebook, Violencia y delitos, Personas y organizaciones peligrosas
Caso del Consejo Asesor de Contenido sobre la mención de los talibanes en los informes de noticias
Afganistán
Cerrado Expande el alcance del derecho a la Expresión
Global Freedom of Expression is an academic initiative and therefore, we encourage you to share and republish excerpts of our content so long as they are not used for commercial purposes and you respect the following policy:
Attribution, copyright, and license information for media used by Global Freedom of Expression is available on our Credits page.
This case is available in additional languages: View in: English View in: Français View in: العربية
El 8 de julio de 2021, el Consejo Asesor de Contenido revocó la decisión original de Facebook (actualmente Meta) de eliminar una publicación de Instagram en la que se alentaba a las personas a debatir sobre la reclusión solitaria de Abdullah Öcalan, miembro fundador del Partido de los Trabajadores de Kurdistán (PKK). Cuando el usuario apeló la decisión original de la empresa, y el Consejo seleccionó el caso para su revisión, Facebook descubrió que una parte de la orientación interna sobre la Política de Personas y Organizaciones Peligrosas “por accidente, no [se] había transferido” al nuevo sistema de revisión y, por tanto, decidió restaurar el contenido. Al analizar la decisión original de la empresa, el Consejo determinó que el contenido nunca debió ser eliminado. Este determinó que el usuario no hacía apología de la violencia, sino que pretendía poner de manifiesto la preocupación por los derechos humanos respecto al prolongado confinamiento en solitario de Öcalan. Por tanto, el Consejo concluyó que era improbable que la publicación causara daños y que su retirada no era necesaria ni proporcionada conforme a las normas internacionales de derechos humanos.
*El Consejo Asesor de Contenido es una entidad separada de Meta y aportará su criterio independiente tanto en casos individuales como en cuestiones de políticas. Tanto el Consejo como su administración están financiadas por un fondo fiduciario independiente. El Consejo tiene autoridad para decidir si Facebook e Instagram deben permitir o eliminar contenidos. Estas decisiones son vinculantes, a menos que su aplicación infrinja la ley. El Consejo también puede decidir emitir recomendaciones sobre las políticas de contenidos de la empresa.
El Partido de los Trabajadores de Kurdistán (PKK) se fundó en la década de 1970 para establecer un Estado kurdo independiente en el sureste de Turquía, Siria e Irak.
El 25 de enero de 2021, un usuario de Instagram subió una foto de Abdullah Öcalan, miembro fundador del PKK, encarcelado en Turquía desde su detención y condena en 1999 por llevar a cabo actos violentos dirigidos a la secesión de una parte del territorio turco. El contenido subido incluía el texto “y’all ready for this conversation” en inglés (“Ya es hora de hablar de esto”). El pie de foto decía que había llegado el momento de hablar sobre el fin del aislamiento de Öcalan en prisión. Además, el usuario alentaba a las/os lectoras/es “a iniciar un debate sobre el encarcelamiento de Öcalan y la naturaleza inhumana de la reclusión solitaria, incluido por medio de huelgas de hambre, protestas, acciones legales, artículos de opinión, grupos de lectura y memes” [p. 7].
El 12 de febrero de 2021, la publicación fue eliminada después de que un moderador humano considerara que este infringía la política de la empresa sobre Personas y Organizaciones Peligrosas. El usuario apeló la decisión, pero Facebook respondió que era definitiva y que no podía revisarse debido a una reducción temporal en la capacidad de revisión a causa del COVID-19. No obstante, un segundo moderador revisó el contenido y confirmó la primera decisión. En consecuencia, el usuario recurrió al Consejo Asesor de Contenido.
Facebook restableció el contenido en Instagram el 23 de abril, después de que el caso fuera seleccionado por el Consejo Asesor de Contenido. La empresa notificó al Consejo que había encontrado una pauta interna, desarrollada en 2017 —respecto a la Política sobre Personas y Organizaciones Peligrosas— que permitía la discusión o el debate sobre las condiciones de reclusión de personas designadas como peligrosas. La compañía explicó que en 2018, “por accidente, no había transferido esta pauta” a un nuevo sistema de revisión y, por lo tanto, no se había aplicado en este caso. Al descubrir el error, la empresa restauró el contenido.
La cuestión principal que debía analizar el Consejo era si la decisión original de Facebook de eliminar una publicación de Instagram, que alentaba a la gente a debatir sobre el aislamiento de Abdullah Öcalan —fundador de un partido político que busca la independencia del Estado Kurdo—, cumplía con las políticas de contenidos, los valores y las responsabilidades de la empresa en materia de derechos humanos.
En su apelación ante el Consejo, el usuario explicó que publicó el contenido para fomentar el debate sobre la filosofía de Öcalan y para poner fin a su aislamiento. Este destacó que creía que prohibir el debate sobre Öcalan impedía discusiones que podrían conducir al establecimiento pacífico del pueblo kurdo en Oriente Medio. También declaró que no deseaba promover la violencia, pero creía que no debía prohibirse la publicación de fotos de Öcalan en Instagram.
En sus alegatos, Facebook explicó que inicialmente había llegado a la conclusión de que el contenido era un llamamiento a la acción para apoyar a Öcalan y al PKK, por lo que infringía la Política sobre Personas y Organizaciones Peligrosas. Facebook señaló además que, después de que el Consejo seleccionara el caso para su revisión, volvió a evaluar el contenido con respecto a sus políticas y descubrió que, en 2017, había desarrollado una pauta interna que permitía el contenido que pedía por la libertad de un terrorista cuando el contenido se comparte de tal manera que aboga por la paz o propicia un debate sobre el encarcelamiento del terrorista. Sin embargo, declaró que inadvertidamente no había transferido esta pauta cuando cambió a un nuevo sistema de revisión en 2018. Después de aplicar la pauta a este caso, Facebook encontró que el contenido se enmarcaba en ella y restauró el contenido.
Cumplimiento de las políticas de contenido de Facebook
El Consejo señaló que las Normas Comunitarias de Instagram, que incluían un enlace a las Normas Comunitarias de Facebook sobre Personas y Organizaciones Peligrosas, establecían que Instagram no es un lugar para apoyar o alabar el terrorismo, el crimen organizado o los grupos de odio. A continuación, destacó que las Normas Comunitarias se aplican en Instagram de igual forma que en Facebook. El Consejo también explicó que la Norma Comunitaria para Personas y Organizaciones Peligrosas pretende “evitar y prevenir daños en la vida real, [al] no [permitir] la presencia en Facebook de ninguna persona u organización que reivindique una misión violenta o cometa actos de violencia”. Asimismo, el Consejo señaló que, en aplicación de la Norma, se estableció que Facebook podía eliminar contenidos que expresaran apoyo o exaltaran a grupos, líderes o individuos implicados en estas actividades.
A petición del Consejo, Facebook compartió sus pautas internas para moderadores de contenidos sobre el significado del término “apoyo” a personas y organizaciones designadas. En esta, la “incitación a brindar apoyo” se definía como una “convocatoria para que un público tome medidas a fin de respaldar a una organización designada como peligrosa o la causa que esta promueve” [p. 14]. Sin embargo, el Consejo destacó que, en el momento en que se publicó el contenido, dicha información no estaba incluida en las Normas Comunitarias de acceso público ni en la actualización publicada el 23 de junio de 2021.
El Consejo también tuvo en cuenta la pauta extraviada (y no publicada), creada en 2017, para destacar que la discusión sobre las condiciones de confinamiento de un individuo designado como peligroso estaba permitida y no constituía apoyo. El Consejo observó que la política de Facebook de eliminar por defecto el contenido que mostraba “apoyo” a las personas designadas, mientras mantenía ocultas al público las excepciones clave, permitió que el error pasara desapercibido para la empresa, sin ninguna rendición de cuentas, durante aproximadamente tres años. Por lo tanto, en este caso, el Consejo determinó que, incluso sin tener en cuenta la pauta extraviada, el contenido no debería haber sido eliminado por constituir una forma de “apoyo”, ya que el usuario solo animaba a la gente a discutir sobre el aislamiento de Öcalan a través de huelgas de hambre, protestas, acciones legales, artículos de opinión, grupos de lectura y memes. Por lo tanto, el Consejo consideró que la eliminación del contenido no contribuia al objetivo de la política de prevenir e impedir daños en el mundo real.
Cumplimiento de los valores de Facebook
El Consejo consideró que la decisión de Facebook de retirar el contenido no satisfacía los valores de “Expresión” y “Seguridad” de Facebook. Este explicó que el usuario pretendía poner de manifiesto posibles violaciones de derechos humanos, y que cuestionar tales violaciones era fundamental para el valor “Expresión”. Además, el Consejo señaló que, si bien el valor de la “Seguridad” estaba teóricamente comprometido, dado que el contenido se refería a un individuo designado como peligroso, la eliminación de la publicación no atendía a ningún problema claro de “Seguridad”, ya que el contenido no incluía lenguaje que incitara o abogara por el uso de la violencia. En cambio, el Consejo consideró que la decisión de Facebook suprimía ilegítimamente la voz de una persona que planteaba un problema de derechos humanos.
Cumplimiento de las responsabilidades de Facebook en materia de derechos humanos
El Consejo recordó que los debates sobre las condiciones de detención de una persona, y las presuntas violaciones de sus derechos humanos bajo custodia, son un tipo de expresión protegida por el artículo 19 del PIDCP. También señaló que los organismos internacionales han planteado preocupaciones en materia de derechos humanos sobre las prácticas que pretenden poner de manifiesto las preocupaciones sobre el confinamiento solitario y prolongado de una persona. Para desentrañar si la restricción de la libertad de expresión, por parte de Facebook al eliminar el contenido, estaba justificada, el Consejo procedió a emplear el test tripartito previsto en el artículo 19 del PIDCP.
I. Legalidad
El Consejo citó estándares en materia de derechos humanos que establecen que las restricciones a la expresión deben formularse con suficiente precisión para que las personas comprendan lo que está prohibido y actúen en consecuencia. En opinión del Consejo, aunque Facebook había proporcionado a los revisores una amplia y confidencial orientación interna para interpretar las políticas de contenido de la empresa, no había reflejado normas esenciales sobre lo que está excluido de la definición de “apoyo” según Facebook en las normas comunitarias de cara al público.
El Consejo observó que Facebook ya ha definido públicamente los términos “representación”, “exaltación” y “apoyo” en la Norma Comunitaria sobre Personas y Organizaciones Peligrosas. Sin embargo, el Consejo observó que el Relator Especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión calificó de “excesivamente ambiguas” las prohibiciones de “exaltación” y “apoyo” impuestas por las plataformas de medios sociales (A/HRC/38/35, párr. 26; véase también: Observación General Nº 34, párr. 46) [p. 18].
II. Fin legítimo
El Consejo consideró que, dado que Facebook había revocado su decisión original tras la selección del caso por parte del Consejo, la empresa no trató de justificar que la eliminación perseguía un fin legítimo, sino que la enmarcó como un error de aplicación.
III. Necesidad y proporcionalidad
En opinión del Consejo, al revocar su decisión tras la selección del caso por parte de este, Facebook había reconocido implícitamente que la retirada del contenido no era necesaria ni proporcionada. Además, subrayó que la amplitud del término “apoyo” en las Normas Comunitarias, combinada con la errónea orientación interna sobre lo que esto excluía, significaba que se había producido una eliminación innecesaria y desproporcionada. Adicionalmente, el Consejo consideró que “[n]o se pudo demostrar que hubiese intención de incitar a la violencia ni probabilidades de que, al publicar dicha afirmación y que otras personas indiquen que les gusta en la plataforma, se ocasionarían daños” [p. 20].
Derecho a interponer recursos
El Consejo expresó varias preocupaciones sobre hechos que indicaban que Facebook no respetaba el derecho a interponer recursos —en contravención de su Política Corporativa de Derechos Humanos. En este caso, el Consejo explicó que en su momento se informó al usuario que no se podía interponer un recurso debido al COVID-19, aun cuando posteriormente se llevó a cabo una apelación.
Aunque reconoció que el contenido se restableció posteriormente, el Consejo expresó su preocupación por la posibilidad de que se hubiesen producido un número considerable de eliminaciones que no deberían haber sucedido porque Facebook extravió su pauta interna —la cual permitía conitenido sobre debates respecto a las condiciones de reclusión de las personas designadas. Del mismo modo, el Consejo consideró que los informes de transparencia de Facebook no eran suficientes para evaluar de forma significativa si el tipo de error detectado en este caso significaba que existía un problema sistémico.
Declaración de política consultiva
El Consejo, entre otras cosas, recomendó a Facebook que: “1. Restablezca de inmediato la pauta extraviada de 2017 en las normas de implementación interna y en las preguntas frecuentes (la pauta interna para moderadores de contenido). 2. Evalúe los procesos de moderación automatizados para la aplicación de la política sobre personas y organizaciones peligrosas y, cuando sea necesario, actualice los clasificadores a fin de que se excluyan datos de capacitación de errores de aplicación de políticas anteriores que ocasionaron que no se ejerza la pauta de 2017. 3. Publique los resultados del proceso de revisión en curso para determinar si se pasó por alto alguna otra política, como descripciones de todas las políticas extraviadas, [en] el período durante el cual se extraviaron y las medidas tomadas para restablecerlas. 5. Agregue a la política sobre personas y organizaciones peligrosas una explicación clara de lo que excluye el término “apoyo”. Los usuarios deberían ser libres para debatir supuestos abusos e infracciones de los derechos humanos de miembros de organizaciones designadas. 8. Se asegure de que los moderadores reciban capacitación y asesoramiento interno respecto de cualquier política nueva. 9. Garantice que los usuarios reciban una notificación cuando se elimine su contenido” [p. 24-26].
Del mismo modo, el Consejo también le indicó a Facebook que “[l]a notificación debería indicar si la eliminación se debe a una solicitud gubernamental o a una infracción de las Normas comunitarias, o bien al reclamo de un Gobierno que manifiesta que se infringió una ley nacional (y el alcance jurisdiccional de dicha eliminación). 10. Aclare a los usuarios de Instagram que las Normas comunitarias de Facebook se aplican a Instagram del mismo modo en que se aplican a Facebook. 12. Incluya información más integral respecto de las tasas de errores en la aplicación de las reglas sobre ‘exaltación’ y ‘apoyo’ de personas y organizaciones peligrosas, desglosada por región e idioma” [p. 26-27].
El Impacto de la Decisión indica si la decisión expande o restringe la expresión basado en el análisis del caso.
La decisión amplió la expresión por cuanto el Consejo determinó que los usuarios de las plataformas de Facebook deberían poder generar debates sobre violaciones de derechos humanos, abusos relacionados con el terrorismo y la lucha antiterrorista, incluso si incluyen los nombres de personas/organizaciones reconocidas como personas y organizaciones peligrosas por la política de la empresa. El Consejo alentó a Facebook a proteger los contenidos sobre asuntos de interés público en países donde las protecciones nacionales, legales e institucionales de los derechos humanos, especialmente la libertad de expresión, son débiles. Por último, amplía la expresión pidiendo a la empresa que apoye los debates de los usuarios sobre los derechos de las personas detenidas, quienes ven la posibilidad de defender sus derechos de forma eficaz disminuida.
La Perspectiva Global demuestra cómo la decisión de la corte fue influenciada por normas de una o más regiones.
El Consejo utilizó los UNGP como base jurídica del compromiso de Facebook de respetar los derechos humanos.
El Consejo utilizó el artículo 19 del PIDCP como base jurídica que proporciona una amplia protección a la libertad de expresión a través de cualquier medio de comunicación e independientemente de las fronteras. También lo utilizó para aplicar el test tripartito de legalidad (claridad), legitimidad y necesidad y proporcionalidad.
El Consejo utilizó el artículo 6 para referirse al derecho de las personas a estudiar, debatir, y defender los derechos humanos y las libertades fundamentales.
El Consejo utilizó la Observación General Nº 34 como base jurídica para aplicar el test tripartito.
El Consejo utilizó el informe A/HRC/38/35 para argumentar que las prohibiciones de las plataformas de redes sociales sobre los términos “exaltación” y “apoyo” son “excesivamente ambiguas”.
El Consejo utilizó el Informe A/74/486 como base jurídica para analizar el derecho a interponer recursos.
El Consejo utilizó el artículo 2 del PIDCP como base jurídica para analizar el derecho a interponer recursos.
El Consejo utilizó el artículo 2 del PIDCP como base jurídica para analizar el derecho a interponer recursos.
El Consejo utilizó las Reglas Nelson Mandela para analizar el derecho a la libertad de expresión y su relación con los derechos humanos y el confinamiento solitario y prolongado.
Al referirse a este caso, el Consejo destacó que había recomendado a Facebook que modificara su Norma Comunitaria sobre Personas y Organizaciones Peligrosas para definir “representación”, “exaltación” y “apoyo”.
El Consejo recordó que, a través de su decisión en este caso, había recomendado a Facebook que aclarara la relación entre las Normas comunitarias de Instagram y las Normas comunitarias de Facebook.
El Consejo subrayó la necesidad de que Facebook restablezca el proceso de apelación de acuerdo con las recomendaciones de este caso.
El Consejo citó este caso para reiterar su preocupación por el hecho de que Facebook elimine contenidos sobre asuntos de interés público en países donde las protecciones jurídicas e institucionales de los derechos humanos, en particular la libertad de expresión, son débiles.
El Consejo citó este caso para reiterar su preocupación por el hecho de que Facebook elimine contenidos sobre asuntos de interés público en países donde las protecciones jurídicas e institucionales de los derechos humanos, en particular la libertad de expresión, son débiles.
La importancia del caso se refiere a cuán influyente es el caso y cómo su importancia cambia con el tiempo.
Según el artículo 2 del Acta Constitutiva del Consejo Asesor de Contenido, “[p]ara cada decisión, cualquier decisión anterior del Consejo tendrá valor de precedente y deberá considerarse altamente persuasiva cuando los hechos, las políticas aplicables u otros factores sean sustancialmente similares”. Además, el artículo 4 del Acta Constitutiva del Consejo Asesor de Contenido establece: “[l]a resolución del Consejo en cada caso será vinculante y Facebook (actualmente Meta) la aplicará sin demora, a menos que la aplicación de una resolución pueda infringir la ley. En los casos en los que Facebook identifique que un contenido idéntico con un contexto paralelo –sobre el que el Consejo ya ha tomado una decisión– permanece en Facebook (ahora Meta), tomará medidas analizando si es técnica y operativamente viable aplicar la decisión del Consejo también a ese contenido. Cuando una decisión incluya orientaciones políticas o una opinión consultiva sobre políticas, Facebook (actualmente Meta) adoptará medidas adicionales analizando los procedimientos operativos necesarios para aplicar las orientaciones, teniéndolas en cuenta en el proceso formal de desarrollo de políticas de Facebook (actualmente Meta) y comunicando de forma transparente las medidas adoptadas en consecuencia.”
Notifícanos si detectas un error o si el análisis sobre un caso necesita ser revisado.