Resumen y resultado del caso
El 8 de julio de 2021, el Consejo Asesor de Contenido revocó la decisión original de Facebook (actualmente Meta) de eliminar una publicación de Instagram en la que se alentaba a las personas a debatir sobre la reclusión solitaria de Abdullah Öcalan, miembro fundador del Partido de los Trabajadores de Kurdistán (PKK). Cuando el usuario apeló la decisión original de la empresa, y el Consejo seleccionó el caso para su revisión, Facebook descubrió que una parte de la orientación interna sobre la Política de Personas y Organizaciones Peligrosas “por accidente, no [se] había transferido” al nuevo sistema de revisión y, por tanto, decidió restaurar el contenido. Al analizar la decisión original de la empresa, el Consejo determinó que el contenido nunca debió ser eliminado. Este determinó que el usuario no hacía apología de la violencia, sino que pretendía poner de manifiesto la preocupación por los derechos humanos respecto al prolongado confinamiento en solitario de Öcalan. Por tanto, el Consejo concluyó que era improbable que la publicación causara daños y que su retirada no era necesaria ni proporcionada conforme a las normas internacionales de derechos humanos.
*El Consejo Asesor de Contenido es una entidad separada de Meta y aportará su criterio independiente tanto en casos individuales como en cuestiones de políticas. Tanto el Consejo como su administración están financiadas por un fondo fiduciario independiente. El Consejo tiene autoridad para decidir si Facebook e Instagram deben permitir o eliminar contenidos. Estas decisiones son vinculantes, a menos que su aplicación infrinja la ley. El Consejo también puede decidir emitir recomendaciones sobre las políticas de contenidos de la empresa.
Hechos
El Partido de los Trabajadores de Kurdistán (PKK) se fundó en la década de 1970 para establecer un Estado kurdo independiente en el sureste de Turquía, Siria e Irak.
El 25 de enero de 2021, un usuario de Instagram subió una foto de Abdullah Öcalan, miembro fundador del PKK, encarcelado en Turquía desde su detención y condena en 1999 por llevar a cabo actos violentos dirigidos a la secesión de una parte del territorio turco. El contenido subido incluía el texto “y’all ready for this conversation” en inglés (“Ya es hora de hablar de esto”). El pie de foto decía que había llegado el momento de hablar sobre el fin del aislamiento de Öcalan en prisión. Además, el usuario alentaba a las/os lectoras/es “a iniciar un debate sobre el encarcelamiento de Öcalan y la naturaleza inhumana de la reclusión solitaria, incluido por medio de huelgas de hambre, protestas, acciones legales, artículos de opinión, grupos de lectura y memes” [p. 7].
El 12 de febrero de 2021, la publicación fue eliminada después de que un moderador humano considerara que este infringía la política de la empresa sobre Personas y Organizaciones Peligrosas. El usuario apeló la decisión, pero Facebook respondió que era definitiva y que no podía revisarse debido a una reducción temporal en la capacidad de revisión a causa del COVID-19. No obstante, un segundo moderador revisó el contenido y confirmó la primera decisión. En consecuencia, el usuario recurrió al Consejo Asesor de Contenido.
Facebook restableció el contenido en Instagram el 23 de abril, después de que el caso fuera seleccionado por el Consejo Asesor de Contenido. La empresa notificó al Consejo que había encontrado una pauta interna, desarrollada en 2017 —respecto a la Política sobre Personas y Organizaciones Peligrosas— que permitía la discusión o el debate sobre las condiciones de reclusión de personas designadas como peligrosas. La compañía explicó que en 2018, “por accidente, no había transferido esta pauta” a un nuevo sistema de revisión y, por lo tanto, no se había aplicado en este caso. Al descubrir el error, la empresa restauró el contenido.
Análisis de la Decisión
La cuestión principal que debía analizar el Consejo era si la decisión original de Facebook de eliminar una publicación de Instagram, que alentaba a la gente a debatir sobre el aislamiento de Abdullah Öcalan —fundador de un partido político que busca la independencia del Estado Kurdo—, cumplía con las políticas de contenidos, los valores y las responsabilidades de la empresa en materia de derechos humanos.
En su apelación ante el Consejo, el usuario explicó que publicó el contenido para fomentar el debate sobre la filosofía de Öcalan y para poner fin a su aislamiento. Este destacó que creía que prohibir el debate sobre Öcalan impedía discusiones que podrían conducir al establecimiento pacífico del pueblo kurdo en Oriente Medio. También declaró que no deseaba promover la violencia, pero creía que no debía prohibirse la publicación de fotos de Öcalan en Instagram.
En sus alegatos, Facebook explicó que inicialmente había llegado a la conclusión de que el contenido era un llamamiento a la acción para apoyar a Öcalan y al PKK, por lo que infringía la Política sobre Personas y Organizaciones Peligrosas. Facebook señaló además que, después de que el Consejo seleccionara el caso para su revisión, volvió a evaluar el contenido con respecto a sus políticas y descubrió que, en 2017, había desarrollado una pauta interna que permitía el contenido que pedía por la libertad de un terrorista cuando el contenido se comparte de tal manera que aboga por la paz o propicia un debate sobre el encarcelamiento del terrorista. Sin embargo, declaró que inadvertidamente no había transferido esta pauta cuando cambió a un nuevo sistema de revisión en 2018. Después de aplicar la pauta a este caso, Facebook encontró que el contenido se enmarcaba en ella y restauró el contenido.
Cumplimiento de las políticas de contenido de Facebook
El Consejo señaló que las Normas Comunitarias de Instagram, que incluían un enlace a las Normas Comunitarias de Facebook sobre Personas y Organizaciones Peligrosas, establecían que Instagram no es un lugar para apoyar o alabar el terrorismo, el crimen organizado o los grupos de odio. A continuación, destacó que las Normas Comunitarias se aplican en Instagram de igual forma que en Facebook. El Consejo también explicó que la Norma Comunitaria para Personas y Organizaciones Peligrosas pretende “evitar y prevenir daños en la vida real, [al] no [permitir] la presencia en Facebook de ninguna persona u organización que reivindique una misión violenta o cometa actos de violencia”. Asimismo, el Consejo señaló que, en aplicación de la Norma, se estableció que Facebook podía eliminar contenidos que expresaran apoyo o exaltaran a grupos, líderes o individuos implicados en estas actividades.
A petición del Consejo, Facebook compartió sus pautas internas para moderadores de contenidos sobre el significado del término “apoyo” a personas y organizaciones designadas. En esta, la “incitación a brindar apoyo” se definía como una “convocatoria para que un público tome medidas a fin de respaldar a una organización designada como peligrosa o la causa que esta promueve” [p. 14]. Sin embargo, el Consejo destacó que, en el momento en que se publicó el contenido, dicha información no estaba incluida en las Normas Comunitarias de acceso público ni en la actualización publicada el 23 de junio de 2021.
El Consejo también tuvo en cuenta la pauta extraviada (y no publicada), creada en 2017, para destacar que la discusión sobre las condiciones de confinamiento de un individuo designado como peligroso estaba permitida y no constituía apoyo. El Consejo observó que la política de Facebook de eliminar por defecto el contenido que mostraba “apoyo” a las personas designadas, mientras mantenía ocultas al público las excepciones clave, permitió que el error pasara desapercibido para la empresa, sin ninguna rendición de cuentas, durante aproximadamente tres años. Por lo tanto, en este caso, el Consejo determinó que, incluso sin tener en cuenta la pauta extraviada, el contenido no debería haber sido eliminado por constituir una forma de “apoyo”, ya que el usuario solo animaba a la gente a discutir sobre el aislamiento de Öcalan a través de huelgas de hambre, protestas, acciones legales, artículos de opinión, grupos de lectura y memes. Por lo tanto, el Consejo consideró que la eliminación del contenido no contribuia al objetivo de la política de prevenir e impedir daños en el mundo real.
Cumplimiento de los valores de Facebook
El Consejo consideró que la decisión de Facebook de retirar el contenido no satisfacía los valores de “Expresión” y “Seguridad” de Facebook. Este explicó que el usuario pretendía poner de manifiesto posibles violaciones de derechos humanos, y que cuestionar tales violaciones era fundamental para el valor “Expresión”. Además, el Consejo señaló que, si bien el valor de la “Seguridad” estaba teóricamente comprometido, dado que el contenido se refería a un individuo designado como peligroso, la eliminación de la publicación no atendía a ningún problema claro de “Seguridad”, ya que el contenido no incluía lenguaje que incitara o abogara por el uso de la violencia. En cambio, el Consejo consideró que la decisión de Facebook suprimía ilegítimamente la voz de una persona que planteaba un problema de derechos humanos.
Cumplimiento de las responsabilidades de Facebook en materia de derechos humanos
El Consejo recordó que los debates sobre las condiciones de detención de una persona, y las presuntas violaciones de sus derechos humanos bajo custodia, son un tipo de expresión protegida por el artículo 19 del PIDCP. También señaló que los organismos internacionales han planteado preocupaciones en materia de derechos humanos sobre las prácticas que pretenden poner de manifiesto las preocupaciones sobre el confinamiento solitario y prolongado de una persona. Para desentrañar si la restricción de la libertad de expresión, por parte de Facebook al eliminar el contenido, estaba justificada, el Consejo procedió a emplear el test tripartito previsto en el artículo 19 del PIDCP.
I. Legalidad
El Consejo citó estándares en materia de derechos humanos que establecen que las restricciones a la expresión deben formularse con suficiente precisión para que las personas comprendan lo que está prohibido y actúen en consecuencia. En opinión del Consejo, aunque Facebook había proporcionado a los revisores una amplia y confidencial orientación interna para interpretar las políticas de contenido de la empresa, no había reflejado normas esenciales sobre lo que está excluido de la definición de “apoyo” según Facebook en las normas comunitarias de cara al público.
El Consejo observó que Facebook ya ha definido públicamente los términos “representación”, “exaltación” y “apoyo” en la Norma Comunitaria sobre Personas y Organizaciones Peligrosas. Sin embargo, el Consejo observó que el Relator Especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión calificó de “excesivamente ambiguas” las prohibiciones de “exaltación” y “apoyo” impuestas por las plataformas de medios sociales (A/HRC/38/35, párr. 26; véase también: Observación General Nº 34, párr. 46) [p. 18].
II. Fin legítimo
El Consejo consideró que, dado que Facebook había revocado su decisión original tras la selección del caso por parte del Consejo, la empresa no trató de justificar que la eliminación perseguía un fin legítimo, sino que la enmarcó como un error de aplicación.
III. Necesidad y proporcionalidad
En opinión del Consejo, al revocar su decisión tras la selección del caso por parte de este, Facebook había reconocido implícitamente que la retirada del contenido no era necesaria ni proporcionada. Además, subrayó que la amplitud del término “apoyo” en las Normas Comunitarias, combinada con la errónea orientación interna sobre lo que esto excluía, significaba que se había producido una eliminación innecesaria y desproporcionada. Adicionalmente, el Consejo consideró que “[n]o se pudo demostrar que hubiese intención de incitar a la violencia ni probabilidades de que, al publicar dicha afirmación y que otras personas indiquen que les gusta en la plataforma, se ocasionarían daños” [p. 20].
Derecho a interponer recursos
El Consejo expresó varias preocupaciones sobre hechos que indicaban que Facebook no respetaba el derecho a interponer recursos —en contravención de su Política Corporativa de Derechos Humanos. En este caso, el Consejo explicó que en su momento se informó al usuario que no se podía interponer un recurso debido al COVID-19, aun cuando posteriormente se llevó a cabo una apelación.
Aunque reconoció que el contenido se restableció posteriormente, el Consejo expresó su preocupación por la posibilidad de que se hubiesen producido un número considerable de eliminaciones que no deberían haber sucedido porque Facebook extravió su pauta interna —la cual permitía conitenido sobre debates respecto a las condiciones de reclusión de las personas designadas. Del mismo modo, el Consejo consideró que los informes de transparencia de Facebook no eran suficientes para evaluar de forma significativa si el tipo de error detectado en este caso significaba que existía un problema sistémico.
Declaración de política consultiva
El Consejo, entre otras cosas, recomendó a Facebook que: “1. Restablezca de inmediato la pauta extraviada de 2017 en las normas de implementación interna y en las preguntas frecuentes (la pauta interna para moderadores de contenido). 2. Evalúe los procesos de moderación automatizados para la aplicación de la política sobre personas y organizaciones peligrosas y, cuando sea necesario, actualice los clasificadores a fin de que se excluyan datos de capacitación de errores de aplicación de políticas anteriores que ocasionaron que no se ejerza la pauta de 2017. 3. Publique los resultados del proceso de revisión en curso para determinar si se pasó por alto alguna otra política, como descripciones de todas las políticas extraviadas, [en] el período durante el cual se extraviaron y las medidas tomadas para restablecerlas. 5. Agregue a la política sobre personas y organizaciones peligrosas una explicación clara de lo que excluye el término “apoyo”. Los usuarios deberían ser libres para debatir supuestos abusos e infracciones de los derechos humanos de miembros de organizaciones designadas. 8. Se asegure de que los moderadores reciban capacitación y asesoramiento interno respecto de cualquier política nueva. 9. Garantice que los usuarios reciban una notificación cuando se elimine su contenido” [p. 24-26].
Del mismo modo, el Consejo también le indicó a Facebook que “[l]a notificación debería indicar si la eliminación se debe a una solicitud gubernamental o a una infracción de las Normas comunitarias, o bien al reclamo de un Gobierno que manifiesta que se infringió una ley nacional (y el alcance jurisdiccional de dicha eliminación). 10. Aclare a los usuarios de Instagram que las Normas comunitarias de Facebook se aplican a Instagram del mismo modo en que se aplican a Facebook. 12. Incluya información más integral respecto de las tasas de errores en la aplicación de las reglas sobre ‘exaltación’ y ‘apoyo’ de personas y organizaciones peligrosas, desglosada por región e idioma” [p. 26-27].