Caso del Consejo Asesor de Contenido sobre la suspensión del ex presidente Trump

Cerrado Resultado mixto

Key Details

  • Tipo de Expresión
    Comunicaciones electrónicas o a través de Internet
  • Fecha de la decisión
    mayo 5, 2021
  • Decisión
    Agreed with Meta’s initial decision
  • Número del caso
    2021-001-FB-FBR
  • Región y País
    Estados Unidos, Internacional
  • Órgano Judicial
    Oversight Board
  • Régimen Jurídico
    International Human Rights Law, Meta’s content policies
  • Temas
    Facebook Community Standards, Dangerous Individuals and Organizations, Violence And Criminal Behavior
  • Palabras clave
    Incitación, Discurso Político, Oversight Board Policy Advisory Statement, Disinformation, Meta Newsworthiness allowance

Content Attribution Policy

Global Freedom of Expression is an academic initiative and therefore, we encourage you to share and republish excerpts of our content so long as they are not used for commercial purposes and you respect the following policy:
  • Attribute Columbia Global Freedom of Expression as the source.
  • Link to the original URL of the specific case analysis, publication, update, blog or landing page of the down loadable content you are referencing.
Attribution, copyright, and license information for media used by Global Freedom of Expression is available on our Credits page.

This case is available in additional languages:    View in: English

Analisis de Caso

Resumen y resultado del caso

El Consejo Asesor de Contenido confirmó la decisión de Facebook de restringir el acceso del entonces presidente Donald Trump a la publicación de contenidos en Facebook e Instagram. El 6 de enero de 2021, durante el recuento de los votos electorales para las elecciones presidenciales de Estados Unidos de 2020, una multitud de personas entró por la fuerza en el Capitolio de Washington D.C. Cinco personas murieron y varias resultaron heridas durante los actos de violencia. Durante estos sucesos, el entonces presidente Donald Trump publicó dos contenidos: un vídeo en Facebook e Instagram, seguido de una declaración escrita en Facebook. Facebook consideró que los contenidos infringían sus políticas de contenidos y, por tanto, decidió eliminarlos y suspender su cuenta durante 24 horas.

El Consejo aplicó un test tripartito para analizar la decisión de Facebook de imponer restricciones a la libertad de expresión restringiendo el acceso del Sr. Trump a las cuentas. Sin embargo, el Consejo también hizo recomendaciones en materia de política para que Facebook las aplique en el desarrollo de políticas claras, necesarias y proporcionadas que promuevan la seguridad pública y respeten la libertad de expresión.

*El Consejo Asesor de Contenido es una entidad separada de Meta y aportará su criterio independiente tanto en casos individuales como en cuestiones de política. Tanto el Consejo como su administración están financiadas por un fondo fiduciario independiente. El Consejo tiene autoridad para decidir si Facebook e Instagram deben permitir o eliminar contenidos. Estas decisiones son vinculantes, a menos que su aplicación infrinja la ley. El Consejo también puede decidir emitir recomendaciones sobre las políticas de contenidos de la empresa.

 


Hechos

El 6 de enero de 2021, durante el recuento de los votos electorales para las elecciones presidenciales de Estados Unidos de 2020, una multitud de personas entró por la fuerza en el edificio del Capitolio en Washington, D.C., donde se llevaba a cabo el recuento de boletas. Esta violencia puso en peligro el proceso constitucional. Durante estos sucesos, cinco personas murieron y muchas más resultaron heridas.

Antes del 6 de enero, el entonces presidente Donald Trump afirmó, sin pruebas, que la oposición había robado las elecciones presidenciales de noviembre de 2020. La campaña de Trump planteó estas afirmaciones ante los tribunales con escasas o nulas pruebas, pero fueron rechazadas sistemáticamente. Además, tras una investigación, el entonces fiscal general declaró que no se había cometido fraude «en una medida que podría haber generado un resultado diferente en las elecciones». No obstante, el Sr. Trump siguió haciendo estas afirmaciones infundadas a través de las redes sociales. En concreto, publicó dos comentarios en su página de Facebook que hacían referencia a una manifestación programada para el 6 de enero.

El 19 de diciembre de 2020, la página de Facebook de Trump publicó: «Peter Navarro publicó un informe de 36 páginas que asegura que el fraude electoral es ‘más que suficiente’ para adjudicar la victoria a Trump. Excelente informe de Peter. Es estadísticamente imposible que hayamos perdido las elecciones de 2020. Multitudinaria manifestación en D.C. el 6 de enero. Los esperamos. ¡Será una locura!». [p. 9.]

El 1 de enero de 2021, la página de Facebook de Trump publicó: «GRAN manifestación de protesta en Washington, D. C. el 6 de enero a las 11:00. Próximamente publicaremos detalles de la ubicación. ¡Detengan el robo!» [p. 9].

En la mañana del 6 de enero de 2021, el Sr. Trump asistió a una manifestación cerca de la Casa Blanca y pronunció un discurso en el que continuó haciendo afirmaciones infundadas de que había ganado las elecciones. Durante sus comentarios, sugirió que el vicepresidente Mike Pence debería anular la victoria del presidente electo Joe Biden, una facultad que el Sr. Pence no tenía. Además, afirmó: «detendremos el robo» y «vamos al Capitolio» [p. 9].

Tras el discurso del ex presidente, muchas/os asistentes a la manifestación marcharon hacia el edificio del Capitolio de Estados Unidos, donde se unieron a otras/os manifestantes ya congregadas/os. Durante los disturbios, muchas de las personas reunidas atacaron a la seguridad del Capitolio, entraron violentamente en el edificio y se amotinaron en el Capitolio. El Sr. Pence y otros diez miembros del Congreso corrieron grave peligro de sufrir actos de violencia focalizada. Cinco personas murieron y muchas resultaron heridas.

A las 4:21 pm EST, durante los disturbios, el Sr. Trump publicó un vídeo en Facebook e Instagram que decía: «Sé que les duele. Sé que se sienten heridos. Nos robaron las elecciones. Fue un triunfo aplastante y todos lo saben, en especial los del lado contrario, pero es hora de ir a casa. Debemos tener paz. Debemos demostrar ley y orden. Debemos respetar a nuestra maravillosa gente con ley y orden. No queremos que nadie salga herido. Son tiempos muy difíciles. Nunca hubo otra ocasión como esta en la que algo así sucediera, en la que hayan podido arrebatárnosla, a mí, a ustedes, al país. Esta fue una elección fraudulenta, pero no podemos actuar de manera que favorezca a estas personas. Debemos tener paz. Así que vayan a casa. Los amamos. Son muy especiales. Ya vieron lo que sucede. Vieron la forma tan vil y malvada en que tratan a otras personas. Sé cómo se sienten. Pero váyanse a casa y háganlo en paz» [p.10].

A las 5:41 pm EST, Facebook eliminó esta publicación por infringir su norma comunitaria sobre personas y organizaciones peligrosas.

A las 6:07 pm EST, mientras la policía estaba resguardando el Capitolio, el Sr. Trump publicó una declaración escrita en Facebook: «Estas son las cosas y los acontecimientos que pasan cuando una victoria aplastante y sagrada en las elecciones se arrebata de forma tan feroz y abrupta a los grandes patriotas que recibieron un trato terriblemente injusto por tanto tiempo. Vayan a casa con amor y en paz. ¡Recuerden este día siempre!». [p. 11].

A las 6:15 pm EST, ocho minutos después de la publicación, Facebook la eliminó por violar su norma comunitaria sobre personas y organizaciones peligrosas. Además, la plataforma impidió a Trump publicar en Facebook o Instagram durante 24 horas.

El Distrito de Columbia declaró la emergencia pública el 6 de enero y la prorrogó hasta el 21 de ese mismo mes.

El 7 de enero, tras revisar de nuevo las publicaciones del Sr. Trump, sus recientes comunicaciones fuera de Facebook e información adicional sobre la gravedad de la violencia en el Capitolio, Facebook amplió el bloqueo «de forma indefinida y al menos durante las siguientes dos semanas, hasta que el traspaso de poderes se haya completado de forma pacífica» [p. 11]. Además, Facebook afirmó que Trump «hizo uso de nuestra plataforma para incitar la insurrección violenta contra un gobierno elegido de manera democrática» [p. 11].

El 16 de enero de 2021, un participante de los disturbios fue entrevistado en el Washington Post: «Creía que estaba siguiendo a mi presidente. Él nos convocó. Él nos pidió que fuéramos. Así que hice lo que nos pidió». Un vídeo captó a un manifestante en la escalinata del Capitolio gritando a un agente de policía: «¡Nos invitaron! ¡El presidente de los Estados Unidos nos convocó!». [p. 11].

El 21 de enero, un día después de que el Sr. Trump dejara de ser presidente de los Estados Unidos, Facebook anunció que había remitido este caso al Consejo Asesor de Contenido. En su escrito, Facebook preguntaba al Consejo si había decidido correctamente el 7 de enero prohibir el acceso del Sr. Trump a la publicación de contenidos en Facebook e Instagram por tiempo indefinido. Además, la plataforma solicitó recomendaciones sobre las suspensiones cuando el usuario es un dirigente político.

El 27 de enero, el Departamento de Seguridad Nacional (DHS) emitió un boletín del Sistema Nacional de Alerta contra el Terrorismo en el que advertía de un «entorno de violencia exacerbada en los Estados Unidos, que el DHS cree que continuará en las semanas posteriores a la exitosa investidura presidencial» [p. 10]. Afirmaba que «los factores que impulsan la violencia seguirán vigentes durante principios de 2021, y algunas personas [extremistas violentos locales] podrían verse incentivadas por la irrupción violenta en el Capitolio el 6 de enero de 2021 en Washington, D. C., con el objetivo de atacar a funcionarios electos y acometer contra las instalaciones del Gobierno» [p. 11].


Análisis de la Decisión

La cuestión principal que analizó el Consejo Asesor de Contenido fue si la decisión de Facebook de prohibir el acceso de Donald J. Trump a la publicación de contenidos en Facebook e Instagram por tiempo indefinido era coherente con las normas comunitarias de la plataforma; los valores, específicamente su compromiso con la expresión y la seguridad; y las responsabilidades en materia de derechos humanos.

El Centro Estadounidense por el Derecho y la Justicia y un administrador de la página en nombre del Sr. Trump presentaron una declaración al Consejo. A través del escrito, solicitaron al Consejo que revocara la suspensión indefinida de la cuenta de Facebook del expresidente de Estados Unidos. También consideraron inconcebible que cualquiera de las publicaciones pudiera considerarse una amenaza para la seguridad pública o una incitación a la violencia. Del mismo modo, comentaron que había una «total ausencia de un vínculo importante entre el discurso de Trump y la irrupción en el Capitolio» [p. 16].

Además, argumentaron que las razones de Facebook para imponer las restricciones no podían estar relacionadas con la seguridad, ya que «todo contenido que se sospeche que afecta la seguridad debe guardar un vínculo directo y evidente con el riesgo real de violencia» [p. 17]. Asimismo, afirmaron que el discurso del Sr. Trump durante la manifestación no violaba la norma comunitaria sobre personas y organizaciones peligrosas y que el discurso político del 6 de enero «nunca ‘proclamó una misión violenta’, un riesgo que se encuentra en el centro mismo de la política de Facebook» [p. 17]. En el comunicado, los representantes del Sr. Trump alegaron que la norma comunitaria sobre violencia e incitación de Facebook no fundamentaba la suspensión de la cuenta de Facebook del expresidente, ya que las dos publicaciones «fueron un mero llamado a la paz y la seguridad». Sostuvieron que «ninguna de las palabras en el discurso del sr. Trump podría interpretarse de forma razonable como una incitación a la violencia o la anarquía si se considera el verdadero el contexto» [p. 17].

Además, en el escrito expresaron que emplear decisiones de contenido basadas en lo que parece razonable o en cómo reaccionaría una persona razonable ante ese contenido era insuficiente. En su opinión, Facebook debería «considerar elevar mucho más el estándar» [p. 16]. Además, mencionaron que la Corte Suprema exige un escrutinio estricto para las leyes que limitan el discurso político y que Facebook tenía una posición dominante en el mercado. También debatieron las normas constitucionales que abordan la incitación a la violencia. Afirmaron que preservar la seguridad pública era un objetivo legítimo, pero que el discurso de Trump no planteaba problemas de seguridad. En cuanto a la necesidad y la proporcionalidad, negaron la validez de las restricciones y afirmaron que la sanción fue desproporcionada.

La declaración concluía con sugerencias sobre las recomendaciones normativas del Consejo en materia de suspensiones cuando el usuario es un dirigente político. Por último, argumentó que el Consejo debería remitirse a los principios jurídicos del Estado en el que gobierna el dirigente.

En su escrito, Facebook declaró que había retirado los dos contenidos publicados el 6 de enero de 2021 por infringir la norma comunitaria sobre personas y organizaciones peligrosas. En concreto, la empresa declaró que el contenido se había retirado por infringir la «política que prohíbe elogiar, apoyar y representar hechos violentos designados» [p. 19]. Facebook también señaló que contenía «una infracción de su política sobre personas y organizaciones peligrosas que prohíbe elogiar a personas que participen en actos de violencia organizada» [p. 16]. La empresa declaró que sus normas comunitarias prohíben «el contenido que expresa apoyo o elogia a grupos, líderes o personas que participan en actividades como terrorismo, violencia organizada o hechos delictivos, y que, en este caso, hubo un asalto organizado, así como actos de violencia planificados con los que se intentaba causar daños a una persona para intimidar al Gobierno a fin de lograr un fin político» [p. 19]. Facebook señaló que su evaluación reflejaba el contenido de su política y el contexto en el que se hicieron las declaraciones.

Además, Facebook comentó que en los casos en los que debe tomar una decisión de emergencia que tiene un interés general, se esfuerza por compartir su decisión y razonamiento con el público, a menudo a través de una publicación en Newsroom. Facebook declaró que normalmente no bloquea la función de las páginas para publicar o interactuar con contenidos, sino que elimina las páginas que infringen grave o repetidamente las políticas de Facebook. En el caso en cuestión, Facebook señaló que, de acuerdo con sus protocolos de aplicación habituales, inicialmente impuso un bloqueo de 24 horas a la función de publicar desde las cuentas de Facebook e Instagram. Sin embargo, tras evaluar la evolución de la situación y los nuevos detalles de la violencia en el Capitolio, llegó a la conclusión de que la prohibición de 24 horas era insuficiente para abordar «el riesgo de que Trump usara su presencia en Facebook e Instagram para contribuir al escalamiento de la violencia» [p. 20].

Facebook señaló que mantuvo la suspensión indefinida tras la toma de posesión del Sr. Biden en parte debido a un boletín del Sistema Nacional de Alerta contra el Terrorismo emitido el 27 de enero por el Departamento de Seguridad Nacional, en el que se afirmaba que la violencia relacionada con el Sr. Trump no había cesado. Facebook también declaró que su decisión se basaba en el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos y en la Observación General Nº 34 de las Naciones Unidas sobre libertad de expresión, que permite restricciones necesarias y proporcionales a la libertad de expresión en situaciones de emergencia pública que amenacen el bienestar de un país.

Por último, Facebook sostuvo que los sucesos del 6 de enero representaban una amenaza sin precedentes para los procesos democráticos y el sistema constitucional de Estados Unidos. Sin embargo, afirmó que, aunque se esforzaba por actuar de forma proporcionada y responsable a la hora de restringir la expresión pública, dadas las circunstancias inéditas y volátiles, debía conservar la flexibilidad operativa para adoptar nuevas medidas, incluido un bloqueo permanente.

Tras la declaración de Facebook, el Consejo formuló 46 preguntas a la empresa, y Facebook se negó a responder siete en su totalidad y dos parcialmente. Las preguntas a las que Facebook no respondió incluían cómo las funciones de Facebook afectaban a la visibilidad de los contenidos del Sr. Trump y la información sobre contenido infractor de los seguidores de las cuentas del Sr. Trump. El Consejo también formuló preguntas sobre la suspensión de otras figuras políticas y la eliminación de otros contenidos. Facebook declaró que tal información no era razonablemente necesaria para la toma de decisiones según la intención del Acta constitutiva y no era técnicamente factible proporcionarla, ya que no podía entregarse por motivos legales, de privacidad, seguridad o protección de datos.

El Consejo comenzó anticipando que basaría su análisis del caso en tres normas: las políticas de contenidos de Facebook, en concreto la norma comunitaria de Facebook sobre personas y organizaciones peligrosas y la norma comunitaria de Facebook sobre violencia e incitación, así como las correspondientes normas comunitarias, y las condiciones del servicio de Facebook y las condiciones de uso de Instagram. También basaría su análisis en los valores de Facebook de «expresión», «seguridad» y «dignidad», y evaluaría la decisión de Facebook teniendo en cuenta las normas internacionales de derechos humanos aplicables a Facebook.

Cumplimiento de las políticas de contenido

Según el Consejo, la norma comunitaria de Facebook sobre personas y organizaciones peligrosas establece que los usuarios no deben publicar contenido que «exprese apoyo o elogio de grupos, líderes o personas implicadas en hechos infractores». En opinión del Consejo, ambas publicaciones elogiaban o apoyaban a personas implicadas en actos violentos. A continuación, determinó que las dos publicaciones infringían gravemente las políticas de Facebook, ya que el usuario elogiaba y apoyaba a personas implicadas en disturbios en los que murieron personas, legisladores corrían grave peligro de sufrir daños y se perturbaba un proceso democrático clave. En este sentido, teniendo en cuenta la amenaza continua de violencia y agitación, el Consejo consideró que las decisiones de Facebook de restringir el acceso del Sr. Trump a Facebook e Instagram el 6 de enero —y de ampliar esas restricciones el 7 de enero— eran necesarias y proporcionales. Sin embargo, el Consejo subrayó que la decisión de la empresa de hacer que las restricciones fueran «indefinidas» iba en contra de las normas comunitarias y violaría los principios de la libertad de expresión.

El Consejo observó la escasez de información pública detallada sobre el sistema de comprobación cruzada y la concesión de interés periodístico. Aunque Facebook declaró que se aplicaban las mismas normas a las cuentas de alto perfil y a las comunes, el Consejo consideró que los distintos procesos podían conducir a resultados sustantivos diferentes. Seguidamente, subrayó que, aunque Facebook se lo había comunicado al Consejo, no aplicó la concesión de interés periodístico a las publicaciones en cuestión en este caso. Sin embargo, la falta de transparencia respecto a estos procesos de toma de decisiones parecía contribuir a la percepción de que ciertas consideraciones políticas o comerciales podían influir indebidamente en la empresa. En consecuencia, el Consejo instó a Facebook a abordar la confusión generalizada sobre las decisiones relativas a los usuarios influyentes. Además, hizo hincapié en que las consideraciones de interés periodístico no deben ser prioritarias cuando se necesita una acción urgente para evitar un daño significativo.

Cumplimiento de los valores de Facebook

La mayoría del Consejo consideró que la aplicación de las normas comunitarias de Facebook era coherente con los valores de «expresión» y «seguridad» de la empresa. Además, el Consejo consideró que, en este caso, la protección del orden público justificaba la limitación de la libertad de expresión.

Cumplimiento de las responsabilidades de Facebook en materia de derechos humanos

El Consejo aclaró que las «decisiones del Consejo no tienen que ver con las obligaciones con los derechos humanos de los Estados ni con la aplicación de leyes nacionales, sino que deben centrarse en las políticas de contenido de Facebook, sus valores y las responsabilidades que, como empresa, asumió con los derechos humanos» [p. 25].

A continuación, el Consejo explicó que, en virtud del artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (PIDCP), que establece el derecho a la libertad de expresión, el discurso político recibe una alta protección en virtud de la legislación de derechos humanos debido a su importancia para el debate democrático. Además, el Consejo señaló que el estándar establecido por el Comité de Derechos Humanos de las Naciones Unidas sobre el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos, en la Observación general Nº 34, sostiene que la «libre comunicación de información e ideas sobre temas públicos y políticos entre ciudadanos, candidatos y representantes electos es esencial» [p. 26].

En este caso, el Consejo reconoció que la decisión de Facebook de suspender la página de Facebook del Sr. Trump y la cuenta de Instagram «no solo tiene implicaciones relacionadas con la libertad de expresión para el mismo Trump, sino también para los derechos de los demás a escuchar a líderes políticos, ya sea que los sigan o no». [p. 26]. El Consejo hizo hincapié en que, si bien las figuras políticas no tienen más derecho a la libertad de expresión que otras personas, «restringir su discurso puede perjudicar los derechos de los demás a estar informados y participar en asuntos políticos» [p. 26]. Sin embargo, el Consejo señaló que las normas internacionales de derechos humanos, principalmente a través del Plan de Acción de Rabat, «esperan que las entidades estatales condenen la violencia (…), brinden información precisa sobre temas de interés público y, al mismo tiempo, corrijan la información errónea» [p. 26].

El Consejo subrayó que el derecho internacional permite limitar la expresión cuando las restricciones cumplen tres condiciones. En primer lugar, las normas que limitan deben ser claras y accesibles; en segundo lugar, deben estar diseñadas para un objetivo legítimo; y en tercer lugar, deben ser necesarias y proporcionales al riesgo de daño que podrían causar. Posteriormente, el Consejo empleó esta prueba en tres partes para analizar las acciones de Facebook en este caso.

  1. Legalidad (claridad y accesibilidad de las normas):

El Consejo señaló que el principio de legalidad exige que cualquier regla utilizada para limitar la expresión sea clara y accesible. En este caso, el Consejo consideró que estas reglas eran las normas comunitarias de Facebook y las normas comunitarias de Instagram. Para el Consejo, el objetivo de estas políticas es, por un lado, establecer lo que la gente no puede publicar y, por otro, cuándo la empresa puede restringir el acceso a las cuentas de Facebook e Instagram.

En cuanto a la norma contra el elogio y el apoyo a personas y organizaciones peligrosas, el Consejo consideró, como ya había hecho en una decisión anterior (caso 2020-005-FB-UA), que dejaba mucho que desear. Además, el Consejo recordó su decisión en el asunto 2020-003-FB-UA para señalar que «es posible que algunas veces ciertas expresiones pueden generar preocupaciones por la legalidad, pero aplicadas en un contexto particular, dichas preocupaciones no se justifican» [p. 27]. Sostuvo que la ambigüedad de la norma no impedía su aplicación a las circunstancias del presente caso.

El Consejo consideró que los disturbios del 6 de enero en el Capitolio «entr[an] plenamente dentro de los tipos de acontecimientos dañinos establecidos en la política de Facebook, y las publicaciones del sr. Trump elogiaban y apoyaban a aquellos que estaban involucrados en el mismo momento en que ocurrían los hechos violentos, y mientras los miembros del Congreso solicitaban su ayuda» [p. 27]. En su opinión, las políticas de Facebook informaban adecuadamente al usuario y orientaban a quienes hacían cumplir la norma.

En cuanto a las penalizaciones por infracciones, el Consejo destacó que las normas comunitarias y la información relacionada con las restricciones de cuentas se publicaban en diversas fuentes. Además, remitiéndose a su decisión anterior en el caso 2020-006-FB-FBR, reiteró que «la diversidad de reglas aplicables dificulta a los usuarios entender por qué y cuándo Facebook restringe cuentas, y genera preocupaciones relativas a la legalidad» [p. 27].

Si bien el Consejo consideró que la norma sobre personas y organizaciones peligrosas era clara en las circunstancias del caso concreto, estimó que la imposición de Facebook de una restricción indefinida era confusa e incierta. En opinión del Consejo, las restricciones indefinidas no estaban descritas en las normas comunitarias. El Consejo consideró que no estaba claro qué normas desencadenarían esta sanción ni qué criterios debían emplearse para mantenerla o eliminarla. Además, el Consejo consideró que Facebook no había facilitado información sobre imposiciones anteriores de suspensiones indefinidas en otros casos. Reconoció la necesidad de cierta discrecionalidad por parte de Facebook para suspender cuentas en situaciones de urgencia como la presente, pero consideró que no se podía dejar a los usuarios en la incertidumbre durante un tiempo indefinido. Así, el Consejo rechazó la petición de Facebook de que avalara restricciones indefinidas impuestas y levantadas sin criterios claros. Además, subrayó que «[l]os límites adecuados sobre facultades discrecionales son cruciales para distinguir el uso legítimo de la discreción de escenarios posibles de todo el mundo en los que Facebook puede silenciar excesivamente la expresión no vinculada al daño o demorar medidas fundamentales para proteger a las personas» [p. 28].

  1. Fin legítimo

El Consejo recordó que la segunda parte de la prueba exige que cualquier medida que restrinja la expresión debe tener un objetivo legítimo. En opinión del Consejo, la política de Facebook que prohibe elogiar y apoyar a personas implicadas en «acontecimientos violentos», violencia o actividades delictivas, estaba en consonancia con los objetivos enumerados en la Observación general Nº 34 del Comité de Derechos Humanos de Naciones Unidas.

III. Necesidad y proporcionalidad

Por último, para definir el requisito de necesidad y proporcionalidad, el Consejo se remitió una vez más a la Observación general Nº 34 del Comité de Derechos Humanos de la ONU para indicar que cualquier restricción de la expresión debe ser, entre otras cosas, la forma menos intrusiva de alcanzar un objetivo legítimo. En relación con esta disposición, el Consejo consideró que, en la medida de lo posible, «Facebook debería usar medidas menos restrictivas para abordar el lenguaje potencialmente dañino y proteger los derechos de los demás antes de recurrir a la eliminación de contenido y la restricción de cuentas. Como mínimo, esto significaría desarrollar mecanismos efectivos para evitar intensificar el lenguaje que implica riesgos de violencia inminente, discriminación u otra acción ilegal, donde sea posible y proporcional, en lugar de prohibir la expresión por completo» [p. 29].

En sus alegatos, Facebook declaró ante el Consejo que consideraba que el «uso reiterado de Facebook y otras plataformas para socavar la confianza en la integridad de las elecciones (lo cual requirió que Facebook aplicara reiteradamente etiquetas auténticas para corregir la información errónea) representó un abuso extraordinario de la plataforma por parte del sr. Trump» [p. 29]. Sin embargo, cuando el Consejo pidió aclaraciones a la empresa sobre la medida en que las decisiones de diseño de la plataforma amplificaron las publicaciones del Sr. Trump después de las elecciones, la empresa se negó a responder si Facebook había realizado algún análisis interno sobre si tales decisiones de diseño podrían haber contribuido a los acontecimientos del 6 de enero. Para el Consejo, la falta de respuesta de la plataforma hacía difícil evaluar si medidas menos severas tomadas con anterioridad podrían haber sido suficientes para proteger los derechos de las/os demás.

Para el Consejo, la cuestión crucial era si la decisión de Facebook de restringir el acceso a las cuentas del Sr. Trump los días 6 y 7 de enero era necesaria y proporcionada para proteger los derechos de las/os demás. Para entender el riesgo planteado por las publicaciones del 6 de enero, el Consejo evaluó las publicaciones y comentarios fuera de la plataforma del Sr. Trump en Facebook e Instagram desde las elecciones de noviembre. 

El mantenimiento de una narrativa infundada de fraude electoral y los persistentes llamamientos a la acción señalaron que el Sr. Trump había creado un entorno en el que era posible un grave riesgo de violencia. El Consejo afirmó que «[e]l 6 de enero, las palabras de apoyo del sr. Trump para aquellos involucrados en el asalto legitimaron sus acciones violentas» [p. 29]. Además, sostuvo que «[s]i bien los mensajes incluían un pedido aparentemente superficial a que las personas actuaran de forma pacífica, esto fue insuficiente para apaciguar las tensiones y eliminar el riesgo de daño al cual contribuyeron sus declaraciones de apoyo» [p. 30].

A la luz de lo anterior, el Consejo consideró que, en el contexto de la escalada de tensiones en Estados Unidos y sus declaraciones en otros medios de comunicación y actos públicos, la interpretación de la empresa de los mensajes del Sr. Trump del 6 de enero era necesaria y proporcionada.

Como parte de su análisis, el Consejo se basó en los seis factores del Plan de Acción de Rabat para evaluar la capacidad del discurso para crear un riesgo grave de incitar a la discriminación, la violencia u otra acción ilegal:

  1. Contexto. El Consejo consideró que los mensajes del Sr. Trump se publicaron en un momento de gran tensión política centrada en la afirmación infundada de que la oposición había robado las elecciones presidenciales de noviembre de 2020. A pesar de que los tribunales habían rechazado sistemáticamente las afirmaciones de la campaña de Trump sobre este asunto, el entonces presidente continuó afirmando estos reclamos en las redes sociales, utilizando su condición de autoridad como jefe de Estado para dar credibilidad. Además, el Sr. Trump animó a sus seguidores a asistir a la concentración «StoptheSteal» del 6 de enero, hasta el punto de sugerir que sería «una locura». Además, el día de la manifestación, el Sr. Trump instó a los asistentes a marchar hacia el edificio del Capitolio para impugnar el recuento de los votos electorales. Según el Consejo, «[e]n el momento de las publicaciones, todavía seguía habiendo violencia grave. Cuando las restricciones se extendieron el 7 de enero, la situación seguía siendo inestable.» [p. 30]. Por último, señaló que el Distrito de Columbia tomó medidas para advertir de un mayor riesgo de violencia en torno a los acontecimientos en el Capitolio.
  2. Posición del orador. El Consejo señaló que, como presidente, el Sr. Trump gozaba de credibilidad y autoridad entre los miembros del público, lo que contribuyó a los acontecimientos del 6 de enero. En palabras del Consejo, «[l]a posición del sr. Trump como jefe de Estado con un alto nivel de confianza no solo infundió una mayor fuerza y credibilidad a sus palabras, sino que también generó el riesgo de que sus seguidores entendieran que podían actuar con impunidad» [p. 30].

III. Intención. El Consejo sostuvo que no podía evaluar las intenciones del Sr. Trump. Sin embargo, consideró que la posibilidad de violencia vinculada a las declaraciones del Sr. Trump era clara. Es probable que supiera o debiera haber sabido que sus publicaciones podían suponer un riesgo de legitimación o promoción de la violencia.

  1. Contenido y forma. Aunque las dos publicaciones pedían a los manifestantes que volvieran a sus casas pacíficamente, el Consejo consideró que, del mismo modo, elogiaban y apoyaban sus acciones. Además, consideró que los mensajes reiteraban la afirmación infundada de que las elecciones habían sido robadas, lo que algunos manifestantes entendieron como una legitimación de sus actividades. En opinión del Consejo, las pruebas demostraban que «el sr. Trump usó la autoridad comunicativa presidencial para apoyar a los atacantes del Capitolio y como un intento de evitar el recuento legítimo de votos electorales» [p. 31].
  2. Extensión y alcance. El Consejo destacó que el Sr. Trump tenía una gran audiencia, con un número de seguidores de al menos 35 millones de cuentas en Facebook y de al menos 24 millones en Instagram. También afirmó que las publicaciones en redes sociales del expresidente eran frecuentemente recogidas y compartidas más ampliamente a través de canales de medios masivos de comunicación y por sus partidarios de alto perfil con grandes audiencias, lo que aumentaba significativamente su alcance.
  3. Inminencia del daño. Dado que los mensajes se publicaron «durante un período dinámico y volátil de violencia continua» [p. 27], el Comité consideró que existía un riesgo claro e inmediato de atentar contra la vida, la integridad electoral y la participación política. En opinión del Consejo, la violencia en el Capitolio comenzó una hora después de la concentración organizada a través de Facebook y otras redes sociales. El Consejo sostuvo que «incluso mientras el sr. Trump publicaba, los manifestantes embestían los pasillos del Congreso, y los miembros del Congreso, presas del miedo, recurrían a la Casa Blanca y rogaban al presidente que calmara la situación» [p. 31]. El Consejo comentó que los disturbios interfirieron directamente en la capacidad del Congreso para cumplir con su responsabilidad constitucional de contar los votos electorales, retrasando este proceso durante varias horas.

Tras analizar estos factores, el Consejo concluyó que la violación, en este caso, era grave en cuanto a sus perjuicios para los derechos humanos. Justificó la decisión de Facebook de imponer restricciones a las cuentas del Sr. Trump el 6 de enero. Además, sostuvo que, dada la gravedad de las violaciones y el riesgo continuo de violencia, Facebook estaba justificado para imponer restricciones en la cuenta y ampliarlas el 7 de enero.

Sin embargo, el Consejo consideró inadecuado que Facebook impusiera una suspensión indefinida. El Consejo sostuvo que no estaba permitido que Facebook mantuviera a un usuario fuera de la plataforma durante un periodo indefinido, sin ningún criterio sobre cuándo o si la empresa restablecería la cuenta. Además, subrayó que «[l]a función de Facebook es crear y comunicar penalizaciones necesarias y proporcionales que se apliquen en respuesta a infracciones graves de sus políticas de contenido» [p. 33]. Al mismo tiempo, recordó que la función del Consejo «es garantizar que las reglas y los procesos de Facebook sean coherentes con sus políticas de contenido, sus valores y los compromisos asumidos con los derechos humanos» [p. 33].

Por tanto, al aplicar una sanción indeterminada y sin fundamente normativo, y remitir después el caso al Consejo para que la resolviera, Facebook trató de eludir sus responsabilidades. Así, el Consejo Asesor de Contenido rechazó la petición de la empresa e insistió en que debía aplicar y justificar una sanción definida.

Además, el Consejo sostuvo que, en un plazo de seis meses a partir de esta decisión, Facebook debía reexaminar la sanción arbitraria que impuso el 7 de enero y determinar una penalización adecuada. Aclaró que dicha sanción se basa en la gravedad de la infracción y la perspectiva de daños futuros y es coherente con las normas de Facebook para infracciones graves, que deben ser, a su vez, transparentes, necesarias y proporcionadas.

Por último, el Consejo consideró que si Facebook determinaba que las cuentas del Sr. Trump debían restablecerse, la empresa debía aplicar sus normas a esa decisión, abordar cualquier otra infracción de manera inmediata y seguir sus políticas de contenido establecidas.

Declaración política consultiva:

El Consejo limitó su orientación a cuestiones de seguridad pública. En su declaración consultiva sobre políticas, el Consejo formuló varias recomendaciones para orientar las políticas de Facebook en relación con los riesgos graves de daño por parte de líderes políticos y otras figuras influyentes. El Consejo afirmó que no siempre es práctico establecer una distinción firme entre líderes políticos y otros usuarios influyentes, reconociendo que otros usuarios con grandes audiencias también pueden contribuir a riesgos graves de daños.

Aunque deberían aplicarse las mismas normas a todos los usuarios, el Consejo explicó que el contexto es importante a la hora de evaluar la probabilidad y la inminencia del daño. Cuando las publicaciones de usuarios influyentes plantean una alta probabilidad de daño inminente, Facebook debe actuar con rapidez para aplicar sus normas. Aunque Facebook explicó que en este caso no había aplicado su concesión de “interés periodístico”, el Consejo solicitó a Facebook que abordara la confusión generalizada sobre cómo se toman las decisiones relativas a los usuarios influyentes. El Consejo subrayó que las consideraciones de interés periodístico no deben tener prioridad cuando se necesita una acción urgente para prevenir un daño significativo.

En opinión del Consejo, Facebook debería explicar públicamente sus normas cuando impone sanciones en en la cuenta de usuarios influyentes. Asimismo, sugirió que dichas normas garanticen que cuando Facebook imponga una suspensión limitada en el tiempo a la cuenta de un usuario influyente para reducir el riesgo de daño significativo, evaluara si el riesgo ha remitido antes de que finalice la suspensión.

El Consejo señaló que los jefes de Estado y otros altos cargos gubernamentales podrían tener un mayor poder para causar daño que otras personas. Asimismo, indicó que si un jefe de Estado o alto cargo del gobierno ha publicado repetidamente mensajes que suponen un riesgo de daño según las normas internacionales de derechos humanos, Facebook debe suspender la cuenta durante un periodo suficiente para proteger de un daño inminente. Los períodos de suspensión deben ser lo suficientemente largos como para disuadir de conductas indebidas y, en los casos apropiados, pueden incluir la eliminación de la cuenta o de la página.

Opiniones discrepantes o concurrentes:

Una minoría del Consejo consideró necesario esbozar algunos criterios mínimos que reflejen la evaluación del Consejo sobre las responsabilidades de Facebook en materia de derechos humanos.

Mientras que la mayoría decidió proporcionar esta orientación como una recomendación política, la minoría señaló que las responsabilidades de Facebook de respetar los derechos humanos incluyen facilitar la reparación de los impactos adversos sobre los derechos humanos a los que ha contribuido. Asimismo, consideraron que para cumplir con su responsabilidad de garantizar que los efectos adversos no se repitan, Facebook debería haber evaluado si el restablecimiento de las cuentas del Sr. Trump planteaba un riesgo grave de incitar a la discriminación inminente, la violencia u otra acción ilegal.

Además, la minoría consideró que los procedimientos de aplicación de políticas de Facebook eran rehabilitadores, y la minoría cree que este objetivo se ajusta bien al principio de satisfacción de la legislación sobre derechos humanos. Así, subrayaron que las normas de Facebook deben garantizar que los usuarios que soliciten su reincorporación tras una suspensión, reconozcan su mala conducta y se comprometan a respetar las normas en el futuro. En este caso, la minoría sugirió que, antes de que la empresa pueda restablecer la cuenta del Sr. Trump, Facebook debe tener como objetivo correspondiente garantizar la retirada de los elogios o el apoyo a los implicados en los disturbios.


Impacto de la decisión

Información Inmediata

El Impacto de la Decisión indica si la decisión expande o restringe la expresión basado en el análisis del caso.

Resultado mixto

La decisión del Consejo amplía la expresión al sostener que no era apropiado que Facebook impusiera una suspensión indefinida de la cuenta del Sr. Trump, principalmente cuando se impone y levanta sin normas claras. El Consejo consideró que los límites razonables a los poderes discrecionales son cruciales para distinguir el uso legítimo de la discreción en los posibles escenarios en todo el mundo en los que Facebook puede silenciar indebidamente la expresión no vinculada al daño o retrasar la acción crítica para proteger a las personas.

Si bien Facebook restringió la expresión al imponer restricciones al Sr. Trump, lo hizo en virtud de una limitación justificada y reconocida de la libertad de expresión. El Consejo consideró que las publicaciones violaban las políticas de contenido de la empresa y las normas internacionales de derechos humanos sobre libertad de expresión. En concreto, al emplear el test tripartito establecido en el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos, el derecho internacional permite limitar la expresión cuando se cumplen tres requisitos. Dado que las acciones de Facebook cumplían los criterios, el Consejo determinó que Facebook tenía justificación para imponer restricciones a nivel de cuenta.

Perspectiva Global

Información Inmediata

La Perspectiva Global demuestra cómo la decisión de la corte fue influenciada por normas de una o más regiones.

Table of Authorities

Normas jurídicas Internacionales o Regionales relacionadas

  • ICCPR, art. 2

    El Consejo Asesor de Contenido se refirió marginalmente a este artículo para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • ICCPR, art. 6

    El Consejo Asesor de Contenido se refirió marginalmente a este artículo para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • ICCPR, art. 9

    El Consejo Asesor de Contenido se refirió marginalmente a este artículo para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • ICCPR, art. 19

    El Consejo Asesor de Contenido analizó las responsabilidades de Facebook en materia de derechos humanos a través de este precepto sobre la libertad de expresión y empleó la prueba de tres partes establecida en este artículo para evaluar si las acciones de Facebook permitían limitar la expresión; el Consejo Asesor de Contenido se remitió a la Observación General para obtener orientación.

  • ICCPR, art. 20

    El Consejo Asesor de Contenido se refirió marginalmente a este artículo para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • ICCPR, art. 25

    El Consejo Asesor de Contenido hizo una referencia marginal a este artículo para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • ICERD, art. 2

    La minoría del Consejo Asesor de Contenido se refirió a la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial para subrayar el compromiso de Facebook de respetar el derecho a la no discriminación en consonancia con los requisitos de restricción del derecho a la libertad de expresión para impedir el uso de sus plataformas para la apología del odio racial o nacional que constituya incitación a la hostilidad, la discriminación o la violencia.

  • UNGPs, principle 11

    El Consejo Asesor de Contenido se refirió marginalmente a este principio para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • UNGPs, principle 13

    El Consejo Asesor de Contenido hizo una referencia marginal a este principio para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • UNGPs, principle 15

    El Consejo Asesor de Contenido hizo una referencia marginal a este principio para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • UNGPs, principle 18

    El Consejo Asesor de Contenido hizo una referencia marginal a este principio para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • UNGPs, principle 19

    El Consejo Asesor de Contenido hizo una referencia marginal a este principio para destacar las responsabilidades de Facebook en materia de derechos humanos como empresa.

  • UNGPs, principle 22

    La minoría señaló que las responsabilidades de Facebook de respetar los derechos humanos incluyen facilitar la reparación de los impactos adversos sobre los derechos humanos a los que ha contribuido, como se establece en este principio.

  • UNHR Comm., General Comment No. 31 (2004)

    La Comisión se remitió a la interpretación de la Observación General para analizar el derecho a reparación.

  • UNHR Comm., General Comment No. 34 (CCPR/C/GC/34)

    Al emplear la prueba de las tres partes para evaluar si las acciones de Facebook permitían limitar la expresión, el Consejo se remitió a la Observación General en busca de orientación.

  • OHCHR, Rabat Plan of Action on the prohibition of advocacy of national, racial or religious hatred that constitutes incitement to discrimination, hostility or violence (2011).

    Como parte de su análisis, el Consejo se basó en los seis factores del Plan de Acción para evaluar la capacidad del discurso para crear un riesgo grave de incitar a la discriminación, la violencia u otra acción anárquica.

  • Rapporteur on freedom of opinion and expression, A/HRC/38/35 (2018)

    El Consejo hizo referencia al informe para subrayar que el Relator para la Libertad de Expresión había expresado su preocupación por la vaguedad de la norma comunitaria de personas y organizaciones peligrosas de Facebook.

  • OHCHR, Joint Statement of international freedom of expression monitors on COVID-19 (March, 2020)

    El Consejo se refirió marginalmente a la Declaración Conjunta para subrayar que los derechos internacionales esperan que los actores estatales proporcionen información precisa al público sobre asuntos de interés público, corrigiendo al mismo tiempo la información errónea.

Notas Generales sobre el Derecho

Al referirse a esta decisión, el Consejo subrayó que la claridad de la Norma contra la alabanza y el apoyo a Personas y Organizaciones Peligrosas dejaba mucho que desear.

El Consejo recordó que, como se señaló en la decisión sobre este caso, puede haber ocasiones en las que determinadas formulaciones susciten dudas de legalidad, pero que, aplicadas a un caso concreto, esas dudas no están justificadas.

  • Afirmación sobre la existencia de una cura para el COVID-19 (2020-006-FB-FBR)

Al referirse a este caso, el Consejo reiteró que el mosaico de normas aplicables dificulta que los usuarios entiendan por qué y cuándo Facebook restringe las cuentas y plantea problemas de legalidad.

Importancia De La Decisión

Información Inmediata

La importancia del caso se refiere a cuán influyente es el caso y cómo su importancia cambia con el tiempo.

La decisión tiene un efecto vinculante o persuasivo dentro de su jurisdicción.

El artículo 2 del Acta constitutiva del Consejo Asesor de Contenido establece: «[p]ara cada decisión, cualquier decisión anterior del Consejo tendrá valor de precedente y deberá considerarse altamente persuasiva cuando los hechos, las políticas aplicables u otros factores sean sustancialmente similares». Además, el artículo 4 del Acta constitutiva del Consejo establece: «La resolución de la junta en cada caso será vinculante y Meta la aplicará sin demora, a menos que la aplicación de una resolución pueda infringir la ley. En los casos en que Meta identifique que un contenido idéntico con un contexto paralelo –sobre el que el consejo ya ha decidido– permanece en Meta, actuará analizando si es técnica y operativamente factible aplicar la decisión del consejo también a ese contenido. Cuando una decisión o una opinión consultiva sobre una política incluya recomendaciones, Meta tomará medidas adicionales analizando los procedimientos operativos necesarios para aplicar las recomendaciones, teniendo en cuenta dichas recomendaciones en el proceso formal de desarrollo de políticas de Meta y comunicando de forma transparente las medidas adoptadas en consecuencia.

Enlace a los documentos oficiales del caso

Enlace a los documentos oficiales del caso:


Amicus/Intervenciones Ciudadanas e intervenciones relevantes de otras autoridades nacionales


Archivos Adjuntos:

¿Tienes comentarios?

Notifícanos si detectas un error o si el análisis sobre un caso necesita ser revisado.

Envía tu comentario