La política de Facebook contra el terrorismo se ensaña con comunidades musulmanas y no caucásicas

Oct 14, 2021 | Libertad de expresión

El medio The Intercept ha dado a conocer el listado de Individuos y Organizaciones Peligrosas de Facebook (DIO, por sus siglas en inglés). El documento inédito forma parte de la política con la que la compañía pretende controlar el contenido sobre terrorismo que se publica en sus plataformas y se ha convertido en un sistema sin rendición de cuentas que afecta de manera desproporcionada a ciertas comunidades.

Esta lista de exclusión está compuesta predominantemente por grupos de Oriente Medio, del Sudeste asiático y musulmanes considerados como terroristas, así como grupos con actividades criminales compuestos en su mayoría por personas afroamericanas e hispanas; mientras que deja de lado a milicias antigubernamentales como las de grupos extremistas caucásicos.

La lista se separa en diversas categorías: odio, crimen, terrorismo, movimientos sociales militarizados y actores no estatales violentos; las cuales se dividen en tres niveles con restricciones que varían en severidad.

De acuerdo a la política de Facebook, ninguna persona u organización enlistada puede tener una presencia en la red social, incluyendo a individuos que afirman representar o pertenecer a alguno de estos grupos.

Por su parte, los niveles de restricción establecen cómo cualquier persona usuaria de Facebook puede compartir contenido acerca de estas agrupaciones. Un análisis de estos niveles muestra que las restricciones son más severas cuando se refieren a grupos o individuos musulmanes. Esto podría deberse, en buena medida, a las fuentes que utiliza Facebook para hacer sus reportes: el gobierno de Estados Unidos, el Consorcio de Análisis e investigación del Terrorismo, entre otras.

A nivel interno, la política no es clara ni siquiera para quienes hacen moderación de contenido para la red social, ya que las personas “luchan por reconocer el discurso político y la condenación, los cuales son contextos permisibles”, aseguró un moderador entrevistado por el medio.

Analistas señalaron que la política tiende a fallar, por ejemplo, con las representaciones ficticias de personajes incluidos en la lista de exclusión, a menos que contengan un contexto de “condena” o “informativo”. Esto implica que compartir una imagen de Taika Waititi vestido de Hitler o el meme de Wagner Moura como Pablo Escobar podrían provocar que te bloqueen la cuenta.

Para Faiza Patel, del Centro Brenan para la Justicia, estas reglas representan un riesgo severo para el debate político y a la libertad de expresión, ya que para muchas personas, los grupos enlistados son parte de su contexto diario y deberían poderlo discutir libremente.

“Cuando una gran plataforma global alínea sus políticas con las de Estados Unidos […], está simplemente recreando esos mismos diferenciales de poder y quitándoles la agencia de grupos e individuos ya vulnerables”, explicó Jillian York, directora de libertad de expresión internacional para Electronic Frontier Foundation.


Imagen de BeauGiles (CC BY 2.0)

Publicaciones relacionadas

Exigimos que las personas puedan #migrarsinvigilancia: ¡No a la recolección e intercambio masivo de datos biométricos de personas migrantes!

Exigimos que las personas puedan #migrarsinvigilancia: ¡No a la recolección e intercambio masivo de datos biométricos de personas migrantes!

En mayo de este año, más de 35 organizaciones de derechos humanos enviamos una carta a Amazon Web Services (AWS) para pedirle que termine su acuerdo para albergar la base de datos de tecnología de reconocimiento avanzado nacional (Homeland Advanced Recognition Technology o HART) del Departamento de Seguridad Nacional de los Estados Unidos (DHS por sus siglas en inglés). Aún no recibimos respuesta.

Meta utiliza un doble estándar para moderar contenidos relacionados a conflictos bélicos

Meta utiliza un doble estándar para moderar contenidos relacionados a conflictos bélicos

Personas usuarias de Facebook e Instagram en Palestina han criticado que las plataformas están censurando contenidos que documentan los ataques aéreos de Israel en la Franja de Gaza por “violar sus normas comunitarias”, al mismo tiempo que Meta ha instruido a sus moderadores de contenido a tratar excepcionalmente imágenes de contenido violento de la guerra en Ucrania.

Comisión del caso Ayotzinapa vincula a SEDENA con el uso de Pegasus

Comisión del caso Ayotzinapa vincula a SEDENA con el uso de Pegasus

El Informe de la Presidencia de la Comisión para la Verdad y Acceso a la Justicia del Caso Ayotzinapa (Covaj), publicado el jueves 18 de agosto, vincula a la Secretaría de la Defensa Nacional (SEDENA) con el uso del malware Pegasus en intervenciones de comunicaciones relacionadas con la desaparición forzada de los estudiantes normalistas.

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

Durante las últimas semanas, desde R3D: Red en Defensa de los Derechos Digitales hemos solicitado que se nos incluya en distintos espacios coordinados u organizados directamente por el Instituto Nacional Electoral en los que se discute sobre el voto electrónico y el voto por Internet, tales como la Cumbre Mundial de la Democracia, a celebrarse el mes de septiembre en México, así como el foro “Voto electrónico en México, la transición tecnológica de la democracia”, organizado por la Consejera Carla Humphrey, que tendrá lugar esta semana.

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Una base de datos con cerca de 1.4 GB de información personal de clientes de Banorte fue filtrada en un sitio web, alertó Brian Krebs, periodista de investigación especializado en delitos informáticos. Krebs denunció en Twitter que la base de datos fue filtrada por el administrador de un foro dedicado a la venta de este tipo de archivos.