Meta revierte 14 decisiones de moderación de contenido tras revisión del Consejo Asesor

Ago 9, 2022 | Libertad de expresión

Tan solo en el primer trimestre de 2022, Meta revirtió 14 de 20 decisiones sobre moderación de contenido que fueron presentadas por el Consejo Asesor de Contenido (Oversight Board) al considerar que su primera determinación había sido errada, removiendo cuatro publicaciones y restaurando 10 en Facebook e Instagram.

De acuerdo con el último Reporte de Transparencia del Consejo, esta cifra de decisiones revertidas (70 por ciento) representa un incremento sustancial de errores en la moderación de contenido de sus plataformas frente a los 51 de 130 casos revertidos (38 por ciento) entre el último trimestre del año 2020 y el último de 2021.

Aunque esta puede parecer una muestra muy pequeña, el Consejo Asesor se enfoca únicamente en casos muy difíciles que se consideran pueden tener un impacto a gran escala o de importancia para el discurso público.

Este incremento no es el único que muestra el Reporte de Transparencia. El número de casos que fueron enviados al Consejo Asesor para su revisión pasó de 288 mil 440 casos en el último trimestre de 2021, a 480 mil casos entre enero y marzo de 2022.

De los miles de casos enviados a revisión por el Consejo Asesor, 44 por ciento correspondieron a contenido que Meta removió por infringir sus reglas sobre “violencia e incitación”, que creció alrededor de 15 por ciento desde finales de 2021 y 35 por ciento desde finales de 2020. Meta considera este tipo de contenido como el lenguaje “incita a cometer actos graves de violencia o los hace posibles”.

Estas cifras concuerdan con las de Meta, que reportó un incremento en el número de contenido sobre el que tomó acción por infringir sus reglas sobre violencia e incitación, ya que pasó de 12.4 millones en el último trimestre de 2021 a 21.7 millones el primer trimestre de 2022.

En octubre de 2020, el Consejo Asesor de Contenido de Facebook entró en operaciones, con el objetivo de tener una instancia de revisión independiente que pudiera analizar las decisiones sobre contenido de las plataformas de Meta y sus impactos en las personas usuarias y la sociedad con una perspectiva de derechos humanos.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas

Exigimos que las personas puedan #migrarsinvigilancia: ¡No a la recolección e intercambio masivo de datos biométricos de personas migrantes!

Exigimos que las personas puedan #migrarsinvigilancia: ¡No a la recolección e intercambio masivo de datos biométricos de personas migrantes!

En mayo de este año, más de 35 organizaciones de derechos humanos enviamos una carta a Amazon Web Services (AWS) para pedirle que termine su acuerdo para albergar la base de datos de tecnología de reconocimiento avanzado nacional (Homeland Advanced Recognition Technology o HART) del Departamento de Seguridad Nacional de los Estados Unidos (DHS por sus siglas en inglés). Aún no recibimos respuesta.

Meta utiliza un doble estándar para moderar contenidos relacionados a conflictos bélicos

Meta utiliza un doble estándar para moderar contenidos relacionados a conflictos bélicos

Personas usuarias de Facebook e Instagram en Palestina han criticado que las plataformas están censurando contenidos que documentan los ataques aéreos de Israel en la Franja de Gaza por “violar sus normas comunitarias”, al mismo tiempo que Meta ha instruido a sus moderadores de contenido a tratar excepcionalmente imágenes de contenido violento de la guerra en Ucrania.

Comisión del caso Ayotzinapa vincula a SEDENA con el uso de Pegasus

Comisión del caso Ayotzinapa vincula a SEDENA con el uso de Pegasus

El Informe de la Presidencia de la Comisión para la Verdad y Acceso a la Justicia del Caso Ayotzinapa (Covaj), publicado el jueves 18 de agosto, vincula a la Secretaría de la Defensa Nacional (SEDENA) con el uso del malware Pegasus en intervenciones de comunicaciones relacionadas con la desaparición forzada de los estudiantes normalistas.

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

Durante las últimas semanas, desde R3D: Red en Defensa de los Derechos Digitales hemos solicitado que se nos incluya en distintos espacios coordinados u organizados directamente por el Instituto Nacional Electoral en los que se discute sobre el voto electrónico y el voto por Internet, tales como la Cumbre Mundial de la Democracia, a celebrarse el mes de septiembre en México, así como el foro “Voto electrónico en México, la transición tecnológica de la democracia”, organizado por la Consejera Carla Humphrey, que tendrá lugar esta semana.

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Una base de datos con cerca de 1.4 GB de información personal de clientes de Banorte fue filtrada en un sitio web, alertó Brian Krebs, periodista de investigación especializado en delitos informáticos. Krebs denunció en Twitter que la base de datos fue filtrada por el administrador de un foro dedicado a la venta de este tipo de archivos.