Meta revierte 14 decisiones de moderación de contenido tras revisión del Consejo Asesor

Ago 9, 2022 | Libertad de expresión

Tan solo en el primer trimestre de 2022, Meta revirtió 14 de 20 decisiones sobre moderación de contenido que fueron presentadas por el Consejo Asesor de Contenido (Oversight Board) al considerar que su primera determinación había sido errada, removiendo cuatro publicaciones y restaurando 10 en Facebook e Instagram.

De acuerdo con el último Reporte de Transparencia del Consejo, esta cifra de decisiones revertidas (70 por ciento) representa un incremento sustancial de errores en la moderación de contenido de sus plataformas frente a los 51 de 130 casos revertidos (38 por ciento) entre el último trimestre del año 2020 y el último de 2021.

Aunque esta puede parecer una muestra muy pequeña, el Consejo Asesor se enfoca únicamente en casos muy difíciles que se consideran pueden tener un impacto a gran escala o de importancia para el discurso público.

Este incremento no es el único que muestra el Reporte de Transparencia. El número de casos que fueron enviados al Consejo Asesor para su revisión pasó de 288 mil 440 casos en el último trimestre de 2021, a 480 mil casos entre enero y marzo de 2022.

De los miles de casos enviados a revisión por el Consejo Asesor, 44 por ciento correspondieron a contenido que Meta removió por infringir sus reglas sobre “violencia e incitación”, que creció alrededor de 15 por ciento desde finales de 2021 y 35 por ciento desde finales de 2020. Meta considera este tipo de contenido como el lenguaje “incita a cometer actos graves de violencia o los hace posibles”.

Estas cifras concuerdan con las de Meta, que reportó un incremento en el número de contenido sobre el que tomó acción por infringir sus reglas sobre violencia e incitación, ya que pasó de 12.4 millones en el último trimestre de 2021 a 21.7 millones el primer trimestre de 2022.

En octubre de 2020, el Consejo Asesor de Contenido de Facebook entró en operaciones, con el objetivo de tener una instancia de revisión independiente que pudiera analizar las decisiones sobre contenido de las plataformas de Meta y sus impactos en las personas usuarias y la sociedad con una perspectiva de derechos humanos.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas