Los sistemas automatizados pueden amplificar las decisiones incorrectas, señala Consejo Asesor de Facebook

Sep 27, 2022 | Libertad de expresión

El Consejo Asesor de Contenido (Oversight Board) anuló la decisión de Meta de eliminar la publicación de una caricatura sobre la violencia policial en Colombia por un error de su sistema automático de detección de imágenes, ya que no infringía ninguna norma comunitaria de la plataforma.

“Este caso demuestra de qué manera, mediante sistemas automatizados para eliminar contenido ─los bancos de imágenes de Media Matching Service─ pueden amplificar el impacto de las decisiones incorrectas que toman los revisores. Agregar contenido a estos bancos por error supone un riesgo especialmente alto cuando, como en este caso, se incluye un discurso político que critica a agentes del Estado”, señaló el Consejo Asesor.

La caricatura fue publicada en septiembre de 2020 por un usuario de Facebook en Colombia y en enero de 2022, pero 16 meses después la empresa lo eliminó porque coincidía con una imagen que estaba en un banco de Media Matching Service, sistema que puede identificar y eliminar imágenes de manera automática.

El contenido había sido agregado por error a uno de los bancos de imágenes del sistema automático, lo que provocó que se eliminara la caricatura de la plataforma de forma masiva y desproporcionada. A pesar de que 215 usuarios apelaron estas eliminaciones, y un 98% de dichas apelaciones resultaron favorables, Meta no descartó la imagen de este banco hasta que el caso llegó al Consejo.

Asimismo, esta instancia señaló en su comunicado que la falta de capacidad para prevenir o remediar este error con rapidez agrava el problema con el tiempo, y recomendó a Meta “mejorar de inmediato sus mecanismos de revisión para eliminar contenido no infractor de estos bancos rápidamente, supervisar el rendimiento de estos mecanismos y publicar información como parte de sus iniciativas de transparencia”.

El Consejo inició operaciones en octubre de 2020 con el objetivo de brindar una revisión independiente de las decisiones sobre contenido de Meta en aquellos casos cuyo resultado pueda tener un gran impacto e influencia en las personas usuarias y la sociedad con una perspectiva de derechos humanos.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas