Los sistemas automatizados pueden amplificar las decisiones incorrectas, señala Consejo Asesor de Facebook

Sep 27, 2022 | Libertad de expresión

El Consejo Asesor de Contenido (Oversight Board) anuló la decisión de Meta de eliminar la publicación de una caricatura sobre la violencia policial en Colombia por un error de su sistema automático de detección de imágenes, ya que no infringía ninguna norma comunitaria de la plataforma.

“Este caso demuestra de qué manera, mediante sistemas automatizados para eliminar contenido ─los bancos de imágenes de Media Matching Service─ pueden amplificar el impacto de las decisiones incorrectas que toman los revisores. Agregar contenido a estos bancos por error supone un riesgo especialmente alto cuando, como en este caso, se incluye un discurso político que critica a agentes del Estado”, señaló el Consejo Asesor.

La caricatura fue publicada en septiembre de 2020 por un usuario de Facebook en Colombia y en enero de 2022, pero 16 meses después la empresa lo eliminó porque coincidía con una imagen que estaba en un banco de Media Matching Service, sistema que puede identificar y eliminar imágenes de manera automática.

El contenido había sido agregado por error a uno de los bancos de imágenes del sistema automático, lo que provocó que se eliminara la caricatura de la plataforma de forma masiva y desproporcionada. A pesar de que 215 usuarios apelaron estas eliminaciones, y un 98% de dichas apelaciones resultaron favorables, Meta no descartó la imagen de este banco hasta que el caso llegó al Consejo.

Asimismo, esta instancia señaló en su comunicado que la falta de capacidad para prevenir o remediar este error con rapidez agrava el problema con el tiempo, y recomendó a Meta “mejorar de inmediato sus mecanismos de revisión para eliminar contenido no infractor de estos bancos rápidamente, supervisar el rendimiento de estos mecanismos y publicar información como parte de sus iniciativas de transparencia”.

El Consejo inició operaciones en octubre de 2020 con el objetivo de brindar una revisión independiente de las decisiones sobre contenido de Meta en aquellos casos cuyo resultado pueda tener un gran impacto e influencia en las personas usuarias y la sociedad con una perspectiva de derechos humanos.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas

Organizaciones presentan Protocolo Modelo contra acoso y hostigamiento sexual y laboral

Organizaciones presentan Protocolo Modelo contra acoso y hostigamiento sexual y laboral

El Protocolo Modelo de Prevención y Actuación en Casos de Discriminación, Acoso y Hostigamiento Sexual y Laboral (Protocolo Modelo) en Organizaciones de la Sociedad Civil es resultado del trabajo de un año entre ocho instituciones (Fundar, Artículo 19, la Red en Defensa de los Derechos Digitales, Ambulante, Serapaz, Instituto de Liderazgo Simone de Beauvoir, Equis Justicia para las Mujeres y Fondo Semillas) que se articularon para crear de “manera participativa y colectiva” para todo el sector.

¿Ciberseguridad para quién?: R3D cuestiona ausencia de sociedad civil en discusión sobre Ley de Ciberseguridad

¿Ciberseguridad para quién?: R3D cuestiona ausencia de sociedad civil en discusión sobre Ley de Ciberseguridad

“El proceso de elaboración de una ley de ciberseguridad no ha contemplado la participación equitativa de todos los actores”, señaló Grecia Macías, abogada de R3D: Red en Defensa de los Derechos Digitales, durante la sesión de Parlamento Abierto convocada el lunes 31 de octubre por la Comisión de Ciencia, Tecnología e Innovación de la Cámara de Diputados.