Facebook anunció una actualización de sus políticas para combatir el discurso de odio en línea y el contenido que hace apología del terrorismo, como consecuencia del ataque terrorista en Christchurch, Nueva Zelanda y la transmisión en vivo de la matanza que realizó el atacante a través de Facebook Live.

Entre los cambios hechos, la red social asegura que ha desarrollado sus procesos de detección automática basándose en el comportamiento de estos grupos (terroristas y de odio) y que ha utilizado una combinación de inteligencia artificial y revisión humana para remover contenido de estas organizaciones.

De acuerdo con Facebook, la principal razón por la que su sistema automatizado no pudo detectar el video del ataque en Christchurch fue debido a que su inteligencia artificial no había procesado suficiente cantidad de contenido grabado en primera persona sobre eventos violentos, por lo que anunció que ahora colaboran con agencias de seguridad de Estados Unidos y Reino Unido para utilizar videos de sus programas de entrenamiento con armas de fuego.

Sin embargo, a pesar de las modificaciones, subyace el problema de delegar en la inteligencia artificial la delicada tarea de determinar qué contenidos son considerados como una apología del terrorismo. La regulación del discurso en línea es una tarea sumamente compleja que no debe ser confiada ciegamente en sistemas automatizados.

El uso de estas herramientas de detección de contenido se sustenta en bases de contenidos que, como el mensaje de Facebook admite, puede contener sesgos severos; además de que los filtros automatizados carecen del contexto para apreciar adecuadamente y puede cometer censura de contenidos legítimos.

“Los vídeos y otros contenidos que pueden ser usados en un contexto para promover la violencia terrorista pueden ser esenciales en otros lados para el reporte de noticias, combatir el reclutamiento terrorista en línea o con fines educativos. Los filtros técnicos son ciegos a estas diferencias coyunturales”, indica una carta suscrita por diversas organizaciones que advierte sobre los riesgos de estas medidas.

Así mismo, Facebook anunció que también ofrecerá ayuda a usuarios de su plataforma que busquen contenido identificado como supremacista o de odio, conectando a las personas con organizaciones regionales que trabajen para ayudar a personas a alejarse de estas organizaciones, como Life After Hate en Estados Unidos.


Imagen de James Dann (CC BY-SA 4.0)