Una serie de anuncios que llamaban a la violencia en contra de la población palestina fueron aprobados por Facebook, según documenta The Intercept. Después del incidente, personas defensoras de derechos humanos pusieron en marcha experimentos para probar los límites de la moderación de contenido por aprendizaje automático de Facebook.
Los anuncios violentos fueron lanzados tanto en hebreo como en árabe e incluían evidentes violaciones de las políticas de Facebook, ya que algunos contenían contenidos que instaban directamente al asesinato de civiles palestinos, así como otros que pedían un “holocausto para los palestinos” y acabar con “las mujeres, los niños y ancianos de Gaza”.
“La aprobación de estos anuncios es sólo el último de una serie de fracasos de Meta hacia el pueblo palestino”, declaró Nadim Nashif, fundador de 7amleh, grupo de investigación y defensa de los medios sociales.
La organiazación tuvo la idea de echar a andar un experimento para poner a prueba los límites de la moderación de contenidos de Facebook, luego de que Nashif descubrió un anuncio en su feed que pedía explícitamente el asesinato del activista estadounidense Paul Larudee, cofundador del Movimiento Free Gaza. La traducción automática de Facebook del texto del anuncio decía: “Es hora de asesinar a Paul Larudi [sic], el terrorista antisemita y de los derechos humanos de Estados Unidos”.
Luego de ser denunciado por ir en contra de las políticas de Meta, el anuncio fue retirado del sistema de publicidad programada, ya que pedir el asesinato de un activista político es una violación de las normas de publicidad de Facebook.
Posteriormente se descubrió que el anuncio había sido publicado por Ad Kan, un grupo israelí de derecha fundado por antiguos oficiales de las Fuerzas de Defensa de Israel y de los servicios de inteligencia para combatir a las “organizaciones antiisraelíes” cuya financiación procede de fuentes supuestamente antisemitas, según se lee en su sitio web.
Curiosos por saber si la aprobación había sido una casualidad, 7amleh creó y envió 19 anuncios, tanto en hebreo como en árabe, con texto que violaba deliberadamente las normas de la empresa: una prueba para Meta y Facebook. Los anuncios de 7amleh que fueron parte del experimento, se diseñaron para poner a prueba el proceso de aprobación y comprobar si la capacidad de Meta para filtrar automáticamente la incitación violenta y racista había mejorado.
Aunque finalmente 7amleh declaró que la organización no tenía intención de publicar estos anuncios e iba a retirarlos antes de su aparición programada, cree firmemente que su aprobación demuestra que la plataforma social sigue siendo fundamentalmente ciega en cuanto a contenido de habla no inglesa: idiomas utilizados por un gran la mayoría de sus más de 4 mil millones de usuarios.
Además de este incidente, Meta ha sido acusada recientemente de hacer degradación de contenido (shadow banning) en Instagram a publicaciones que muestran su apoyo a la población de Palestina. Facebook también ha sido señalado en el pasado por censurar contenidos que documentan los ataques áereos de Israel en Gaza.
Imagen (CC BY) Gibrán Aquino