Los riesgos de la moderación automatizada de contenidos durante la crisis de Covid-19

En estos momentos de pandemia, es vital que las personas nos mantengamos continuamente informadas de cualquier actualización sobre nuevos descubrimientos o recomendación de autoridades sanitarias. Las redes sociales han ocupado un rol esencial en proveer al público de un flujo de información constante, por lo que las plataformas están moderando de forma continua para que, idealmente, sean un espacio abierto para la circulación de ideas.

La propagación de información falsa –creada y distribuida deliberadamente para ocasionar algún daño–, así como la de información inexacta –que no fue expresamente divulgada con dolo– suponen fenómenos especialmente problemáticos durante una crisis de salud pública como la que se vive alrededor del COVID-19. Ante esto, las distintas plataformas han decidido endurecer sus criterios de moderación de contenido.

Las plataformas buscan ser “intermediarios neutrales” que solo facilitan información, sin embargo, la moderación es el principal beneficio que ofrecen, ya que prometen una mejor experiencia al organizar, seleccionar y personalizar los contenidos para hacer que las personas sigan involucradas en el sitio. En otras palabras, las plataformas deciden qué y cómo se ordena toda la información que vierten a sus usuarios.

A pesar de que las plataformas tratan de ceñirse a lo establecido en sus términos y condiciones, es normal que vayan adaptándose a nuevas circunstancias. Esto es permisible siempre y cuando sea de manera transparente y con apego a los criterios establecidos en materia de libertad de expresión.

La moderación no es una tarea sencilla ni objetiva: generalmente se encuentra inmiscuidos criterios morales o ideológicos de quien la realiza. Es una tarea realizada principalmente por humanos y es posterior a la publicación. No obstante, también existen moderadores algorítmicos que remueven ciertos contenidos automáticamente, ya sea antes de que sea publicado o haciendo un rastreo de términos o criterios preestablecidos. Este tipo de moderación ha causado discusión por su margen de error y la puerta abierta a la parcialidad de quien modera.

Ante la emergencia sanitaria del COVID-19, Facebook anunció que enviaría a sus moderadores humanos a casa mientras pasa la crisis, delegando sus tareas a la moderación algorítmica. La misma medida fue anunciada por Twitter, que indicó que utilizaría aprendizaje automatizado (machine learning) para atacar contenido abusivo o manipulador, aunque enfatizó que no suspenderán cuentas basados únicamente en los criterios automatizados.

Sin embargo, a pesar de las precauciones enunciadas, el margen de error de la moderación algorítmica sigue siendo amplio. En el caso de Facebook, algunas publicaciones han sido indebidamente marcadas y retiradas de la red social, mientras que en Twitter se ha impedido la publicación de tuits con información legítima, como ocurrió en días pasados al intentar compartir el sitio gubernamental “coronavirus.gob.mx”.

En general, las plataformas han tomado una actitud mucho más estricta sobre la información imprecisa (misinformation) relacionada al COVID-19 que no provenga de fuentes oficiales. No obstante, es preciso enfatizar que existen circunstancias en las que los gobiernos pueden intentar maquillar ciertos datos que sean inconsistentes con la evidencia presentada por otros medios de comunicación, por lo que la censura inmediata de fuentes no oficiales mediante inteligencia artificial es desproporcionada y contraria a los principios establecidos sobre libertad de expresión.

Desafortunadamente, las plataformas no han sido lo suficientemente transparentes y descriptivas sobre la forma en que se está llevando a cabo la moderación de contenidos sobre esta crisis sanitaria. Es necesario que informen abiertamente sobre las medidas que están tomando para atacar la desinformación y bajo qué criterios, así como proporcionar información sobre los falsos positivos que han impedido o afectado la libre difusión de información.

Por ello, urgimos a la compañías a transparentar sus actuales procesos de moderación y a garantizar que dichos procedimientos cumplan con los estándares en materia de libertad de expresión en línea.


Este texto fue elaborado por Agneris Sampieri y Grecia Macías, abogadas de R3D: Red en Defensa de los Derechos Digitales.


Imagen de American Medical Association

Publicaciones relacionadas