El martes 7 de enero, Mark Zuckerberg anunció una serie de cambios en las políticas de moderación de contenidos de Meta. Zuckerberg reconoció que sus políticas de moderación de contenidos y los “sistemas complejos” que utilizan para bloquear algunos tipos de expresiones llevaron a “demasiados errores y a demasiada censura”. A partir de esto, dijo que tomaría decisiones concretas que, desde el punto de vista de R3D, ponen en riesgo a grupos vulnerables como la comunidad LGBTIQ+, las mujeres o las personas migrantes.
En primer lugar, Meta sustituirá sus redes de verificación de información (“fact checkers”) por notas de la comunidad, siguiendo explícitamente el camino tomado por Elon Musk con la plataforma X (antes Twitter). Además, en cuanto a sus políticas de moderación de expresiones en sus plataformas (Facebook, Instagram, Threads), consideró que “la inclusión ha ido demasiado lejos” y que la moderación actual “simplemente estaba desfasada con el discurso mainstream”, por lo que cambiaría el funcionamiento de sus sistemas automatizados para eliminar restricciones a expresiones relacionadas con el género, la migración y los derechos de las personas trans.
Por un lado, ambas decisiones parecieran responder a un alineamiento con el discurso del presidente electo Donald Trump (y otros sectores conservadores en EE.UU.), utilizando de manera engañosa la realidad de que la moderación automatizada de contenidos resulta en censura injustificada de expresiones legítimas en muchas ocasiones. Zuckerberg instrumentaliza un problema real para permitir expresiones que pueden ser discriminatorias y resultar en casos de violencia en línea para ciertas comunidades, respaldando expresiones radicalizantes que los grupos de extrema derecha suelen utilizar para incitar a la violencia.
Esto es claro al revisar los cambios hechos el mismo día que Zuckerberg dio el anuncio, a la política de moderación de Meta sobre discurso de odio (ahora llamada “Hateful Conduct”). Los cambios permitirán discursos en contra de los derechos de personas trans, mujeres e inmigrantes, tales como: alegar que estas personas son “anormales” o “enfermas mentales” (alegando su género u orientación sexual), o que las mujeres y personas no binarias son objetos; además de remover restricciones a discursos de incitación a la violencia cuando se alega que un grupo cometió algún acto de violencia sexual (táctica utilizada para radicalizar comunidades en contra de migrantes o comunidades religiosas, por ejemplo).
Por otro lado, al reconocer que sus filtros de control de expresiones “cometen errores y censuran contenido legítimo”, señaló que la moderación de contenidos se concentrará en bloquear “contenidos ilegales” y “violaciones graves”, requiriendo que otro tipo de violaciones sean activadas por requerimientos y revisadas por moderadores humanos. Aunque sea necesario revisar en detalle estas modificaciones, el estandar de contenido ilegal y violaciones graves no es por sí mismo incompatible con las obligaciones de respeto a los derechos humanos, y puede servir como un avance regulatorio al respecto, al igual que la disminución de la moderación automatizada para aumentar una “personalizada”.
Lo cierto es que además del contexto alarmante en el que estos cambios se anuncian, Zuckerberg justificó las medidas diciendo que “protegerá la libertad de expresión en todo el mundo” aprovechando el gobierno de Donald Trump para ello, y “resistiendo a gobiernos que han buscado censurar contenidos legítimos en sus plataformas”. Esta declaración es problemática porque señala como “regulaciones de censura” a medidas legítimas que se han tomado en la Unión Europea (tal como la Digital Services Act y la Digital Markets Act) y en otros lugares para impulsar marcos regulatorios respetuosos de los derechos humanos y compatibles con el marco de responsabilidades de las empresas en este tema.
Aunque es importante que las empresas que prestan servicios digitales resistan los intentos de distintos gobiernos de censurar contenidos legales, es indispensable apegarse a un marco regulatorio que permita la rendición de cuentas, la transparencia y la responsabilidad de las empresas en cuanto a sus obligaciones de derechos humanos, No es claro que en este caso, la declaración de Zuckerberg apunte en dicha dirección en vez de a una postura de inmunidad y falta de controles sobre sus acciones. Este hecho es un recordatorio de la necesidad de reforzar y fortalecer las medidas de transparencia que permitan a gobiernos y sociedad civil evaluar las medidas en concreto que dichas empresas toman.
Meta ha sobremoderado contenidos legítimos por años, afectando a grupos y comunidades vulnerables y faltando a sus obligaciones de respeto de los derechos humanos, y sus cambios en las políticas de moderación deberían enfocarse a corregir esos errores sobre contenidos legítimos relacionados con la disidencia política, el discurso de la diversidad sexual o las luchas de personas defensoras de derechos humanos.
Por eso mismo, el último anuncio de Zuckerberg sobre reestablecer más contenido político en las plataformas debe ser usado como una medida para revisar tanto los criterios como los sistemas automatizados que han llevado a la censura de los contenidos legítimos mencionados, y no convertirse en una declaración con intenciones de impulsar de manera desigual ciertos contenidos políticos relacionados con el discurso de Donald Trump, los republicanos y la ultra derecha, como ha sucedido en el caso de Elon Musk y el uso de X.
Por ello, desde R3D consideramos que un punto fundamental para abordar este debate es poner en el centro propuestas de regulación que limiten el poder de concentración de las empresas con medidas de competencia, desconcentración y una fuerte protección de los datos personales que las mismas utilizan para desarrollar sus productos e impulsar su modelo de negocios.
Los modelos de regulación de las obligaciones de las empresas que dejan de lado estos puntos y se enfocan en la moderación de contenidos de manera aislada no solo son insuficientes sino que también pueden ser utilizados por gobiernos autoritarios para llevar a cabo medidas de censura de contenidos legítimos.
Imagen: (CC-BY) Gibrán Aquino