El Consejo Asesor de contenido de Meta es un organismo independiente, cuyo objetivo es proporcionar recomendaciones sobre las políticas de moderación de contenido de Meta, revisar apelaciones de personas usuarias sobre algunos de los temas de contenido más controvertidos de Facebook e Instagram y apelar a la transparencia de la plataforma.
Recientemente el Consejo lanzó su reporte anual, donde muestra el impacto que ha tenido el trabajo realizado en los últimos años para la comunidad y las personas que usan los productos de Meta a nivel global. En dicho informe mencionan que, de 2021 a 2024, Meta ha implementado total o parcialmente 75 de sus recomendaciones, e informado del progreso en la implementación de otras 81.
También resaltan la gran cantidad de personas que han sido afectadas por los sistemas automatizados, los cuales retiran contenido de las plataformas por considerarlo una incitación al odio, cuando esto no es así. Sobre la función de los sistemas automatizados para revisar algunos contenidos controversiales, el Consejo afirmó que estos “pueden amplificar el impacto de las decisiones incorrectas que toman los revisores”.
En febrero de 2024, Meta recibió más de siete millones de apelaciones de personas cuyo contenido había sido eliminado en virtud de las normas sobre incitación al odio. Uno de cada cinco de estos usuarios indicó que su contenido pretendía “concientizar”, mientras que uno de cada tres afirmó que “era una broma”.
Un caso de error en la moderación de Meta ocurrió en Suecia, donde eliminaron el video de una usuaria por presuntamente infringir sus normas comunitarias sobre lenguaje que incita al odio. El video eliminado mostraba a una mujer contando su historia de abuso, la cual pretendía concientizar a otras personas sobre la violencia de género. En ese caso, el Consejo Asesor recomendó a Meta incluir excepciones en sus políticas y mejorar las pautas que siguen sus moderadores.
Otro caso controversial del que fue parte el Consejo Asesor, se trató de lo relacionado al contenido creado por inteligencia artificial. Desde mayo de 2024, Meta comenzó a etiquetar audio, imágenes y video como “hecho con IA”. Esto como un esfuerzo para proporcionar a las personas usuarias un mayor contexto de lo que consumen y evitar los deepfake.
Por último, el reporte también hace mención de las decisiones que ha tomado el Consejo Asesor para preservar contenidos sobre protestas, condiciones sanitarias y atrocidades durante conflictos, especialmente el ocurrido entre Israel y Palestina, como el caso de la frase “Desde el río hasta el mar”, utilizada por manifestantes pro Palestina en distintas partes del mundo como forma de protesta.
Según el informe, el Consejo ha instado a Meta ha implementar políticas más fáciles de entender para todas las personas, explicar de una mejor manera el proceso que toman para hacerlas cumplir, así como actuar con total transparencia informando a las personas usuarias la infracción que cometieron.
Para consultar el informe completo puedes dirigirte a su página web.
Imagen: (CC-BY) Gibrán Aquino