R3D presenta informe sobre la moderación de contenidos desde una perspectiva interamericana

Desde R3D: Red en Defensa de los Derechos Digitales presentamos el informe La moderación de contenidos desde una perspectiva interamericana, un nuevo documento elaborado para Al Sur como parte del Diálogo de las Américas sobre Libertad de Expresión en Internet que fue convocado por la Relatoría para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos (CIDH).

Este trabajo busca contribuir a una de las discusiones más relevantes de la actualidad en el ámbito de Internet: la moderación de contenidos. Para hacer esta contribución, R3D toma como base el marco existente de la libertad de expresión en el Sistema Interamericano de Derechos Humanos y los estándares que se han desarrollado a partir de aquí en los últimos años, así como las características particulares de Internet y de la forma en que éstas afectan (para potenciar o limitar) la libertad de expresión y otros derechos en el ámbito digital.

La libertad de expresión cuenta con protecciones especiales dentro del marco del SIDH que diferencian sus alcances y límites en Internet, por lo que desarrollamos la forma en que este derecho se ha materializado para pensar sobre los posibles riesgos de los distintos tipos de moderación (particularmente la que se lleva a cabo en redes sociales, aunque no únicamente ella).

Como entendemos que los dos extremos de la discusión (no moderación y moderación extrema) son insatisfactorios y ponen en riesgo algún aspecto de la libertad de expresión, proponemos un enfoque que busca entender la complejidad de este fenómeno y actuar de la manera más consistente posible con el enfoque interamericano.

Para lograr esto, primero de manera general, es fundamental la defensa del principio de no responsabilidad de intermediarios en Internet (en especial frente a marcos regulativos que validan sistemas de responsabilidad objetiva) para evitar medidas de censura previa que limiten la libertad de expresión en Internet o que inhiban el ejercicio de este derecho.

En particular, los distintos tipos de intermediarios en Internet tienen un rol muy importante para sostener los estándares interamericanos y proteger los derechos (frente a injerencias indebidas de los Estados pero también frente a otros particulares), pero también son importantes los distintos tipos de moderación que pueden tener lugar en Internet y la posición de dominancia que algunos intermediarios tienen (y otros no).

La moderación de contenidos es indispensable para la existencia de las plataformas en Internet, para mantener el flujo informativo y también para proteger otros intereses que pueden ser afectados por los contenidos que circulan en Internet (los derechos de niñas y niños, por ejemplo).

Entender las razones (e intereses) para llevar a cabo la moderación de contenidos (económicas, de imagen, etc.), y también las distintas reglas que pueden llevar a una moderación efectiva y respetuosa de los derechos de las personas usuarias de Internet (tanto en las normas comunitarias como en los términos y condiciones), permite evaluar las medidas que toman las distintas plataformas y pensar en posibles mejoras.

Nuestro trabajo revisa también los distintos procedimientos de moderación (activa, reactiva, ex-ante, ex-post) y los tipos de moderadores (humanos, automatizados) para analizar sus beneficios y problemas (tal como el de la dificultad de incorporar el contexto en decisiones automatizadas, por ejemplo), para luego evaluar los efectos de dichas moderaciones frente a la libertad de expresión y otros derechos digitales. Así, la lectora podrá encontrar reflexiones en torno a situaciones de acoso, amenazas y violencia en línea; pornografía infantil y censura previa; spam; contenido sexual explícito; violencia gráfica o explícita, entre otros.

Nuestro informe subraya la importancia de realizar un análisis contextual y diferenciado sobre las situaciones de moderación pero también, por ejemplo, sobre los distintos tipos de plataformas que existen. No todas las plataformas son Twitter y Facebook, no todas tienen el mismo poder ni alcance para moderar y esta diferencia debe tomarse en cuenta en los análisis y propuestas sobre la moderación. Una vez más, se trata de una discusión compleja que requiere de apoyos conceptuales y analíticos para pensar las distintas situaciones que se presentan en la mecánica de moderar contenidos en Internet.

Pero aún con toda la complejidad, es posible establecer “pautas mínimas” o bases que permitan orientar el debate y llegar a propuestas más concretas sobre qué sería mejor hacer. Parte de este piso mínimo está en los Principios de Santa Clara (ahora en su segunda iteración), que sirven para incorporar las obligaciones de transparencia y rendición de cuentas respecto de la moderación de contenidos hecha por los intermediarios de Internet (y que también analizamos en nuestro trabajo).

Los Principios resultan una herramienta importante para pensar la moderación porque rebasan la versión minimalista que existió en su primera iteración, dando una mayor especificidad y precisión sobre la información que es necesaria para garantizar la transparencia y la rendición de cuentas también sobre las empresas privadas y las plataformas de Internet.

Al final de nuestro análisis proponemos una serie de recomendaciones compatibles con el marco interamericano para generar esquemas de autorregulación, corregulación o regulación estatal que puede agruparse en diez puntos:

  1. Generar esquemas regulatorios que partan de la no responsabilidad de intermediarios por expresiones de terceros cuando no están involucrados en la modificación de dichos contenidos (excluyendo también obligaciones de monitoreo o filtrado proactivo de contenidos).
  2. Contar con una delimitación clara y diferenciada de los intermediarios a las que la regulación se aplica, tomando en cuenta su tamaño, número de usuarios, nivel de ingresos, cuota de mercado u otro criterio relevante, tengan la capacidad real de afectar el flujo informativo significativamente, para evitar mayor concentración y efectos anticompetitivos que favorezcan a los actores dominantes.
  3. Asegurarse de que los esquemas sean compatibles con los estándares interamericanos, evitando imponer obligaciones de remoción de contenidos salvo en categorías de discursos no protegidos (como el abuso sexual infantil, por ejemplo). Las políticas de los intermediarios deben ser claras, percisas y accesibles, que eviten la vaguedad y la ambiguedad, y aplicarse sin discriminación (y tomar en cuenta la posición de vulnerabilidad de grupos específicos y el contexto en que se emiten las expresiones). Para lograr esto los sistemas automatizados deben poder detectar sesgos y errores, y corregirlos. También deben acompañar estos con mecanismos de revisión humana.
  4. Los Estados deben abstenerse de exigir que las decisiones de remoción de contenidos se apliquen globalmente (sobre todo si son incompatibles con el marco interamericano); por su parte, los intermediarios que sean obligados a remover contenidos de manera incompatible con el marco interamericano deben esforzarse por combatir judicialmente esas decisiones y/o limitar geográficamente sus efectos.
  5. Garantizar la mayor transparencia posible en las decisiones de moderar contenidos por parte de los intermediarios, publicando periódicamente información estadística para que sea posible evaluar los efectos de sus decisiones. La información debe ser desagregada de manera suficiente y estructurada en formato abierto.
  6. Cualquier regulación debe contemplar que los intermediarios notifiquen a las personas usuarias afectadas por cualquier moderación que les afecte. La notificación debe informar suficientemente bien para que la persona pueda evaluar la licitud de la decisión (identificar el contenido infractor, su fundamento normativo, el método de detección y -cuando sean remociones estatales- el fundamento legal y la identificación de la autoridad).
  7. Contar con mecanismos internos de apelación de las decisiones de moderación, de manera que sea posible revertir la decisión de remoción de contenidos, suspensión de cuenta o cualquier otra (y tener procesos, canales de comunicación y respuestas donde se pueda dar seguimiento a la apelación y un tiempo breve de resolución). También deben incorporar reparaciones compatibles con el marco interamericano cuando se afecten derechos de personas usuarias en su plataforma.
  8. Utilizar mecanismos independientes para la revisión de las decisiones y políticas de moderación de contenidos (como los Consejos o el Oversight Board de Facebook) para evitar conflictos de interés y dar legitimidad a las decisiones de los intermediarios dominantes. Los mecanismos deben integrarse de manera diversa y equitativa tomando en cuenta criterios de género, raza, diversidad geográfica, etc., y los intermediarios deben garantizar la sostenibilidad financiera y la independencia de estos mecanismos.
  9. Fomentar, a través de acciones estatales, la competencia, la pluralidad y la diversidad en Internet para evitar o sancionar medidas anticompetitivas de intermediarios dominantes en Internet (incluyendo medidas hacia la interoperabilidad y la desincorporación de activos). Además garantizar el principio de neutralidad de la red y prohibir ofertas de zero rating.
  10. Generar la participación multisectorial y abierta en la definición de políticas y la evaluación de prácticas relacionadas con éstas, de manera que sus insuficiencias o deficiencias puedan advertirse y corregirse por los principales sujetos interesados o afectados por la moderación de contenidos.

Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas

Organizaciones presentan Protocolo Modelo contra acoso y hostigamiento sexual y laboral

Organizaciones presentan Protocolo Modelo contra acoso y hostigamiento sexual y laboral

El Protocolo Modelo de Prevención y Actuación en Casos de Discriminación, Acoso y Hostigamiento Sexual y Laboral (Protocolo Modelo) en Organizaciones de la Sociedad Civil es resultado del trabajo de un año entre ocho instituciones (Fundar, Artículo 19, la Red en Defensa de los Derechos Digitales, Ambulante, Serapaz, Instituto de Liderazgo Simone de Beauvoir, Equis Justicia para las Mujeres y Fondo Semillas) que se articularon para crear de “manera participativa y colectiva” para todo el sector.

¿Ciberseguridad para quién?: R3D cuestiona ausencia de sociedad civil en discusión sobre Ley de Ciberseguridad

¿Ciberseguridad para quién?: R3D cuestiona ausencia de sociedad civil en discusión sobre Ley de Ciberseguridad

“El proceso de elaboración de una ley de ciberseguridad no ha contemplado la participación equitativa de todos los actores”, señaló Grecia Macías, abogada de R3D: Red en Defensa de los Derechos Digitales, durante la sesión de Parlamento Abierto convocada el lunes 31 de octubre por la Comisión de Ciencia, Tecnología e Innovación de la Cámara de Diputados.