El algoritmo de YouTube recomienda contenido que viola sus propias normas comunitarias, alerta la Fundación Mozilla

Jul 9, 2021 | Libertad de expresión

Un nuevo estudio de la Fundación Mozilla ha revelado que el algoritmo de recomendación de contenido de YouTube promueve contenido de mala calidad, polarizante y que desinforma a las personas usuarias de la plataforma, en un afán de mantener los altos niveles de visualización para su publicidad.

Esta publicación representa un duro golpe para YouTube y Google, quienes desde hace un par de años han hecho un esfuerzo de relaciones públicas para posicionar cambios en el algoritmo de recomendación de contenido, para supuestamente reducir la propagación de “hechos alternativos” e incluso la incitación a la pedofilia.

De acuerdo con información publicada por el medio TechCrunch, para llevar a cabo el reporte, Mozilla utilizó una herramienta voluntaria que permitía a las personas reportar si se “arrepentían” de haber visto un video en la plataforma.

Entre los principales “arrepentimientos” que reportaron las personas usuarias fueron videos desinformativos o amarillistas sobre COVID-19, desinformación política y dibujos animados para infantes “muy inapropiadas”; además, las principales temáticas que se reportaron fueron: desinformación, contenido explícito o violento, discurso de odio y spam o engaños.

El estudio de Mozilla halló que el algoritmo de YouTube recomienda contenido que viola sus propias normas comunitarias y que podía no tener relación alguna con el video anterior; además, las experiencias desagradables con recomendaciones del algoritmo ocurrieron un 60 por ciento más a personas usuarias de países que no hablan inglés como su idioma principal.

En los países primariamente no anglosajones, las personas se quejaron más de contenido relacionado con la pandemia, un hecho muy preocupante en contexto de una emergencia global en que las personas se informan a través de redes sociales.

Debido a los hallazgos del reporte, Mozilla hizo varias recomendaciones a YouTube y Google, especialmente para contar con “transparencia robusta, escrutinio y dar a las personas control sobre los algoritmos de recomendación”, ya que sin una verdadera rendición de cuentas, YouTube continuará siendo dañino.


Imagen de Marco Verch (CC BY 2.0)

Publicaciones relacionadas

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.