Una de las partes más polémicas y cuestionadas de la Ley de Derecho de Autor del Milenio Digital (DMCA) es el procedimiento conocido como “notificación y dado de baja” (notice and takedown).
Con éste, cualquier entidad o persona que sea dueña de algún contenido, protegido por derechos de autor o no, puede solicitar que se retire cuando crea que se está haciendo un uso incorrecto de éste o sin su consentimiento.
Anteriormente, una persona estaría encargada de revisar que la notificación fuera apropiada, pero actualmente mucho de este trabajo se realiza a través de algoritmos, los cuales pueden dejar a un usuario, sitio web o compañía en el limbo al tomar una mala decisión.
Es el caso de Mike Mishaud y su canal de YouTube Channel Awesome, el cual dejó de percibir sus ganancias a través de la publicidad debido a que el sitio había recibido y “confirmado” una queja del Estudio Ghibli sobre mal uso de contenido protegido por derechos de autor.
De acuerdo con The Washington Post, Mishaud y su abogado coincidieron en que el uso que habían hecho del contenido del estudio, clips de algunas de sus películas, en una video reseña era legítimo y por lo tanto no infringía derecho de autor alguno.
Pero el dueño de Channel Awesome topó con una pared, ya que no encontró los canales adecuados para apelar rápidamente esta decisión, la página de quejas estaba fuera de línea y al enviar cartas y correos electrónicos a YouTube solo recibió formatos en respuesta.
Un reciente estudio realizado por tres investigadores, Joe Karaganis, vicepresidente de la Asamblea Americana de la Universidad de Columbia, y Jennifer Urban y Brianna Schofield, de la Universidad de Berkeley, ha arrojado las primeras luces sobre la falta de efectividad y controles reales en el sistema automatizado de notificación y dado de baja.
En una revisión de seis meses, el estudio determinó que 30 de las millones de notificaciones de procedimiento dudoso, enviadas a la base de datos de material con derecho de autor Lumen, un proyecto del Centro Berkman, se habrían beneficiado de la intercesión de un humano.
Además, casi el 30 por ciento, unas 8 millones, podrían ser legalmente consideradas como un uso legítimo del contenido.
En algunos casos, como YouTube, el material que se sube a la red es previamente filtrado para saber si existe una violación al derecho de autor, que pueda identificar la plataforma.
Comúnmente, existen otras empresas que rastrean la red con algoritmos para encontrar contenido que encaje con el de sus clientes y enviar las notificaciones correspondientes, la medida de la participación de alguna persona en el proceso varía entre compañías, pero es poco.
De acuerdo con The Post, nadie niega que algún nivel de automatización debe de existir en el proceso, la cantidad de contenido que infringe derechos de autor en Internet es gigantesca y cada día se suben nuevos materiales en miles y millones de páginas y redes sociales.
Pero al dejar la mayor parte de la tarea a robots se presta a un gran margen de error y de abuso, especialmente en casos como el de Mischaud. Recientemente, un juez del Noveno Circuito de la Corte de Apelaciones de EE.UU. consideró que los algoritmos no pueden determinar si un material está haciendo uso legítimo de los derechos de autor o no.
Además, grupos defensores de derechos humanos se han pronunciado preocupados por el impacto que el dado de baja automatizado puede tener para derechos fundamentales como la libertad de expresión.
“Ningún programa de computación puede tomar decisiones precisas sobre lo que es libertad de expresión o no. No puedes codificar a la Suprema Corte en un programa de computadora”, aseguró a The Post el jefe de abogados de la Electronic Frontier Foundation, Mitch Stoltz.