La inteligencia artificial es un gran reto para los derechos humanos en el entorno digital: relator especial de la ONU

Por: R3D: Red en Defensa de los Derechos Digitales  - 19 octubre, 2018

La opacidad en el desarrollo y aplicación de tecnología de inteligencia artificial es un gran reto para ejercicio y respeto de lo derechos humanos en el entorno digital, especialmente para actores involucrados en su protección como los estados, compañías y sociedad civil.

En su más reciente reporte sobre la Promoción y protección del derecho a la libertad de expresión y opinión, el relator especial de la ONU David Kaye, analiza los retos y consecuencias del uso de inteligencia artificial y algoritmos en un complejo entorno de tecnologías, plataformas y actores privados y públicos como es Internet:

Kaye explica que debido a los peligros que conlleva el uso de tecnologías que tienen la capacidad de distorsionar el ambiente digital de formas no objetivas, no transparentes y que, incluso, pueden ser aprovechadas por actores privados y públicos, éstas deben ser “diseñadas, desarrolladas e implementadas para ser consistentes con las obligaciones de estados y actores privados bajo el derecho internacional de los derecho humanos”.

Actualmente, las tecnologías basadas en inteligencia artificial, considera el relator, interfieren con el derecho a la libertad de expresión y de formarse una opinión, debido a que la moderación y curación de contenido al que pueden acceder usuarios de buscadores y redes sociales depende de procesos automatizados que no informan qué criterios utilizan y en cambio se presentan como una realidad objetiva.

La falta de desarrollo de los algoritmos que moderan contenido, además, los hace proclives a cometer errores y bloquear o restringir contenido, socavando el derecho de los usuarios a acceder a información sin restricciones o censura. En este punto, Kaye señala que los sistemas de remediación automatizadas también generan preocupaciones para constituirse como un mecanismo efectivo de solución para los usuarios, por su falta de capacidad de análisis e independencia.

Kaye explica que para que la inteligencia artificial sea desarrollada con una perspectiva de derechos humanos debe cumplir dos importantes fundamentos: respetar la agencia y autonomía individual y una significativa apertura de los actores públicos y sectoriales para que se esfuercen en explicar estas tecnologías a las personas y en facilitar su escrutinio.

Para esto, el relator enumera una serie de estándares y procesos que se deben cumplir en el desarrollo de esta tecnología como: enfatizar el respeto y protección a los derechos humanos en códigos, pautas gubernamentales y privadas; practicar transparencia radical; facilitar auditorías independientes sobre el impacto en los derechos humanos; combatir activamente la discriminación perpetuada por estas tecnologías y establecer mecanismos de remediación efectivos, que garanticen responsabilidad y revisión de las peticiones.


Imagen original de Pixabay

Los Comentarios están cerrados.