Hace unos días se realizó la audiencia regional convocada por la Comisión Interamericana de Derechos Humanos (CIDH) titulada “Inteligencia artificial y derechos humanos”, de la que fuimos parte junto a otras organizaciones que trabajan en México y Latinoamérica.
En esta audiencia se abordaron algunos retos que la inteligencia artificial trae para el ejercicio de los derechos humanos, haciendo énfasis en que el avance de estas tecnologías pueden conllevar oportunidades para el desarrollo humano, pero también pueden invisibilizar los impactos en los derechos humanos gracias a una visión tecnosolucionista que empresas y gobiernos han impulsado.
Esto se vuelve aún más peligroso especialmente en un contexto de erosión democrática, avance del autoritarismo y concentración e influencia del poder oligárquico de las grandes empresas tecnológicas.
Sobre esto, nuestra abogada Francia Pietrasanta mencionó: “El contexto político y los cambios sistémicos exigen el establecimiento de medidas contundentes para mitigar el impacto negativo de los sistemas automatizados en los derechos humanos. Su desarrollo, adquisición y uso por parte del Estado en actividades de inteligencia, seguridad pública, aplicación de la ley, control migratorio y provisión de servicios públicos profundizan desigualdades estructurales, pues facilitan prácticas arbitrarias como la vigilancia masiva, la explotación de datos, la transferencia ilegítima de información sensible, la discriminación, la censura y la exclusión de servicios públicos”.
Durante su intervención en la audiencia, Pietrasanta remarcó la importancia de que los Estados garanticen que cualquier implementación de sistemas automatizados respete los estándares interamericanos de derechos humanos evaluando siempre los principios de necesidad, proporcionalidad e idoneidad y contando con procesos transparentes que incluyan auditorías periódicas.
Debido a esto también se pidió la prohibición del uso de sistemas automatizados “en particular, la videovigilancia con reconocimiento facial para identificar personas en el espacio público o el despliegue masivo de sensores para la recolección y agregación masiva de datos personales de la población, las cuáles exponen a las personas a altas tasas de error y a riesgos de discriminación”. Al igual el uso de tecnologías de identificación biométrica en contextos migratorios, las cuales plantea graves riesgos en materia de privacidad y discriminación a personas en calidad de tránsito.
Pietrasanta también reconoció que aún existe un gran trabajo por delante para asumir obligaciones en materia de transparencia algorítmica por parte de empresas y gobiernos, ya que estos deben divulgar información clave sobre el funcionamiento de los sistemas que implementan y proporcionar explicaciones accesibles al público sobre cómo influyen en las decisiones que afectan a las personas.
Por último y no menos importante, apuntó que los sistemas automatizados usados en la moderación de contenidos por algunas plataformas digitales, como Facebook, Instagram o X, han favorecido narrativas extremistas que incitan al odio y la radicalización, por lo que es importante establecer marcos regulatorios respetuosos de los derechos humanos y compatibles con el marco de responsabilidades de las empresas en este tema.
Para consultar la audiencia completa y la discusión por parte de todas las organizaciones, puedes dirigirte al canal de youtube de la CIDH en este link.

Imagen: (CC-BY) Gibrán Aquino