La UCLA desiste de implementar reconocimiento facial en su campus

Mar 2, 2020 | Privacidad

Ante el rechazo de profesores y estudiantes, la Universidad de California en Los Ángeles (UCLA) abandonó un plan para implementar tecnología de reconocimiento facial en los sistemas de videovigilancia de su campus, informó la organización Fight for the Future (FFTF).

La administración de la UCLA había propuesta utilizar tecnología de vigilancia biométrica invasiva con el sistema de videovigilancia de la escuela, con el fin de escanear constantemente los rostros de todas las personas del campus y cotejarlas contra una base de datos.

Aunque desde el principio hubo una oposición estudiantil a la medida, la administración trató de apaciguar las quejas asegurando que se utilizaría solo de forma limitada. Sin embargo, una organización estudiantil, en conjunto con Fight for the Future, usó el software de reconocimiento facial Rekognition –propiedad de Amazon– para evidenciar los riesgos del uso de esta tecnología en la comunidad.

En la prueba se utilizaron 400 imágenes de personas de la comunidad de UCLA, como atletas y profesores, que fueron comparadas con una base de datos de personas arrestadas. Los resultados: 58 de las personas fueron erróneamente identificadas como personas con cargos criminales; la gran mayoría eran personas de color y, en varios casos, el software emparejó a dos personas que prácticamente no tenían ningún rasgo en común salvo por la etnia.

En la práctica, estos sesgos podrían haber significado que decenas de estudiantes no tuvieran acceder a sus dormitorios u otros edificios del campus, no pasar lista en sus clases, hasta ser identificados como una amenaza y recibir abusos de autoridades o incluso ser arrestados.

Después de tener los resultados de las pruebas realizadas por FTTF, las autoridades de la UCLA reaccionaron rápidamente y tomaron la determinación de suspender la implementación del programa.

“El reconocimiento facial no tiene lugar en los campus universitarios. Que esto sea una advertencia para otras escuelas: si piensan que pueden experimentar en sus estudiantes y empleados con esta tecnología invasiva sin consecuencias, están equivocados. No dejaremos de organizarnos hasta que el reconocimiento facial sea prohibido en todos los campus”, señaló Evan Greer, oficial director de FFTF.


Imagen de Gema Campos (CC BY-NC-ND 2.0)

Publicaciones relacionadas

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.