Durante la pandemia de COVID-19 ha incrementado el uso de programas que hacen uso de información biométrica y reconocimiento facial. Una de ellas es ExamSoft, un software utilizado para la realización de los exámenes de barra, que sirven para acreditar a una persona para ejercer la abogacía.
Este tipo de programas han despertado preocupaciones sobre privacidad, recolección de datos biométricos, seguridad, vigilancia y discriminación. ExamSoft obliga a que las personas que rinden la prueba de manera remota deban permanecer frente a la cámara de la computadora todo el tiempo. Sin embargo, como informa el sitio VentureBeat, el software de reconocimiento facial muestra severos problemas para reconocer a personas no blancas.
De acuerdo con el reporte, las personas con tez oscura tienen que permanecer con una luz constante que les ilumine el rostro ─una situación muy incómoda para una prueba de horas─ que incluso puede conducir a dolores de cabeza, migrañas o pérdida de concentración. Más allá de la incomodidad, si el individuo cambia de posición o de condiciones de iluminación, se arriesga a perder la prueba.
Además, ExamSoft recolecta y almacena la información biométrica ─sea de una imagen de retina o un rostro─ de más de 30 mil personas que se graduaron de escuelas de leyes, creando una enorme base de datos personales que corre el riesgo de ser robada, filtrada o simplemente mal utilizada.
Esta no es la primera ocasión que existe evidencia de que las tecnologías de reconocimiento facial contienen sesgos raciales. En 2019, por ejemplo, un grupo de investigadores reveló que el software de reconocimiento facial Rekognition identificó erróneamente a 31 por ciento de mujeres de color como hombres.
Así mismo, un estudio del MIT, publicado en 2018, demostró que hay entre 12 y 19 por ciento más equivocaciones al identificar rostros con piel más oscura; mientras que la tasa de error al identificar mujeres es entre ocho y 20 por ciento más elevada que con hombres.
Imagen de PickPik