La tecnología de reconocimiento facial es aún peor para personas trans

Ago 16, 2019 | Privacidad

La tecnología de reconocimiento facial que las principales empresas de tecnología venden a gobiernos y empresas de todo el mundo tiene muchos problemas inherentes a cómo es desarrollada, especialmente ante poblaciones históricamente discriminadas como pueden ser personas de ascendencia afro o mujeres y de forma más grave aún con personas no binarias o transgénero.

Mientras más estudios y pruebas independientes son realizadas a los sistemas de reconocimiento facial que se desarrollan en el mundo, más se han encontrado que estos, al igual que gran parte de los algoritmos de inteligencia artificial, repiten los sesgos de las personas que los programaron, generalmente hombre blancos.

Estos sesgos programados en la tecnología significan que personas transgénero y no binarias no pueden acceder a sus beneficios, los pocos que existen, y corren grandes riesgos de ser identificados equivocadamente bajo otro género, discriminados o simplemente de convertirse en un “falso positivo” por estos programas, en expansión a través del mundo.

De acuerdo con el investigador Os Keyes, quien se ha dedicado a revisar 30 años de investigaciones sobre esta tecnología, la forma en que ésta ha sido abordada ha sido a través de borrar la noción de personas transgénero, “sus preocupaciones, necesidades y existencia desde el diseño y la investigación”, con “peligrosos resultados” para esta población, informó Motherboard.

En su investigación, Keyes identificó apenas tres documentos de investigación enfocados en personas trans, ninguno en personas trans no binarias en 30 años, adicionalmente, más el 90 por ciento de los estudios seguía un modelo binario de género, veía como inmutable el género el 70 por ciento de las veces y, cuando se trataba de investigación específica sobre el género, lo veía como un constructo puramente psicológico más del 80 por ciento de las veces.

Para Keyes la tecnología es un bucle con retroalimentación; es decir, los valores que construimos en nuestras máquinas son también enseñadas a las personas que las utilizan, así que cuando se construyen con un conjunto particular de valores como estos y se insertan en nuevos espacios, sistemas, estamos haciéndolos excluyentes y con eso también al mundo.

Cualquier persona que no entre en la “norma” enfrentará serios problemas con esta tecnología que rápidamente es desplegada por cuerpos de seguridad y con ésta es más probable que las personas trans o no binarias sufran desproporcionadamente consecuencias como terminar encarceladas, heridas o incluso muertas, concluye Keyes.


Imagen de torbakhopper (CC BY-ND 2.0)

Publicaciones relacionadas

La Unión Europea llega a un acuerdo para mejorar las condiciones laborales de trabajadores en plataformas digitales

La Unión Europea llega a un acuerdo para mejorar las condiciones laborales de trabajadores en plataformas digitales

El Parlamento Europeo y el Consejo de la Unión Europea han alcanzado un acuerdo provisional sobre una directiva para mejorar las condiciones laborales de las personas trabajadoras en plataformas digitales. La directiva representa un esfuerzo legislativo de la Unión Europea por reglamentar la gestión algorítmica y establecer condiciones laborales mínimas.

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.