La tecnología de reconocimiento facial es aún peor para personas trans

Ago 16, 2019 | Privacidad

La tecnología de reconocimiento facial que las principales empresas de tecnología venden a gobiernos y empresas de todo el mundo tiene muchos problemas inherentes a cómo es desarrollada, especialmente ante poblaciones históricamente discriminadas como pueden ser personas de ascendencia afro o mujeres y de forma más grave aún con personas no binarias o transgénero.

Mientras más estudios y pruebas independientes son realizadas a los sistemas de reconocimiento facial que se desarrollan en el mundo, más se han encontrado que estos, al igual que gran parte de los algoritmos de inteligencia artificial, repiten los sesgos de las personas que los programaron, generalmente hombre blancos.

Estos sesgos programados en la tecnología significan que personas transgénero y no binarias no pueden acceder a sus beneficios, los pocos que existen, y corren grandes riesgos de ser identificados equivocadamente bajo otro género, discriminados o simplemente de convertirse en un “falso positivo” por estos programas, en expansión a través del mundo.

De acuerdo con el investigador Os Keyes, quien se ha dedicado a revisar 30 años de investigaciones sobre esta tecnología, la forma en que ésta ha sido abordada ha sido a través de borrar la noción de personas transgénero, “sus preocupaciones, necesidades y existencia desde el diseño y la investigación”, con “peligrosos resultados” para esta población, informó Motherboard.

En su investigación, Keyes identificó apenas tres documentos de investigación enfocados en personas trans, ninguno en personas trans no binarias en 30 años, adicionalmente, más el 90 por ciento de los estudios seguía un modelo binario de género, veía como inmutable el género el 70 por ciento de las veces y, cuando se trataba de investigación específica sobre el género, lo veía como un constructo puramente psicológico más del 80 por ciento de las veces.

Para Keyes la tecnología es un bucle con retroalimentación; es decir, los valores que construimos en nuestras máquinas son también enseñadas a las personas que las utilizan, así que cuando se construyen con un conjunto particular de valores como estos y se insertan en nuevos espacios, sistemas, estamos haciéndolos excluyentes y con eso también al mundo.

Cualquier persona que no entre en la “norma” enfrentará serios problemas con esta tecnología que rápidamente es desplegada por cuerpos de seguridad y con ésta es más probable que las personas trans o no binarias sufran desproporcionadamente consecuencias como terminar encarceladas, heridas o incluso muertas, concluye Keyes.


Imagen de torbakhopper (CC BY-ND 2.0)

Publicaciones relacionadas

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

Durante las últimas semanas, desde R3D: Red en Defensa de los Derechos Digitales hemos solicitado que se nos incluya en distintos espacios coordinados u organizados directamente por el Instituto Nacional Electoral en los que se discute sobre el voto electrónico y el voto por Internet, tales como la Cumbre Mundial de la Democracia, a celebrarse el mes de septiembre en México, así como el foro “Voto electrónico en México, la transición tecnológica de la democracia”, organizado por la Consejera Carla Humphrey, que tendrá lugar esta semana.

Director del Citizen Lab pide al gobierno de Canadá informar sobre spyware de la Policía Montada

Director del Citizen Lab pide al gobierno de Canadá informar sobre spyware de la Policía Montada

El gobierno federal de Canadá debe transparentar qué compañía o compañías son proveedoras de la tecnología de vigilancia que utiliza la Real Policía Montada de Canadá (RCMP, por sus siglas en inglés) para extraer secretamente información de dispositivos móviles, exigió Ron Deibert, director de Citizen Lab de la Universidad de Toronto, durante una audiencia en el Parlamento de Canadá.

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Una base de datos con cerca de 1.4 GB de información personal de clientes de Banorte fue filtrada en un sitio web, alertó Brian Krebs, periodista de investigación especializado en delitos informáticos. Krebs denunció en Twitter que la base de datos fue filtrada por el administrador de un foro dedicado a la venta de este tipo de archivos.

Policía de Nueva York deberá entregar información sobre vigilancia con reconocimiento facial usada en las protestas de Black Lives Matter

Policía de Nueva York deberá entregar información sobre vigilancia con reconocimiento facial usada en las protestas de Black Lives Matter

La Suprema Corte de Justicia de Nueva York ordenó al Departamento de Policía del estado permitir el acceso a 2 mil 700 documentos y correos relacionados con el uso de tecnología de reconocimiento facial y otros sistemas de vigilancia contra las personas que participaron en las protestas del movimiento Black Lives Matter (BLM) en 2020.