La policía de Delhi acepta una tasa de apenas 80 por ciento de precisión en su sistema de reconocimiento facial

Sep 2, 2022 | Privacidad

La policía de Delhi, en India, considera para su sistema de reconocimiento facial, que una coincidencia es “positiva” con una tasa de precisión de tan solo 80% y como “falso positivo” cuando la precisión es menor, con lo que la persona identificada permanece en el radar de la institución, informó el periodista Soumyarendra Barik.

Los registros obtenidos por la organización Internet Freedom Foundation (IFF), a través de una solicitud de información, arrojan luz sobre cómo este departamento de policía utiliza la tecnología de reconocimiento facial en sus investigaciones.

Hasta ahora, el sistema se ha utilizado para identificar a personas que pudieron haber participado en las protestas de 2020, 2021 y a inicios de este año en Delhi. Sin embargo, la institución se negó a responder si han establecido alguna coincidencia en estos casos bajo el argumento de reservar información que pudiera interferir con las investigaciones.

“Aunque la tecnología no brinde resultados suficientes, la policía de Delhi puede iniciar una investigación contra cualquier persona con un porcentaje muy bajo. Cualquier persona que tenga un parecido mínimo podría ser afectada, lo que podría perjudicar a comunidades que han sido históricamente atacadas”, señaló Anushka Jain, consejera asociada de IFF.

En 2018, la organización American Civil Liberties Union realizó una prueba del sistema de reconocimiento facial de Amazon, Rekognition, con un límite de coincidencia mínimo del 80%, que asoció erróneamente a 28 miembros del Congreso estadounidense con fichas policiales de personas con antecedentes delictivos.

En su momento, Amazon dijo que si bien el 80% de coincidencia era un límite confiable para establecer coincidencias con imágenes de hot dogs, sillas o animales, no sería apropiado para identificar a personas con un nivel razonable de certeza.

La India vive un incremento en el uso de las tecnologías de inteligencia artificial. En junio pasado, organizaciones nacionales e internacionales alertaron sobre la proliferación de sistemas de reconocimiento facial y la integración de bases de datos biométricos de la población, sin controles judiciales ni objetivos legítimos.

“Es indispensable realizar evaluaciones de impacto por tratarse de tecnologías nuevas que no se han probado y están siendo usadas por agencias de seguridad, lo cual podría generar efectos irreversibles y daños a las personas”, finalizó Jain de IFF.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas

Exigimos que las personas puedan #migrarsinvigilancia: ¡No a la recolección e intercambio masivo de datos biométricos de personas migrantes!

Exigimos que las personas puedan #migrarsinvigilancia: ¡No a la recolección e intercambio masivo de datos biométricos de personas migrantes!

En mayo de este año, más de 35 organizaciones de derechos humanos enviamos una carta a Amazon Web Services (AWS) para pedirle que termine su acuerdo para albergar la base de datos de tecnología de reconocimiento avanzado nacional (Homeland Advanced Recognition Technology o HART) del Departamento de Seguridad Nacional de los Estados Unidos (DHS por sus siglas en inglés). Aún no recibimos respuesta.