La policía de Delhi, en India, considera para su sistema de reconocimiento facial, que una coincidencia es “positiva” con una tasa de precisión de tan solo 80% y como “falso positivo” cuando la precisión es menor, con lo que la persona identificada permanece en el radar de la institución, informó el periodista Soumyarendra Barik.
Los registros obtenidos por la organización Internet Freedom Foundation (IFF), a través de una solicitud de información, arrojan luz sobre cómo este departamento de policía utiliza la tecnología de reconocimiento facial en sus investigaciones.
Hasta ahora, el sistema se ha utilizado para identificar a personas que pudieron haber participado en las protestas de 2020, 2021 y a inicios de este año en Delhi. Sin embargo, la institución se negó a responder si han establecido alguna coincidencia en estos casos bajo el argumento de reservar información que pudiera interferir con las investigaciones.
“Aunque la tecnología no brinde resultados suficientes, la policía de Delhi puede iniciar una investigación contra cualquier persona con un porcentaje muy bajo. Cualquier persona que tenga un parecido mínimo podría ser afectada, lo que podría perjudicar a comunidades que han sido históricamente atacadas”, señaló Anushka Jain, consejera asociada de IFF.
En 2018, la organización American Civil Liberties Union realizó una prueba del sistema de reconocimiento facial de Amazon, Rekognition, con un límite de coincidencia mínimo del 80%, que asoció erróneamente a 28 miembros del Congreso estadounidense con fichas policiales de personas con antecedentes delictivos.
En su momento, Amazon dijo que si bien el 80% de coincidencia era un límite confiable para establecer coincidencias con imágenes de hot dogs, sillas o animales, no sería apropiado para identificar a personas con un nivel razonable de certeza.
La India vive un incremento en el uso de las tecnologías de inteligencia artificial. En junio pasado, organizaciones nacionales e internacionales alertaron sobre la proliferación de sistemas de reconocimiento facial y la integración de bases de datos biométricos de la población, sin controles judiciales ni objetivos legítimos.
“Es indispensable realizar evaluaciones de impacto por tratarse de tecnologías nuevas que no se han probado y están siendo usadas por agencias de seguridad, lo cual podría generar efectos irreversibles y daños a las personas”, finalizó Jain de IFF.
Imagen (CC BY) Gibrán Aquino