La policía de Delhi acepta una tasa de apenas 80 por ciento de precisión en su sistema de reconocimiento facial

Sep 2, 2022 | Privacidad

La policía de Delhi, en India, considera para su sistema de reconocimiento facial, que una coincidencia es “positiva” con una tasa de precisión de tan solo 80% y como “falso positivo” cuando la precisión es menor, con lo que la persona identificada permanece en el radar de la institución, informó el periodista Soumyarendra Barik.

Los registros obtenidos por la organización Internet Freedom Foundation (IFF), a través de una solicitud de información, arrojan luz sobre cómo este departamento de policía utiliza la tecnología de reconocimiento facial en sus investigaciones.

Hasta ahora, el sistema se ha utilizado para identificar a personas que pudieron haber participado en las protestas de 2020, 2021 y a inicios de este año en Delhi. Sin embargo, la institución se negó a responder si han establecido alguna coincidencia en estos casos bajo el argumento de reservar información que pudiera interferir con las investigaciones.

“Aunque la tecnología no brinde resultados suficientes, la policía de Delhi puede iniciar una investigación contra cualquier persona con un porcentaje muy bajo. Cualquier persona que tenga un parecido mínimo podría ser afectada, lo que podría perjudicar a comunidades que han sido históricamente atacadas”, señaló Anushka Jain, consejera asociada de IFF.

En 2018, la organización American Civil Liberties Union realizó una prueba del sistema de reconocimiento facial de Amazon, Rekognition, con un límite de coincidencia mínimo del 80%, que asoció erróneamente a 28 miembros del Congreso estadounidense con fichas policiales de personas con antecedentes delictivos.

En su momento, Amazon dijo que si bien el 80% de coincidencia era un límite confiable para establecer coincidencias con imágenes de hot dogs, sillas o animales, no sería apropiado para identificar a personas con un nivel razonable de certeza.

La India vive un incremento en el uso de las tecnologías de inteligencia artificial. En junio pasado, organizaciones nacionales e internacionales alertaron sobre la proliferación de sistemas de reconocimiento facial y la integración de bases de datos biométricos de la población, sin controles judiciales ni objetivos legítimos.

“Es indispensable realizar evaluaciones de impacto por tratarse de tecnologías nuevas que no se han probado y están siendo usadas por agencias de seguridad, lo cual podría generar efectos irreversibles y daños a las personas”, finalizó Jain de IFF.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas

Organizaciones presentan Protocolo Modelo contra acoso y hostigamiento sexual y laboral

Organizaciones presentan Protocolo Modelo contra acoso y hostigamiento sexual y laboral

El Protocolo Modelo de Prevención y Actuación en Casos de Discriminación, Acoso y Hostigamiento Sexual y Laboral (Protocolo Modelo) en Organizaciones de la Sociedad Civil es resultado del trabajo de un año entre ocho instituciones (Fundar, Artículo 19, la Red en Defensa de los Derechos Digitales, Ambulante, Serapaz, Instituto de Liderazgo Simone de Beauvoir, Equis Justicia para las Mujeres y Fondo Semillas) que se articularon para crear de “manera participativa y colectiva” para todo el sector.

¿Ciberseguridad para quién?: R3D cuestiona ausencia de sociedad civil en discusión sobre Ley de Ciberseguridad

¿Ciberseguridad para quién?: R3D cuestiona ausencia de sociedad civil en discusión sobre Ley de Ciberseguridad

“El proceso de elaboración de una ley de ciberseguridad no ha contemplado la participación equitativa de todos los actores”, señaló Grecia Macías, abogada de R3D: Red en Defensa de los Derechos Digitales, durante la sesión de Parlamento Abierto convocada el lunes 31 de octubre por la Comisión de Ciencia, Tecnología e Innovación de la Cámara de Diputados.