Corte del Reino Unido califica programa de reconocimiento facial como ilegal

Ago 13, 2020 | Privacidad

Una corte de apelaciones en Reino Unido sentenció que el programa de reconocimiento facial de la Policía de Gales del Sur es ilegal, debido a deficiencias fundamentales sobre su transparencia y efectividad.

De acuerdo con el tribunal, el sistema deja mucho a la discreción de los oficiales, ya que no existe claridad sobre quiénes están en las listas como objetivos y por qué, ni en el criterio para el despliegue del sistema AFR Locate. Además, la policía no investigó suficiente el sesgo racial o por género del sistema, informó Ars Technica.

En 2017, la policía de esta región comenzó a utilizar a modo de prueba un sistema en una docena de grandes eventos, como partidos de fútbol, para empatar las imágenes recolectadas en estos con listas de individuos buscados por las autoridades, ya sea porque tuvieran órdenes de búsqueda o en algún sentido fueran personas “de interés”.

Un año después, el mismo departamento de policía liberó datos en los que se mostraba que cerca del 92 por ciento de las identificaciones del sistema realizadas en un evento en 2017 fueron falsos positivos.

Aunque la sentencia no prohíbe por completo el uso de la tecnología de reconocimiento facial, sí es un importante precedente para el país, debido a que obliga a un uso menos amplio desde las agencias de aplicación de la ley y con más controles de este tipo de tecnología, para que respete los derechos humanos de la población.

“Esta tecnología es una herramienta de vigilancia masiva intrusiva y discriminatoria… Todos deberíamos ser capaces de usar nuestros espacios públicos sin ser sujetos a vigilancia opresiva”, explicó el residente de Cambridge Ed Bridges, quien interpuso inicialmente la demanda contra el sistema de vigilancia.

Estos estándares serán importantes para que otros departamentos de policía limiten la puesta en marcha de sus propios sistemas, como lo ha hecho la Policía de Londres, cuya tecnología también ha sido señalada por tener un enorme margen de error.


Imagen de KylaBorg (CC BY 2.0)

Publicaciones relacionadas