Corte del Reino Unido califica programa de reconocimiento facial como ilegal

Ago 13, 2020 | Privacidad

Una corte de apelaciones en Reino Unido sentenció que el programa de reconocimiento facial de la Policía de Gales del Sur es ilegal, debido a deficiencias fundamentales sobre su transparencia y efectividad.

De acuerdo con el tribunal, el sistema deja mucho a la discreción de los oficiales, ya que no existe claridad sobre quiénes están en las listas como objetivos y por qué, ni en el criterio para el despliegue del sistema AFR Locate. Además, la policía no investigó suficiente el sesgo racial o por género del sistema, informó Ars Technica.

En 2017, la policía de esta región comenzó a utilizar a modo de prueba un sistema en una docena de grandes eventos, como partidos de fútbol, para empatar las imágenes recolectadas en estos con listas de individuos buscados por las autoridades, ya sea porque tuvieran órdenes de búsqueda o en algún sentido fueran personas “de interés”.

Un año después, el mismo departamento de policía liberó datos en los que se mostraba que cerca del 92 por ciento de las identificaciones del sistema realizadas en un evento en 2017 fueron falsos positivos.

Aunque la sentencia no prohíbe por completo el uso de la tecnología de reconocimiento facial, sí es un importante precedente para el país, debido a que obliga a un uso menos amplio desde las agencias de aplicación de la ley y con más controles de este tipo de tecnología, para que respete los derechos humanos de la población.

“Esta tecnología es una herramienta de vigilancia masiva intrusiva y discriminatoria… Todos deberíamos ser capaces de usar nuestros espacios públicos sin ser sujetos a vigilancia opresiva”, explicó el residente de Cambridge Ed Bridges, quien interpuso inicialmente la demanda contra el sistema de vigilancia.

Estos estándares serán importantes para que otros departamentos de policía limiten la puesta en marcha de sus propios sistemas, como lo ha hecho la Policía de Londres, cuya tecnología también ha sido señalada por tener un enorme margen de error.


Imagen de KylaBorg (CC BY 2.0)

Publicaciones relacionadas

La Unión Europea llega a un acuerdo para mejorar las condiciones laborales de trabajadores en plataformas digitales

La Unión Europea llega a un acuerdo para mejorar las condiciones laborales de trabajadores en plataformas digitales

El Parlamento Europeo y el Consejo de la Unión Europea han alcanzado un acuerdo provisional sobre una directiva para mejorar las condiciones laborales de las personas trabajadoras en plataformas digitales. La directiva representa un esfuerzo legislativo de la Unión Europea por reglamentar la gestión algorítmica y establecer condiciones laborales mínimas.

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.