El Parlamento Europeo votó una resolución a favor de prohibir completamente la vigilancia a través de sistemas de detección biométrica, como es la tecnología de reconocimiento facial, debido a su grave impacto en las libertades y derechos fundamentales como la privacidad.

Las y los representantes en el Parlamento Europeo llamaron a los Poderes legislativos de los países miembro de la Unión Europea a aprobar prohibiciones permanentes a la identificación automatizada de personas en espacios públicos, ya que las y los ciudadanos solamente deben ser monitoreados si son sospechosos de un crimen, informó TechCrunch.

El Parlamento también se pronunció en contra del uso de bases de datos privadas para el reconocimiento facial, como el que vende la empresa estadounidense Clearview, y el uso de tecnología que “califique” la confiabilidad de una persona basada en su comportamiento o personalidad.

La resolución es un importante antecedente para las próximas negociaciones de la Ley de Inteligencia Artificial, en cuya propuesta se establecerían de manera muy similar la prohibición del uso de inteligencia artificial para “vigilancia indiscriminada”, incluyendo en espacios físicos o que agregan datos de otras fuentes; su uso para calificar el nivel de “confianza” de una persona basado en su personalidad o comportamiento social y la autorización especial para utilizar “sistemas de identificación biométrica remota”.

Aunque la legislación fue bienvenida por organizaciones que defienden derechos humanos, también criticaron las limitaciones de la propuesta; por ejemplo, Access Now señaló que la definición de conceptos como inteligencia artificial y vigilancia masiva era vaga y permitía muchos vacíos legales.

La resolución del Parlamento Europeo también refiere al sesgo inherente a los algoritmos, por lo que pide una fuerte supervisión humana de su uso y fuertes poderes legales para prevenir la discriminación con base en inteligencia artificial.

Adicionalmente, los sistemas de inteligencia artificial deberán ser transparentes, rastreables y suficientemente documentados, para salvaguardar los derechos humanos al hacer una identificación, ya que los representantes señalaron que se ha reconocido que los algoritmos tienen mayores tasas de error al reconocer a personas de minorías étnicas, de la comunidad LGBT+, personas adultas mayores y mujeres.


Imagen de Sheila Scarborough (CC BY 2.0)