Corte de Nueva Jersey ordena entregar información sobre reconocimiento facial a persona sentenciada por robo

Jul 6, 2023 | Privacidad

Una corte de apelación del estado de Nueva Jersey en Estados Unidos resolvió que las autoridades deberán entregar información detallada sobre la tecnología utilizada para sentenciar a un hombre por robo a mano armada, identificado por un sistema de reconocimiento facial de la policía de Nueva York, informó la organización Electronic Frontier Foundation (EFF).

En el caso Estado de Nueva Jersey v. Francisco Arteaga, la sentencia se basó en las imágenes tomadas por una cámara de videovigilancia, que primero fueron analizadas por investigadores de NJ sin que se encontraran coincidencias en su base de datos. Luego, fueron enviadas al Centro de Delincuencia en Tiempo Real del Departamento de Policía de NY, cuyas bases de datos arrojaron el perfil de Arteaga como una “posible coincidencia”.

A lo largo del proceso, la defensa nunca tuvo conocimiento del algoritmo que generó este resultado ni del software utilizado. A pesar de que el acusado solicitó información detallada del proceso de búsqueda con un especialista que testificó sobre la necesidad de obtener dichos materiales, el tribunal negó la solicitud.

Tras la sentencia el año pasado, la EFF junto con el Centro de Información Electrónica Privada (EPIC, por sus siglas en inglés) y la Asociación Nacional de Abogados de Defensa Criminal (NACDL, en inglés) presentaron un amicus curiae, que “brindó la evidencia necesaria acerca de la novedad de las tecnologías de reconocimiento facial, la agencia humana involucrada en la generación de imágenes y sobre el hecho de que la veracidad de esta tecnología no ha sido probada ni se ha demostrado su fiabilidad con base en evidencias por parte de ningún tribunal de Nueva Jersey”, señaló la corte de apelaciones.

Para garantizar el derecho a un debido proceso, el acusado debe tener acceso a la materia prima utilizada por la policía para identificarlo y probar su fiabilidad, de modo que se pueda construir una defensa adecuada, pues se trata de una “tecnología nueva y no probada”, señaló la corte de apelaciones.

La información solicitada incluye el funcionamiento, el código fuente y los índices de margen de error de dicha tecnología, cuyo conocimiento por parte de la defensa es de suma importancia para poder apelar la acusación, desafiar la investigación del estado y crear duda razonable, agregó la corte.

“Esta resolución representa una clara victoria para la justicia, la equidad y la transparencia”, señala la EFF. Diversos estudios han demostrado que las tecnologías de reconocimiento facial son muy imprecisas con tasas de error superiores al 90%, sobre todo al identificar rostros de mujeres, personas de tez morena y disidentes de género, lo que implica mayor discriminación y persecución de grupos ya marginalizados.

Esta no es la primera vez que se cuestiona el uso de estas tecnologías por parte de la policía en Estados Unidos. Por ejemplo, en enero de 2023, un hombre afroamericano fue encarcelado en Louisiana por un sesgo racial del sistema de reconocimiento facial; y en 2020, se documentaron varios casos sobre su uso para perseguir a personas que participaron durante las protestas del movimiento BLM en ciudades como Nueva York, Miami, Columbia, Carolina del Sur y Filadelfia.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas