Con una inversión de más de 700 millones de reales (alrededor de 140.6 millones de dólares), las autoridades de Bahía en Brasil instauraron en 2018 un sistema de vigilancia con reconocimiento facial que, según personas expertas, usa base de datos informales, viola la presunción de inocencia y trata de forma desigual a las personas por su origen racial, informa el medio digital G1.
Desde su implementación, el sistema de reconocimiento facial ha detenido a 1011 personas, de las cuales varias han resultado inocentes, sin que las autoridades hayan ofrecido datos sobre los errores hasta la fecha. La justificación del Estado es que las personas encontradas por el sistema están incluidas en el banco de órdenes de detención.
Sin embargo, aunque una persona sospechosa esté incluida en el banco de órdenes de aprehensión, no hay garantía legal de que haya cometido el delito que se le imputa, lo que viola la presunción de inocencia.
Personas expertas, consultadas por el medio, señalan que este sistema usa catálogos informales y se basa en un “racismo algorítmico”, lo que puede aumentar la detención arbitraria de personas basadas simplemente en su fenotipo o su color de piel.
Por ejemplo, uno de los casos más llamativos fue el de un hombre negro que fue detenido en el Parque de Exposiciones de la capital mientras paseaba con su esposa e hija. El inculpado, un guardia de seguridad, fue encarcelado injustamente por robo durante 26 días. Más tarde se descubrió que otra persona había cometido el delito en 2012, haciéndose pasar por el guardia y usando sus huellas dactilares.
Según las autoridades de Bahía, el sistema de reconocimiento facial encontró una similitud de 95 por ciento entre el guardia y la persona que había cometido el crimen. Sin embargo, la Secretaría de Seguridad Pública jamás pudo explicar cómo llegó la fotografía del guardia a su base de datos, ya que él nunca había sido procesado por algún delito.
Además de estas violaciones, Ana Gabriela Ferreira, abogada con maestría en Derecho y doctorado en Filosofía, investigadora sobre el tema, también afirma que las personas racializadas pueden ser más afectadas por estos errores, como también ha sido el caso de sistemas de reconocimiento facial en Estados Unidos.
“Hay innumerables violaciones, empezando por el trato desigual basado en la raza, el género y la etnia. El efecto en la vida de una persona injustamente encarcelada es devastador. Tras ser encarceladas, quedan estigmatizadas de por vida, desde sus círculos íntimos hasta los laborales y sociales” señaló la investigadora.
Ferreira señala que el reconocimiento facial fotográfico o biométrico se basa en perfiles de personas mayoritariamente negras, aunque éstas nunca hayan cometido ningún delito, lo que crea un sesgo en la información que usa el sistema para reconocer a personas sospechosas. Estos errores alcanzan casi el 40% cuando se trata de mujeres racializadas o personas trans, mientras que en hombres blancos, la tasa de error cae a solo el 0.3%.
“Si la tecnología es erróneamente encuadrada y percibida como neutra, este concepto erróneo se ve agravado por la negación del racismo como fundamento de las relaciones y jerarquías sociales en países como Brasil”, escribió el investigador Tarcízio Silva en su libro Racismo algorítmico: inteligencia artificial y discriminación en las redes digitales.
El caso de Bahía no es el único que levanta preocupaciones en Brasil. Recientemente se dio a conocer el plan de implementar 40 mil cámaras con reconocimiento facial en Sao Paulo, bajo el proyecto Smart Sampa, lo que también prendió los focos rojos de las organizaciones en defensa de la privacidad, encontrando el mismo patrón de sesgos raciales y falsos positivos.
Imagen: (CC-BY) Gibrán Aquino