El número de cámaras de vigilancia instaladas en el mundo continúa creciendo a pasos agigantados. En consecuencia, la cantidad de vídeos ha generado un volumen de datos que los seres humanos somos incapaces de procesar sin ayuda, por lo que es cada vez más usual que el análisis de incidentes –como identificar actividades o vestimentas sospechas– sea delegado a programas de inteligencia artificial, lo que puede tener graves consecuencias para los derechos humanos.

Un reportaje publicado por Slate ilustra algunos de los inconvenientes actuales de confiar ciegamente estas decisiones a un software. De acuerdo con un reporte reciente de la Unión Americana por la Libertades Civiles (ACLU) existen compañías que venden análisis de vídeo que supuestamente reconocen el estado emocional de una persona.

A pesar de que este tipo de técnicas (utilizadas habitualmente para medir reacciones de consumidores sobre un producto) no están debidamente probadas, no es impensable que las agencias de seguridad piensen en utilizarlas para reconocer posibles amenazas. En los Juegos Olímpicos de Sochi, por ejemplo, las autoridades locales utilizaron un software para reconocer signos de agitación como potenciales amenazas.

Otra de las tecnologías señaladas es el uso del reconocimiento facial. El reportaje cita el caso de Rekognition, un software comercializado por Amazon para las agencias de seguridad. De acuerdo a un estudio del MIT, este programa identifica erróneamente a mujeres y hombres de piel oscura en un 31 por ciento de las veces, lo que pone especialmente en riesgo de abusos a comunidades ya de por sí marginalizadas.

El análisis de vídeo con inteligencia artificial es un mercado en crecimiento, con un valor actual estimado de 3.2 mil millones de dólares, y podría alcanzar los 8.5 mil millones en los próximos cuatro años. Por esa razón, Jay Stanley, autor del reporte de la ACLU, indica que es momento de implementar políticas para supervisar, evitar el abuso, e incluso prevenir la adopción de estas tecnologías, como ocurrió recientemente en San Francisco.

Ángel Díaz, abogado del Centro Brennan para la Justicia, considera que un buen primer paso es la creación de regulaciones sobre cómo el análisis de vídeos es utilizado por las fuerzas del orden público, como evaluar que los sistemas automatizados no reproduzcan sesgos. “Una vez que una pieza de tecnología está ya en el campo, es mucho más difícil aprobar reglas que restrinjan su uso, por eso es tan importante que las comunidades exijan transparencia y rendición de cuentas ahora”, concluye el reportaje.


Imagen de West Midlands Police (CC BY-SA 2.0)