Necesitamos regular el análisis de datos de videovigilancia antes de que sea demasiado tarde

Jul 1, 2019 | Privacidad

El número de cámaras de vigilancia instaladas en el mundo continúa creciendo a pasos agigantados. En consecuencia, la cantidad de vídeos ha generado un volumen de datos que los seres humanos somos incapaces de procesar sin ayuda, por lo que es cada vez más usual que el análisis de incidentes –como identificar actividades o vestimentas sospechas– sea delegado a programas de inteligencia artificial, lo que puede tener graves consecuencias para los derechos humanos.

Un reportaje publicado por Slate ilustra algunos de los inconvenientes actuales de confiar ciegamente estas decisiones a un software. De acuerdo con un reporte reciente de la Unión Americana por la Libertades Civiles (ACLU) existen compañías que venden análisis de vídeo que supuestamente reconocen el estado emocional de una persona.

A pesar de que este tipo de técnicas (utilizadas habitualmente para medir reacciones de consumidores sobre un producto) no están debidamente probadas, no es impensable que las agencias de seguridad piensen en utilizarlas para reconocer posibles amenazas. En los Juegos Olímpicos de Sochi, por ejemplo, las autoridades locales utilizaron un software para reconocer signos de agitación como potenciales amenazas.

Otra de las tecnologías señaladas es el uso del reconocimiento facial. El reportaje cita el caso de Rekognition, un software comercializado por Amazon para las agencias de seguridad. De acuerdo a un estudio del MIT, este programa identifica erróneamente a mujeres y hombres de piel oscura en un 31 por ciento de las veces, lo que pone especialmente en riesgo de abusos a comunidades ya de por sí marginalizadas.

El análisis de vídeo con inteligencia artificial es un mercado en crecimiento, con un valor actual estimado de 3.2 mil millones de dólares, y podría alcanzar los 8.5 mil millones en los próximos cuatro años. Por esa razón, Jay Stanley, autor del reporte de la ACLU, indica que es momento de implementar políticas para supervisar, evitar el abuso, e incluso prevenir la adopción de estas tecnologías, como ocurrió recientemente en San Francisco.

Ángel Díaz, abogado del Centro Brennan para la Justicia, considera que un buen primer paso es la creación de regulaciones sobre cómo el análisis de vídeos es utilizado por las fuerzas del orden público, como evaluar que los sistemas automatizados no reproduzcan sesgos. “Una vez que una pieza de tecnología está ya en el campo, es mucho más difícil aprobar reglas que restrinjan su uso, por eso es tan importante que las comunidades exijan transparencia y rendición de cuentas ahora”, concluye el reportaje.


Imagen de West Midlands Police (CC BY-SA 2.0)

Publicaciones relacionadas

Organizaciones presentan Protocolo Modelo contra acoso y hostigamiento sexual y laboral

Organizaciones presentan Protocolo Modelo contra acoso y hostigamiento sexual y laboral

El Protocolo Modelo de Prevención y Actuación en Casos de Discriminación, Acoso y Hostigamiento Sexual y Laboral (Protocolo Modelo) en Organizaciones de la Sociedad Civil es resultado del trabajo de un año entre ocho instituciones (Fundar, Artículo 19, la Red en Defensa de los Derechos Digitales, Ambulante, Serapaz, Instituto de Liderazgo Simone de Beauvoir, Equis Justicia para las Mujeres y Fondo Semillas) que se articularon para crear de “manera participativa y colectiva” para todo el sector.

¿Ciberseguridad para quién?: R3D cuestiona ausencia de sociedad civil en discusión sobre Ley de Ciberseguridad

¿Ciberseguridad para quién?: R3D cuestiona ausencia de sociedad civil en discusión sobre Ley de Ciberseguridad

“El proceso de elaboración de una ley de ciberseguridad no ha contemplado la participación equitativa de todos los actores”, señaló Grecia Macías, abogada de R3D: Red en Defensa de los Derechos Digitales, durante la sesión de Parlamento Abierto convocada el lunes 31 de octubre por la Comisión de Ciencia, Tecnología e Innovación de la Cámara de Diputados.