Las tecnologías de vigilancia masiva son autoritarias y no resuelven los problemas de seguridad pública

Jul 11, 2023 | destacado, Privacidad

En fechas recientes, como parte de una estrategia de seguridad pública, diversos actores públicos han presentado públicamente propuestas para implementar tecnologías de vigilancia masiva y biométrica en el espacio público, tales como puntos de acuerdo para el uso de sistemas de vigilancia predictiva, iniciativas de ley para instalar cámaras de vigilancia con tecnología de reconocimiento facial por todo el país, y el Plan A.N.G.E.L, presentado por el precandidato presidencial Marcelo Ebrard. 

Estas propuestas pretenden combatir la inseguridad con el uso de tecnologías de reconocimiento facial, geolocalización de vehículos, identificación morfológica de delincuentes por la forma de caminar, uso de drones, cámaras “inteligentes” corporales para elementos de la Guardia Nacional y crear un ecosistema con una base de datos personales masiva y centralizada utilizando inteligencia artificial.

Estas herramientas de vigilancia han sido promocionadas en el mundo como soluciones mágicas al complejo problema de la inseguridad y el combate a la delincuencia. Esta narrativa tecnosolucionista mistifica estas tecnologías, mientras que oculta la evidencia documentada de las múltiples fallas de esas herramientas y los abusos y fines autoritarios con que se han implementado.

Numerosas investigaciones han acreditado que las tecnologías de vigilancia masiva con reconocimiento facial son altamente susceptibles de identificar erróneamente a las personas, lo cual ha provocado múltiples casos de detenciones arbitrarias de personas inocentes identificadas por equivocación como perpetradoras de delitos. 

Además, se encuentra ampliamente documentado que esta tecnología es particularmente susceptible de agravar la discriminación hacia grupos de población en situación de vulnerabilidad como las mujeres, los adultos mayores, las personas racializadas y las personas trans/no binaries.

Las tecnologías propuestas han sido frecuentemente utilizadas con fines autoritarios, tales como la persecución de manifestantes antirracistas en Estados Unidos, grupos feministas en la Ciudad de México, activistas prodemocracia en Hong Kong, periodistas y opositores en Egipto, hasta el monitoreo sistemático, perfilamiento y persecución de minorías étnicas como los Uigures en la región china de Xinjiang.

Múltiples organismos internacionales han advertido que herramientas de vigilancia masiva e identificación biométrica en el espacio público constituyen serias amenazas a los derechos humanos, tribunales internacionales han condenado a Estados por su uso y en diversas regiones del mundo ha sido prohibido su despliegue

Por su parte, propuestas como la identificación morfológica de la forma de caminar y sistemas predictivos a través de rasgos corporales han sido sumamente criticadas por su falta de respaldo científico, así como por ser pseudocientíficas y usar las mismas clasificaciones racistas de la frenología. Recientemente, la Comisión Europea prohibió estos sistemas de vigilancia predictiva por su alto nivel de riesgo a los derechos de las personas. 

Además, la escala masiva e ineludible de las medidas de vigilancia propuestas supone la creación de bases de datos biométricas centralizadas, altamente vulnerables a ataques informáticos y filtraciones con consecuencias permanentes para la población. Este tipo de medidas ya han sido declaradas inconstitucionales por la SCJN, como el extinto Padrón de Usuarios de Telefonía Móvil (PANAUT).

Resulta particularmente preocupante la propuesta de despliegue de este tipo de tecnologías en un contexto como el mexicano, en el que existen altos índices de corrupción y colusión entre autoridades y el crimen organizado; una rampante militarización; una creciente opacidad gubernamental; así como múltiples precedentes de abuso de tecnologías de vigilancia, como el malware Pegasus, los cuales permanecen en absoluta impunidad. 

Bajo este contexto, estas propuestas —impulsadas por quienes mantienen un interés económico y político detrás de estas tecnologías— ponen bajo serio riesgo a la población que demagógicamente dicen proteger.

Hacemos un llamado a la ciudadanía a rechazar este tipo de propuestas. Pedimos a los diversos actores públicos que actúen con responsabilidad y ofrezcan a la población alternativas serias, basadas en evidencia y respetuosas de los derechos humanos, para resolver el grave problema de inseguridad y violencia que atraviesa el país.

Organizaciones firmantes

R3D Red en Defensa de los Derechos Digitales
comun.al, Laboratorio de resiliencia digital
SocialTIC
Access Now


Imagen: (CC-BY) Gibrán Aquino

Publicaciones relacionadas