Autoridades de la ciudad de San Petersburgo, en Rusia, planean introducir tecnología de reconocimiento étnico en las cámaras de vigilancia que tienen instaladas en la ciudad como una estrategia para “controlar y vigilar” a personas migrantes, informa el medio digital Meduza.
Oleg Kapitanov, jefe del Comité de Relaciones Interétnicas de la administración municipal, declaró que entre los planes de la ciudad estaba el programar las cámaras de vigilancia para reconocer el origen étnico de las personas, bajo el argumento de prevenir la formación de “enclaves étnicos” y “tomar medidas preventivas para evitar las tensiones sociales en la región”.
Kapitanov aseguró que su comité había firmado un contrato para adquirir licencias de software con la “tecnología de reconocimiento étnico” e instalarla en 8 mil cámaras por toda la ciudad. Según medios locales, el contrato podría ascender a más de 430 mil dólares.
El Consejo Presidencial de Derechos Humanos de Rusia criticó la iniciativa, calificándola de “degradante”. Así mismo, Alexandra Dokuchaeva, subdirectora del Instituto de los Países de la Comunidad de Estados Independientes (CEI), declaró que “esta iniciativa es un error, [ya que] solo alimenta las tensiones y las discordias interétnicas. Éticamente, plantea serias dudas sobre la competencia de quienes ocupan cargos en el gobierno”.
La medida surge en medio de un intenso sentimiento antiinmigrante en Rusia, después de un ataque terrorista en la sede de un concierto en Moscú que dejó más de 130 personas fallecidas en marzo de 2024. Las autoridades han inculpado a ciudadanos de Tayikistán por el suceso, lo que ha detonado que se realicen redadas en hogares y centros de trabajo de personas migrantes, así como el endurecimiento de las leyes migratorias.
El uso de la videovigilancia para identificar opositores en Rusia no es nuevo. Incluso, en julio de 2023, el Tribunal Europeo de Derechos Humanos condenó al gobierno ruso por emplear tecnología de reconocimiento facial para identificar a un ciudadano tras una protesta en Moscú.
Tampoco ha quedado claro cómo funcionará la tecnología propuesta para reconocer la etnicidad de una persona, sobre todo ante las tasas de error que han conducido a detenciones arbitrarias. Por ejemplo, en Brasil, un sistema de reconocimiento facial fue señalado por “racismo algorítmico”, debido a que identificó erróneamente a personas que no cometieron delitos simplemente en su fenotipo o color de piel.

Imagen: (CC-BY) Gibrán Aquino