Concebidas como tecnologías que buscan mejorar la seguridad pública o ayudar a las agencias de seguridad, el reconocimiento facial y de emociones se vende por empresas y se adopta por gobiernos como una tecnología prácticamente infalible y con bases científicas y éticas sólidas; sin embargo, la evidencia actual apunta en otro sentido.

En principio, la idea de que los algoritmos son imparciales o inocuos ha sido demostrada como falsa, debido a que estos no son creados de forma espontánea, sino por seres humanos con una formación y un contexto que es susceptible a prejuicios y carencias de origen. Por ejemplo, un estudio del MIT citado por la revista brasileña Epoca, encontró que si los algoritmos habían sido entrenados por hombres blancos, estos generaban información inexacta para identificar a mujeres y hombres afrodescendientes y de otros orígenes.

Señalamientos similares han sido realizados contra diversos sistemas de reconocimiento facial, como es el caso Rekognition de Amazon que tras un análisis hecho de forma independiente se demostró que confundía a mujeres con hombres en un 19 por ciento de las veces e identificó erróneamente mujeres de piel oscura por hombres en 31 por ciento.

Recientemente, un estudio independiente de la tecnología de reconocimiento facial de la Policía Metropolitana de Londres demostró que éste se equivoca en 4 de cada 5 casos en los que hay la identificación de una persona “sospechosa”.

Incluso, la forma en que estos algoritmos han sido desarrollados tiene severos conflictos éticos y son legalmente dudosos, como la empresa Microsoft, que fue forzada a eliminar una base de datos con 10 millones de imágenes que habían sido utilizadas para entrenar sus sistemas de reconocimiento facial. Este entrenamiento, aunque con fines académicos, fue hecho sin informar ni pedir consentimiento a la gente.

De acuerdo con el experto Jesper Rhode, la transparencia para usuarios sigue siendo una de los grandes problemas de estos sistemas, ya que muchas veces se desconocen qué datos los están alimentando, “son una caja negra”.

En tanto surgen más cuestiones a este tipo de tecnologías, su uso avanza en muchos países del mundo; por ejemplo, en abril pasado, el gobierno de Buenos Aires anunció que utilizará un nuevo sistema de reconocimiento facial a través de 300 cámaras de video y con una base de casi 46 mil datos, de acuerdo con el diario Perfil. Dicho sistema ya funciona en el subte bonaerense.

Finalmente, la creación de regulaciones como el Reglamento General de Protección de Datos de la Unión Europea o la Ley General de Protección de Datos de Brasil, la cual entrará en vigor en 2020, obligan a que para ser capturados sus datos, los ciudadanos tienen que dar su consentimiento y se debe informar cómo se utilizarán estos datos, en casos como la seguridad pública.


Imagen de Pxhere