La tecnología de reconocimiento de emociones no es compatible con los derechos humanos

Feb 22, 2021 | Privacidad

El diseño, desarrollo, venta y uso de tecnologías de reconocimiento de emociones no es consistente con el marco internacional de los derechos humanos, alerta la organización Artículo 19 en un reporte recién publicado sobre el uso de esta tecnología en China y su impacto.

De acuerdo con la organización, en este país el reconocimiento de emociones se está usando en una gran variedad de contextos, desde la seguridad pública, para identificar a personas sospechosas, como también para monitorear qué tan bien están rindiendo estudiantes en clase y determinar el acceso de las personas a crédito.

Artículo 19 hace énfasis en que China debe convertirse en una alerta para la comunidad internacional sobre cómo se utiliza esta tecnología y también cómo se está mercadeando, además de que el tiempo actual es crucial para poder llevar a cabo una defensa, antes de que estas tecnologías se conviertan en habituales.

“Los estudiantes de preparatoria no deberían temer a la recolección de datos sobre sus niveles de concentración y emociones, así como las evaluaciones emocionales de sospechosos que estén bajo interrogación de la policía tampoco deben ser utilizadas en su contra durante investigaciones”, aseguró Vidushi Marda, abogada e investigadora de la organización.

Marda alerta que es imperativo que se muestre cómo se están usando estas tecnologías y evalúe el impacto que tendrían internacionalmente antes de que se vuelvan más comunes, pero ante su incompatibilidad con los derechos humanos, la organización pide que sean prohibidas por completo.

El reporte también hace hincapié en las bases pseudocientíficas y racistas de este tipo de tecnologías, por lo que son simplemente insostenibles; más aún cuando son las corporaciones de seguridad quienes se ven más atraídas a utilizarlas, como herramientas para supuestamente prevenir comportamientos y como herramientas de interrogación.

Finalmente, Artículo 19 señala que mientras las empresas de tecnología destacan el “potencial” de sus productos, no atacan las posibles consecuencias discriminatorias de la recolectar información sobre salud mental y raza, en conjunto con los datos sobre emociones.


Imagen de Ars Electronica (CC BY-NC-ND 2.0)

Publicaciones relacionadas

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

Durante las últimas semanas, desde R3D: Red en Defensa de los Derechos Digitales hemos solicitado que se nos incluya en distintos espacios coordinados u organizados directamente por el Instituto Nacional Electoral en los que se discute sobre el voto electrónico y el voto por Internet, tales como la Cumbre Mundial de la Democracia, a celebrarse el mes de septiembre en México, así como el foro “Voto electrónico en México, la transición tecnológica de la democracia”, organizado por la Consejera Carla Humphrey, que tendrá lugar esta semana.

Director del Citizen Lab pide al gobierno de Canadá informar sobre spyware de la Policía Montada

Director del Citizen Lab pide al gobierno de Canadá informar sobre spyware de la Policía Montada

El gobierno federal de Canadá debe transparentar qué compañía o compañías son proveedoras de la tecnología de vigilancia que utiliza la Real Policía Montada de Canadá (RCMP, por sus siglas en inglés) para extraer secretamente información de dispositivos móviles, exigió Ron Deibert, director de Citizen Lab de la Universidad de Toronto, durante una audiencia en el Parlamento de Canadá.

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Una base de datos con cerca de 1.4 GB de información personal de clientes de Banorte fue filtrada en un sitio web, alertó Brian Krebs, periodista de investigación especializado en delitos informáticos. Krebs denunció en Twitter que la base de datos fue filtrada por el administrador de un foro dedicado a la venta de este tipo de archivos.

Policía de Nueva York deberá entregar información sobre vigilancia con reconocimiento facial usada en las protestas de Black Lives Matter

Policía de Nueva York deberá entregar información sobre vigilancia con reconocimiento facial usada en las protestas de Black Lives Matter

La Suprema Corte de Justicia de Nueva York ordenó al Departamento de Policía del estado permitir el acceso a 2 mil 700 documentos y correos relacionados con el uso de tecnología de reconocimiento facial y otros sistemas de vigilancia contra las personas que participaron en las protestas del movimiento Black Lives Matter (BLM) en 2020.