Otra app promete falsamente predecir la confiabilidad de las personas mediante reconocimiento facial

Ene 20, 2021 | Privacidad

La empresa japonesa DeepScore está atrayendo clientes de la industria crediticia y de seguros con la falsa promesa de tener una aplicación que, al leer movimientos faciales y cambios en la voz, puede detectar cuando miente o no una persona, informó Motherboard.

La aplicación utiliza un celular para presentar una serie de preguntas cortas a la persona que solicita el servicio, como “¿Dónde vives?”, “¿Cómo piensas usar el dinero?”, “¿Tienes un historial de cáncer?”. Supuestamente, el software lee las reacciones de las personas con la cámara del dispositivo para finalmente entregar un veredicto.

Sin embargo, especialistas advierten que estas tecnologías no pueden inferir de manera correcta emociones a través de la lectura de expresiones o la voz.

“Las serias preocupaciones que tengo sobre esta tecnología es que no hay una ciencia confiable para indicar que las expresiones faciales o inflexiones en la voz de las personas son pruebas de su estado mental o emocional”, explicó al medio el investigador en jefe de la organización Human Rights Watch.

DeepScore asegura que puede detectar engaños con un 70 por ciento de precisión y únicamente 30 por ciento de falsos negativos. No obstante, es muy probable que sus mediciones sean resultado de sesgos inherentes en su tecnología y discriminen a personas con tics, ansiedad o quienes no son neurotípicas, considera el doctor Rumman Chowdhury, fundador de la organización Parity AI.

A finales de 2020, un estudio que utilizó tecnología de reconocimiento facial para determinar la “confiabilidad” en retratos de personas del siglo XVI, publicado por Nature, recibió fuertes críticas por sus análisis superficiales, sesgos racistas y clasistas que hacían analogía a la práctica pseudocientífica de la frenología.

A pesar de la nula evidencia, estas empresas continúan alimentando la narrativa de que el reconocimiento facial puede incluso ayudar a predecir conductas delictivas, una idea sin sustento que, por desgracia, puede tener un efecto devastador en los derechos humanos.


Imagen de Matthew Roth (CC BY-NC 2.0)

Publicaciones relacionadas

La Unión Europea llega a un acuerdo para mejorar las condiciones laborales de trabajadores en plataformas digitales

La Unión Europea llega a un acuerdo para mejorar las condiciones laborales de trabajadores en plataformas digitales

El Parlamento Europeo y el Consejo de la Unión Europea han alcanzado un acuerdo provisional sobre una directiva para mejorar las condiciones laborales de las personas trabajadoras en plataformas digitales. La directiva representa un esfuerzo legislativo de la Unión Europea por reglamentar la gestión algorítmica y establecer condiciones laborales mínimas.

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.