La empresa japonesa DeepScore está atrayendo clientes de la industria crediticia y de seguros con la falsa promesa de tener una aplicación que, al leer movimientos faciales y cambios en la voz, puede detectar cuando miente o no una persona, informó Motherboard.

La aplicación utiliza un celular para presentar una serie de preguntas cortas a la persona que solicita el servicio, como “¿Dónde vives?”, “¿Cómo piensas usar el dinero?”, “¿Tienes un historial de cáncer?”. Supuestamente, el software lee las reacciones de las personas con la cámara del dispositivo para finalmente entregar un veredicto.

Sin embargo, especialistas advierten que estas tecnologías no pueden inferir de manera correcta emociones a través de la lectura de expresiones o la voz.

“Las serias preocupaciones que tengo sobre esta tecnología es que no hay una ciencia confiable para indicar que las expresiones faciales o inflexiones en la voz de las personas son pruebas de su estado mental o emocional”, explicó al medio el investigador en jefe de la organización Human Rights Watch.

DeepScore asegura que puede detectar engaños con un 70 por ciento de precisión y únicamente 30 por ciento de falsos negativos. No obstante, es muy probable que sus mediciones sean resultado de sesgos inherentes en su tecnología y discriminen a personas con tics, ansiedad o quienes no son neurotípicas, considera el doctor Rumman Chowdhury, fundador de la organización Parity AI.

A finales de 2020, un estudio que utilizó tecnología de reconocimiento facial para determinar la “confiabilidad” en retratos de personas del siglo XVI, publicado por Nature, recibió fuertes críticas por sus análisis superficiales, sesgos racistas y clasistas que hacían analogía a la práctica pseudocientífica de la frenología.

A pesar de la nula evidencia, estas empresas continúan alimentando la narrativa de que el reconocimiento facial puede incluso ayudar a predecir conductas delictivas, una idea sin sustento que, por desgracia, puede tener un efecto devastador en los derechos humanos.


Imagen de Matthew Roth (CC BY-NC 2.0)