Las tecnologías de reconocimiento facial son incapaces de inferir correctamente las emociones

Sep 30, 2020 | Privacidad

Las tecnologías de reconocimiento facial actualmente no tienen la capacidad de inferir de manera correcta emociones a través de la lectura de expresiones o la voz, señaló la especialista Lisa Feldman Barret, de la Northeastern University de Estados Unidos, en una entrevista para MIT TechReview.

Feldman aclara que esto se debe a que los algoritmos de reconocimiento de emociones detectan elementos aislados, como el movimiento del rostro, el cambio de la posición de la boca, el ceño, las cejas y muchas otras cosas; el tono de voz o el pulso cardiaco, pero no hacen buenas inferencias sobre qué significan estas cosas en términos psicológicos.

Por lo tanto, tampoco pueden inferir lo que va a hacer una persona a continuación, ni qué tan bien le va a ir en un trabajo, qué tan honesta va a ser o cualquiera de las cosas que se atribuyen a estos algoritmos de inteligencia artificial en la actualidad. En el ámbito de la seguridad pública, incluso se ha afirmado que son capaces de ayudar a predecir si una persona cometerá un crimen.

Para la especialista, los rostros humanos comunican mucho más que solo emociones, ─incluso estados físicos o actividades intelectuales─ y el repertorio de emociones con el que cuenta la tecnología actual es muy simple, limitado y se basa en una visión errónea de universalidad sobre cómo nos expresamos las personas.

Feldman y otros investigadores llevaron a cabo una revisión de más de mil artículos sobre emociones y alcanzaron una conclusión: no existen las emociones universales. En cambio, nuestro cerebro interpreta siempre tomando en cuenta el contexto, las experiencias y conocimiento previos.

Esta investigación concuerda con una publicación de la revista Nature en febrero de 2020, que también ha refutado la idea de que las expresiones faciales son universales y no varían entre contextos y culturas. Incluso, algunos científicos han solicitado que se detenga el uso de estas tecnologías por su falta de confiabilidad.

Sin embargo, las empresas que comercializan tecnologías de reconocimiento facial siguen promocionando las capacidades de reconocimiento emocional con poco o nulo sustento científico. Afortunadamente, el uso de estas tecnologías está siendo combatido en el mundo, como en Brasil, donde la autoridad de protección al consumidor ha demandado al metro de Sao Paulo por implementar un sistema que presuntamente detecta emociones.


Imagen de Southbank Centre (CC BY 2.0)

Publicaciones relacionadas

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.