Un estudio publicado en la revista Nature Communications aporta nueva evidencia acerca de la baja confiabilidad de las tecnologías de reconocimiento de emociones.

Existe la hipótesis de que emociones como el enojo, la tristeza o la felicidad tienen expresiones faciales identificables que son universales en todas las culturas. De este modo, se asume que las emociones son posibles de inferir con un alto grado de confianza a partir de estas expresiones.

Para probar esta idea, a menudo se solicita a personas sin entrenamiento que representen una emoción ─muchas veces, sin contexto─ con una expresión. Sin embargo, el equipo de investigadores considera que esto limita la posibilidad de entender el rango expresivo, ya que se incentiva a los participantes a emplear movimientos faciales estereotipados.

Por esa razón, los investigadores idearon un experimento utilizando imágenes de actores como estímulo. El estudio empleó 604 fotografías de personas con entrenamiento actoral, quienes evocaban emociones a partir de escenarios detallados (por ejemplo: “esta persona está confrontando a su amante, quien la ha rechazado, y a su esposa, mientras van saliendo de un restaurante”).

Los investigadores pidieron a 839 individuos que identificaran la emoción representada en 30 escenarios. El participante debía elegir una de 13 emociones disponibles: asombro, entretenimiento, enojo, desprecio, disgusto, vergüenza, miedo, felicidad, interés, orgullo, pena, sorpresa y tristeza.

Con los resultados, los investigadores usaron un sistema de aprendizaje automatizado para calcular la media y clasificar a cada actor con su respectiva emoción. Esto reveló que las personas utilizan gestos faciales distintos para representar la misma categoría de emociones, y que incluso las expresiones faciales similares no reflejan de manera precisa o confiable la misma categoría de emociones.

Después, pidieron a otra muestra (1687 personas) inferir la expresión mostrada; a una mitad se les proporcionó solamente la expresión facial y a la otra se le presentó la fotografía con su escenario respectivo. Los resultados mostraron que las poses solas no son suficientes para inferir su significado emocional, mientras que también mostraron que el contexto emocional provisto por el escenario era más influyente en la interpretación que el rostro.

“Estos hallazgos resaltan la importancia de evidencia existente que el contexto hace más para moderar la percepción de expresiones emocionales universales: contexto es una poderosa influencia en percepción de emociones […]”, se puede leer en el estudio.

Asimismo, el grupo de investigación señala que es importante reconocer las formas variables en las que las personas expresan sus emociones, ya que confiar en configuraciones estereotípicas ─como las que utilizan los algoritmos de reconocimiento de emociones─ es impreciso cuando existe una variabilidad moderada o amplia dentro de una categoría o entre ellas.

“Los algoritmos de visión por computadora han sido diseñados para presuntamente ‘detectar’ el enojo, la felicidad, la tristeza y otros usando ceños, sonrisas, entrecejos y otras configuraciones faciales que se presumen universales”, indica la discusión del estudio, “sin embargo (…) como sugieren los presentes hallazgos, esto apunta a más problemas éticos y prácticos en la implementación de estos algoritmos en contextos predictivos del mundo real”.

Estas conclusiones son consistentes con otros estudios que han mostrado que no es posible inferir las emociones de una persona a partir de sus expresiones faciales, e incluso se considera que sus bases están fundamentadas en creencias obsoletas. Además, las tecnologías de reconocimiento de emociones han sido consideradas incompatibles con los derechos humanos debido a sus bases pseudocientíficas.


Imagen de Alan O’Rourke (CC BY 2.0)