Microsoft eliminará funciones de reconocimiento de emociones, género y edad de su inteligencia artificial

Jun 24, 2022 | Privacidad

Microsoft anunció que planea eliminar el acceso a varias funciones de sus servicios de reconocimiento facial (inteligencia artificial) que permitían, supuestamente, identificar edad, género e, incluso, las emociones de una persona, informó el The New York Times.

Este anuncio forma parte de una política por controles más estrictos para los productos de inteligencia artificial de Microsoft: el “Estándar de inteligencia artificial responsable”, un documento de 27 páginas que establece requisitos para “garantizar” que esta tecnología no tenga impactos negativos en la sociedad.

Ahora, previo a su lanzamiento, todos los productos con este tipo de tecnología que puedan tener impactos en aspectos en la vida de las personas como empleo, educación, atención médica, servicios financieros o una “oportunidad de vida” tendrán que pasar un proceso de revisión por el equipo de inteligencia artificial de Microsoft, dirigido por Natasha Crampton.

Una de las herramientas de la compañía que más preocupación había generado era una que aseguraba poder reconocer emociones de las personas a partir de sus expresiones faciales, como ira, desprecio, disgusto, miedo, felicidad, neutralidad, tristeza o sorpresa.

Sin embargo, esto es imposible. Como ha sido demostrado por especialistas, en la actualidad las tecnologías de reconocimiento facial no tienen capacidad de inferir de manera correcta las emociones a través de la lectura de expresiones faciales o la voz, ya que los algoritmos no pueden hacer buenas inferencias sobre qué significan estos elementos en términos psicológicos.

“Hay una gran cantidad de variaciones culturales, geográficas e individuales en la forma en que nos expresamos”, lo que llevó a dudas sobre la confiabilidad de los sistemas, aseguró Crampton.

Asimismo, las herramientas de análisis de edad y género también generaron preocupaciones que llevarán a su eliminación. Por ejemplo, el clasificador de género del sistema solo identificaba a las personas como hombre o mujer. Lo que podría provocar frecuentes errores de identificación que ponen en riesgo de sufrir discriminación a personas, especialmente de la comunidad trans o quienes no tienen una identidad sexogenérica binaria.

La política de Microsoft es un paso positivo; sin embargo, es importante señalar que la tecnología de reconocimiento facial es en sí misma problemática y discriminatoria. Ya que estos sistemas son menos precisos en personas de pieles oscuras y son más utilizados para identificar a personas no blancas, muchas veces con resultados desastrosos.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.