Microsoft eliminará funciones de reconocimiento de emociones, género y edad de su inteligencia artificial

Jun 24, 2022 | Privacidad

Microsoft anunció que planea eliminar el acceso a varias funciones de sus servicios de reconocimiento facial (inteligencia artificial) que permitían, supuestamente, identificar edad, género e, incluso, las emociones de una persona, informó el The New York Times.

Este anuncio forma parte de una política por controles más estrictos para los productos de inteligencia artificial de Microsoft: el “Estándar de inteligencia artificial responsable”, un documento de 27 páginas que establece requisitos para “garantizar” que esta tecnología no tenga impactos negativos en la sociedad.

Ahora, previo a su lanzamiento, todos los productos con este tipo de tecnología que puedan tener impactos en aspectos en la vida de las personas como empleo, educación, atención médica, servicios financieros o una “oportunidad de vida” tendrán que pasar un proceso de revisión por el equipo de inteligencia artificial de Microsoft, dirigido por Natasha Crampton.

Una de las herramientas de la compañía que más preocupación había generado era una que aseguraba poder reconocer emociones de las personas a partir de sus expresiones faciales, como ira, desprecio, disgusto, miedo, felicidad, neutralidad, tristeza o sorpresa.

Sin embargo, esto es imposible. Como ha sido demostrado por especialistas, en la actualidad las tecnologías de reconocimiento facial no tienen capacidad de inferir de manera correcta las emociones a través de la lectura de expresiones faciales o la voz, ya que los algoritmos no pueden hacer buenas inferencias sobre qué significan estos elementos en términos psicológicos.

“Hay una gran cantidad de variaciones culturales, geográficas e individuales en la forma en que nos expresamos”, lo que llevó a dudas sobre la confiabilidad de los sistemas, aseguró Crampton.

Asimismo, las herramientas de análisis de edad y género también generaron preocupaciones que llevarán a su eliminación. Por ejemplo, el clasificador de género del sistema solo identificaba a las personas como hombre o mujer. Lo que podría provocar frecuentes errores de identificación que ponen en riesgo de sufrir discriminación a personas, especialmente de la comunidad trans o quienes no tienen una identidad sexogenérica binaria.

La política de Microsoft es un paso positivo; sin embargo, es importante señalar que la tecnología de reconocimiento facial es en sí misma problemática y discriminatoria. Ya que estos sistemas son menos precisos en personas de pieles oscuras y son más utilizados para identificar a personas no blancas, muchas veces con resultados desastrosos.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

El Instituto Nacional Electoral excluye a la sociedad civil de discusiones sobre voto electrónico y voto por internet

Durante las últimas semanas, desde R3D: Red en Defensa de los Derechos Digitales hemos solicitado que se nos incluya en distintos espacios coordinados u organizados directamente por el Instituto Nacional Electoral en los que se discute sobre el voto electrónico y el voto por Internet, tales como la Cumbre Mundial de la Democracia, a celebrarse el mes de septiembre en México, así como el foro “Voto electrónico en México, la transición tecnológica de la democracia”, organizado por la Consejera Carla Humphrey, que tendrá lugar esta semana.

Director del Citizen Lab pide al gobierno de Canadá informar sobre spyware de la Policía Montada

Director del Citizen Lab pide al gobierno de Canadá informar sobre spyware de la Policía Montada

El gobierno federal de Canadá debe transparentar qué compañía o compañías son proveedoras de la tecnología de vigilancia que utiliza la Real Policía Montada de Canadá (RCMP, por sus siglas en inglés) para extraer secretamente información de dispositivos móviles, exigió Ron Deibert, director de Citizen Lab de la Universidad de Toronto, durante una audiencia en el Parlamento de Canadá.

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Filtran base de clientes de Banorte con 1.4 GB de datos personales

Una base de datos con cerca de 1.4 GB de información personal de clientes de Banorte fue filtrada en un sitio web, alertó Brian Krebs, periodista de investigación especializado en delitos informáticos. Krebs denunció en Twitter que la base de datos fue filtrada por el administrador de un foro dedicado a la venta de este tipo de archivos.

Policía de Nueva York deberá entregar información sobre vigilancia con reconocimiento facial usada en las protestas de Black Lives Matter

Policía de Nueva York deberá entregar información sobre vigilancia con reconocimiento facial usada en las protestas de Black Lives Matter

La Suprema Corte de Justicia de Nueva York ordenó al Departamento de Policía del estado permitir el acceso a 2 mil 700 documentos y correos relacionados con el uso de tecnología de reconocimiento facial y otros sistemas de vigilancia contra las personas que participaron en las protestas del movimiento Black Lives Matter (BLM) en 2020.