Con la finalidad de evitar sesgos en la contratación, algunas empresas han comenzado a usar videojuegos basados en inteligencia artificial para seleccionar a su personal. Por desgracia, el efecto de estos algoritmos resulta en impactos negativos en los derechos humanos de personas con alguna discapacidad, señala un artículo del MIT Technology Review en español.
Para desarrollar estos videojuegos, firmas como Pymetrics solicitan a la empresa que va a reclutar que elija a un grupo de empleados que considere exitosos, a quienes se les pide que usen el juego. Después, se comparan sus datos de juego con los de una muestra aleatoria para identificar las habilidades específicas y se entrena el algoritmos con los resultados obtenidos.
Henry Claypool, analista de políticas de discapacidad, probó el videojuego de Pymetrics a petición de MIT Technology Review. Claypool reportó que la primera pregunta que recibió del juego fue elegir si deseaba usar la versión convencional o una modificada, diseñada para personas con daltonismo, TDAH o dislexia.
En la opinión del experto, esa primera pregunta plantea un dilema: revelar una condición que lo podría descalificar a priori o arriesgarse a usar el juego sin modificaciones y estar en desventaja. Esto se debe a que los videojuegos no aclaran que esta información no se comparte con la empresa empleadora ni las personas candidatas saben qué se espera que hagan o cuál debe ser su rendimiento.
En otro caso analizado, una persona con discapacidad auditiva que postuló a un trabajo en Amazon solicitó que la entrevista en vídeo se hiciera a través de HireVue, una plataforma que permite hacer entrevistas laborales asíncronas. La candidata intentó contactar a la empresa, pero no obtuvo respuesta debido al uso de sistemas automatizados. Fue gracias a una especialista en empleo que trabaja con personas con discapacidad auditiva que acudió personalmente a las oficinas, consiguió una entrevista en vivo y fue contratada.
“A medida que automatizamos estos sistemas y los empleadores buscan lo más rápido y lo más eficiente, se pierde la oportunidad de que las personas demuestren realmente sus cualidades y su capacidad para hacer el trabajo. Y esa es una gran pérdida”, explica la directora ejecutiva de la organización Center for Democracy and Technology, Alexandra Givens.
Desafortunadamente, existe un crecimiento en el uso de sistemas de inteligencia artificial para procesos de selección, como los laborales, pero también para el otorgamiento de créditos o de seguros, por ejemplo, mediante el uso de la pseudociencia del reconocimiento de emociones.
Así mismo, la exclusión que pueden provocar los sistemas algorítmicos puede tener graves consecuencias en las vidas de las personas; por ejemplo, una investigación del gobierno de Países Bajos encontró que un algoritmo discriminatorio utilizado para la supervisión de beneficios sociales provocó que 26 mil familias inocentes fueran acusadas de fraude.
Imagen de daveynin (CC BY 2.0)