Brasil introdujo una herramienta, asistida por IA, para intentar reducir la burocracia en el trámite de prestaciones sociales. Sin embargo, en lugar de ayudar a crear un proceso más eficiente, ha ocasionado problemas al rechazar las solicitudes erróneamente en casos complejos, informa Rest of World.
El reportaje documenta casos de personas que llevan toda la vida trabajando el campo o que tienen algún tipo de discapacidad física y han pedido su jubilación, la cual les ha sido negada por equivocaciones generadas por estos sistemas de inteligencia artificial.
El instituto de seguridad social de Brasil (INSS) introdujo esta aplicación en 2018 como un esfuerzo por agilizar la atención sanitaria. Aunque el instituto señala que la app ha ayudad a procesar miles de solicitudes, también ha rechazado a cientos de personas por pequeños errores.
La aplicación enfrenta problemas al momento de analizar las solicitudes de los trabajadores agrícolas y de aquellos cuyos trabajos implican condiciones más peligrosas, ya que son más complejas, por lo que las personas trabajadoras del campo o en condiciones de vulnerabilidad han sido las más afectadas. Por ejemplo, algunas de las personas usuarias no están registradas en las bases de datos del gobierno o no cuentan con suficiente información.
Francisco Santana, presidente del Sindicato de Trabajadores Rurales de Barra do Corda, indicó que uno de los problemas es la falta de alfabetización digital en las zonas rurales de Brasil. “La gente de aquí no puede siquiera trabajar con Gmail, Facebook o Instagram; los procesos se están automatizando cada vez más y la sociedad no está preparada para ello, especialmente lejos, en las periferias, para la gente que vive en áreas rurales”.
Las decisiones automatizadas de los sistemas de inteligencia artificial puede tener consecuencias como la exclusión social en el acceso a servicios públicos, como refleja el caso del INSS en Brasil. En lugares como Países Bajos, por ejemplo, la Autoridad de Protección de Datos Neerlandesa encontró que los algoritmos eran inherentemente discriminatorios, ya que el sistema acusó a 26 mil familias inocentes de fraude a los programas de beneficios sociales de este país.
El despliegue de estos sistemas en el sector público debe estar sujeto a salvaguardas que garanticen los derechos de las personas, como son la presentación de evaluaciones de impacto para los sistemas automatizados; procedimientos de revisión y supervisión humana calificada en las decisiones automatizadas y evaluaciones periódicas por personas capacitadas e imparciales, entre otras.
