Delegar decisiones médicas de vida o muerte a los algoritmos no es una alternativa viable

Abr 29, 2020 | Privacidad

La emergencia por COVID-19 ha enfrentado a diversos países con la realidad de que, en una epidemia de esta magnitud, no es posible proporcionar a todos los pacientes el servicio crítico que requieren, como es el caso de la respiración mecánica. Ante la disyuntiva, diversos gobiernos están desarrollando algoritmos para que tomen la decisión sobre quién sí y quién no recibirá estos cuidados.

Aunque sus promotores intentan revestir a los algoritmos de conceptos como bioética, objetividad y racionalidad, la realidad es que muchas veces terminan reafirmando los mismos problemas que intentan excluir.

Por ejemplo, la doctora Pria Anand escribe sobre el caso de Massachusetts, donde en caso de una escasez de ventiladores mecánicos, un algoritmo condenaría a la muerte desproporcionadamente a personas afroamericanas, de ascendencia latina y estadounidenses en situación de pobreza.

Esta reproducción de los sesgos se debe a que los algoritmos son entrenados con datos producidos por “una sociedad inherentemente injusta” por lo que sus decisiones no solo reflejan esta disparidad, sino que la amplifican y la vuelven sistemática.

Incluso los criterios utilizados para determinar quién recibe atención médica repiten esa desigualdades, como el Índice de Comorbilidad de Charlson, que se basa en condiciones preexistentes (diabetes, enfermedades de hígado, padecimientos renales, VIH o SIDA, hipertensión) que también están condicionadas por la pobreza, el acceso a la salud y a una sana alimentación.

Por ejemplo, los afroamericanos tiene un 60 por ciento más probabilidades de ser diagnosticados con diabetes y 2.8 veces más probabilidades de tener una enfermedad terminal de riñón que las personas caucásicas (blancas). Anand califica estos padecimientos como “enfermedades de disparidad”, ya que son una consecuencia de la desigualdad étnica y racial en la capacidad de ingreso y el acceso a servicios sanitarios en EE.UU.

Aunque el algoritmo de Massachusetts, señala Anand, no utiliza este índice sino el puntaje SOFA (Evaluación secuencial de insuficiencia orgánica), la autora sostiene que es “imposible divorciar el estado del cuerpo de uno en un momento de crisis de la acumulación de enfermedades crónicas que resultan de una vida de inequidades”.

Cada vez son más los intentos de integrar las decisiones algorítmicas en rubros sensibles de la vida cotidiana. En algunos casos, como en Países Bajos, se ha suspendido su uso por discriminar y estigmatizar grupos vulnerables.

“El plan de Massachusetts y otros algoritmos similares no predicen adecuadamente quién podría sobrevivir. En lugar de eso, determinarán quién logra sobrevivir, creando una devastadora y racialmente sesgada autoprofecía”, concluye la autora.


Imagen de Hospital CLÍNIC (CC BY-ND 2.0)

Publicaciones relacionadas

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.