En los últimos años, gobiernos, cortes y fiscalías han empezado a integrar sistemas de inteligencia artificial bajo la promesa de mayor eficiencia, agilización de procesos o aliviar tribunales sobrecargados, sin analizar realmente cuál es el impacto que traerá para el acceso a la justicia este tipo de herramientas.
Margaret Satterthwaite, Relatora Especial de la ONU sobre la independencia de magistrados y abogados, presentó ante la Asamblea General el informe “La inteligencia artificial en los sistemas judiciales: promesas y escollos”, que analiza las repercusiones que esto puede traer a los derechos humanos y a la búsqueda de justicia en distintos ámbitos. El informe parte de una advertencia crucial: la justicia no se puede confiar en algoritmos sin establecer un uso ético de estas herramientas, procesos claros de transparencia y un control humano que supervise dichos procesos.
En este texto, Satterthwaite insta a los Estados y a los profesionales de la justicia a considerar qué problemas puede ayudar a resolver la IA, si esta es idónea y cuándo puede empeorar las cosas; ya que su adopción no puede darse sin un debate y análisis claro, herramientas de mitigación y salvaguardas, además de una evaluación de proporcionalidad respecto a otras soluciones menos arriesgadas puede ser peligroso o caer en vacíos que traigan consigo violaciones a derechos humanos.
El texto afirma que “la IA solo es valiosa cuando mejora la justicia de forma concreta; no debe considerarse un fin en sí misma”, por lo que su uso debe ser acotado pensando en las consecuencias –incluso ambientales– que trae consigo. La relatora también menciona que el derecho a una audiencia ante un tribunal competente, independiente e imparcial constituye un derecho absoluto que no puede ser objeto de excepción alguna.
Por esta razón, la Relatora Especial considera que el derecho a ser oído por un tribunal independiente e imparcial, viene con el derecho a tener un juez humano, así como el derecho a la asistencia legal pasa también por contar con un abogado humano. Este criterio es similar al de la Sala Segunda de Revisión de la Corte Constitucional de Colombia, que determinó que debe respetarse el derecho a una persona juzgadora humana como parte del debido proceso, por lo que una inteligencia artificial no puede sustituir el rol de las y los jueces.
El informe señala que el uso irreflexivo de herramientas de IA puede desembocar en actos discriminatorios, sesgos y opacidad en la toma de decisiones que vulneren el derecho a un juicio imparcial. Por ejemplo, Satterthwaite menciona el caso de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un programa desplegado en algunas jurisdicciones de los Estados Unidos, que tenía casi el doble de probabilidades de clasificar erróneamente a los acusados negros al predecir que tenían un mayor riesgo de reincidencia que los acusados blancos.
El texto concluye afirmando que si bien la tecnología puede ser una aliada, no pueden delegarse en ella algunas funciones que deben pasar por el ojo humano, ni exagerar en los alcances que potencialmente puedan tener estas herramientas, por lo que recomienda que su uso debe estar regido por los jueces y adaptado al contexto y las necesidades específicas caso por caso.

Imagen (CC BY) Gibrán Aquino









