En 2017, los agentes que trabajaban en un caso sin resolver ocurrido en 1990, donde Maria Jane Weidhofer fue asesinada y agredida sexualmente, tuvieron una controversial idea: enviaron la información genética recogida en la escena del crimen a Parabon NanoLabs, una empresa que dice poder convertir el ADN en un rostro.
Según informa WIRED, Parabon NanoLabs, empresa dedicada principalmente a servicios de genealogía genética forense para las fuerzas del orden, pasó el ADN del sospechoso por su modelo de aprendizaje automático patentado, proporcionando al departamento de policía el rostro de un posible sospechoso, generado utilizando únicamente pruebas de la escena del crimen.
La imagen producida por la empresa, denominada Informe de Fenotipo Instantáneo, es una representación en 3D del rostro de una persona que el algoritmo predice podría tener alguien en función de los atributos genéticos encontrados en la muestra de ADN.
Ellen Greytak, directora de bioinformática de Parabon NanoLabs, afirma que la empresa utiliza el aprendizaje automático para crear modelos predictivos “para cada parte de la cara”. Los modelos se entrenan con datos de ADN de más de mil voluntarios de investigación y se combinan con escaneos 3D de sus rostros.
Cada rostro escaneado, dice Greytak, tiene 21 mil fenotipos o rasgos físicos observables que sus modelos analizan para descubrir cómo las partes de una muestra de ADN afectan la apariencia de un rostro, por lo que aseguran pueden predecir el color del cabello, los ojos y la piel de una persona, junto con la cantidad de pecas que tiene y la forma general de su rostro.
Con toda esta información, la empresa predijo que el rostro del asesino era masculino. Tenía la piel clara, ojos y pelo castaños, sin pecas y cejas pobladas. Un artista forense contratado por la empresa editó en la predicción del rostro un corte de cabello y le puso bigote, esto basado en la descripción de un testigo.
Pero esto no paró ahí. Posteriormente, el departamento publicó el rostro en un intento de solicitar pistas al público en 2017. Luego, en 2020, uno de los detectives pidió que se pasara el renderizado por un software de reconocimiento facial.
Para los expertos en reconocimiento facial y privacidad, la petición del detective de East Bay era totalmente previsible y pone en relieve la forma en que, sin supervisión, las fuerzas del orden pueden mezclar y combinar tecnologías de forma no intencionada, utilizando algoritmos no probados para identificar a sospechosos basándose en criterios desconocidos.
Sobre esto, Jennifer Lynch, consejera general de la Electronic Frontier Foundation, menciona que “considerar algo así es ciencia basura”, ya que utilizar el reconocimiento facial con datos poco fiables, como un rostro generado algorítmicamente, tiene más probabilidades de identificar erróneamente a un sospechoso que de proporcionar una pista útil.
“Para empezar, no hay pruebas reales de que Parabon pueda generar un rostro con precisión”, afirma Lynch. “Es muy peligroso, porque pone a la gente en riesgo de ser sospechosa de un delito que no ha cometido”.
Casos de falsos positivos abundan en todo el mundo, como le ocurrió a Porcha Woodruff en Detroit, una mujer embarazada que fue acusada de robo y tuvo que pasar 11 horas en un celda antes de ser liberada. O Randall Reid, un hombre afroamericano de 28 años que fue confundido con el autor de dos robos de bolsos de lujo en el estado de Louisiana, también al sufrir un falso positivo por sistemas de reconocimiento facial.
El hecho de que los investigadores encargados de hacer cumplir la ley consideren utilizar estas predicciones junto con el reconocimiento facial habla de una falta general de supervisión de las herramientas de investigación, dicen los expertos.