Un programador chino radicado en Alemania alegó haber creado un algoritmo que utiliza reconocimiento facial para reconocer en redes sociales a mujeres que han participado en alguna filmación pornográfica, lo que desató la indignación por las violaciones a la privacidad que implicaría este proyecto.

De acuerdo al programador, su objetivo era “ayudar a otros a revisar si sus novias habían actuado en alguno de esos filmes”. También mencionó que había identificado a 100 mil actrices porno, haciendo una referencia cruzada entre sus rostros en los vídeos y sus fotografías de perfil en redes sociales para entrenar al algoritmo. El desarrollo le habría tomado medio año y más de 100 terabytes de vídeos.

Aunque el funcionamiento del proyecto nunca fue comprobado, el sistema habría sido ilegal en muchos países por violar leyes que defienden la privacidad de las personas.

A pesar de que el programador alegaba no romper ninguna ley porque no estaba compartiendo ningún dato, el Reglamento General de Protección de Datos de la Unión Europea (GDRP) indica que no es necesario que la información se difunda, ya que califica como una violación el simple hecho de recolectarla sin el consentimiento de las mujeres. Además, bajo el GDRP, cualquier dato personal (especialmente los biométricos) puede únicamente ser recolectado bajo propósitos legítimos.

De acuerdo con la abogada especializada en violaciones de privacidad sexuales, Carrie Goldberg, en entrevista con MIT Technology Review, esta tecnología sería muy peligrosa para las mujeres y tendría terribles consecuencias.

“Algunas de mis clientes más cruelmente acosadas han sido personas que hicieron pornografía, a menudo una sola vez en su vida y a veces sin consentimiento porque fueron engañadas. Sus vidas han sido arruinadas porque hay una cultura de incels [hombres misóginos que alegan que las mujeres les niegan el sexo] que tienen como pasatiempo exponer a mujeres que han hecho porno, publicar en línea sobre ellas y doxearlas [revelar información personal sin consentimiento].”

La publicación del MIT contactó al programador, quien insistió en que el algoritmo es real; mencionó que ha borrado el proyecto y que lamenta haber causado problemas. Sin embargo, el riesgo sigue latente, pues las posibilidades de desarrollar un programa con estas características son plausibles, empleando las tecnologías de reconocimiento facial con propósitos antiéticos e ilegales.


Imagen original de GoodFreePhotos (CC0 1.0)