Fotos de niñas y niños brasileños están siendo utilizadas para crear y entrenar poderosas herramientas de inteligencia artificial, esto sin el consentimiento ni el conocimiento de estas infancias o las personas que están a su cargo, señaló Human Rights Watch en su último informe.
Las fotos utilizadas para entrenar estos sistemas de IA se extraen de sitios de internet, algunas de ellas fueron publicadas por las propias infancias, así como personas cuidadoras o familiares, en blogs personales y sitios de fotografías y vídeos.
El análisis de la organización Human Rights Watch reveló que LAION-5B, un conjunto de datos utilizado para entrenar herramientas populares de IA, entre las que se encuentran Stable Diffusion y Google Brain, contiene enlaces a fotos donde es fácil identificar a las niñas y niños que salen ahí, teniendo acceso a sus nombres, rostros, lugar donde fue tomada la fotografía, además de la fecha en la que se hizo.
Human Rights Watch encontró 170 fotos de infancias en al menos 10 estados de Brasil, entre los que se encuentran: Alagoas, Bahía, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Río de Janeiro, Río Grande do Sul, Santa Catarina y São Paulo. Los datos analizados por la organización cubren menos del 0.0001% de los 5,850 millones de imágenes que posee.
“Los niños no deberían tener que vivir con el temor de que sus fotos puedan ser robadas y convertidas en armas contra ellos”, dijo Hye Jung Han, investigadora en Human Rights Watch.
Los modelos de IA, incluidos los entrenados con LAION-5B, son famosos por filtrar información privada, poniendo en grave riesgo la privacidad de infancias y adolescencias. Hay incluso casos de infancias sobrevivientes de abuso sexual, que hoy ven cómo personas malintencionadas crean imágenes explícitas con aquellas fotografías que se encontraron y que se utilizan en la base de datos de herramientas de IA.
Sobre la creación de deepfakes explícitos, hasta el momento se tienen documentadas 85 denuncias de niñas provenientes de Alagoas, Minas Gerais, Pernambuco, Río de Janeiro, Río Grande do Sul y São Paulo, que afirman haber sufrido acoso por parte de sus compañeros de clase, quienes utilizaron herramientas de IA para crear deepfakes sexualmente explícitos sobre ellas.
Hace algunos años la ONU pidió abordar el tema de inteligencia artificial con un enfoque de derechos humanos, ya que alertó de los riesgos que conlleva el incremento en el uso de tecnologías de inteligencia artificial que podrían incidir o afectar la vida de las personas. Otra voz que se posicionó sobre los riesgos del uso indiscriminado de la IA fue Meredith Whittaker, presidenta de Signal, quien también resaltó los riesgos de su uso para el problema de la vigilancia masiva por parte de empresas y Estado.
Algunas propuestas legislativas en el país sudamericano han considerado crear políticas que prohíban el uso no consensuado de IA para generar imágenes sexualmente explícitas de cualquier persona, incluyendo infancias y adolescencias, pero esto solo estaría abordando una parte del problema, donde los datos y la privacidad de niñas, niños y adolescentes siguen sin tener una protección adecuada y suficiente.
Imagen: (CC-BY) Gibrán Aquino