Google marcó fotos para una consulta médica como contenido de abuso sexual infantil

Ago 26, 2022 | Privacidad

Google marcó como contenido de abuso sexual infantil (CSAM, por sus siglas en inglés) las fotos de un niño que mostraban una infección en su ingle, tomadas por su padre Mark —y respaldadas automáticamente en Google Photos— para una consulta médica a distancia, informó el diario The New York Times.

La compañía levantó un reporte de las imágenes en el Centro Nacional para Menores Explotados y Desaparecidos, suspendió todas las cuentas de Mark en Google y contactó al Departamento de Policía de San Francisco para que iniciara una investigación. Aunque se concluyó que no había ocurrido ningún crimen, Google se niega a reinstalar las cuentas de la persona afectada.

La vocera de Google, Christa Muldoon, dijo que la empresa actúa conforme a lo que la ley estadounidense define como CSAM y que solo se escanean las imágenes de las personas usuarias cuando realizan una “acción positiva”, como respaldarlas en Google Photos, lo cual sucede automáticamente en teléfonos con el sistema operativo Android.

Muldoon también señaló que Google utiliza tecnología de coincidencia hash e inteligencia artificial para identificar este tipo de contenido y removerlo de sus plataformas. Además dijo que las personas que revisan los materiales están capacitadas para identificar problemas médicos en las imágenes, pero no son especialistas.

Aunque se involucre a personas en la revisión del contenido detectado automáticamente, “aquellas están inherentemente limitadas por su expertise y para tener el contexto adecuado en cada caso se requiere mayor información de la persona usuaria, lo cual implicaría un proceso mucho más invasivo que no necesariamente sería el más efectivo para detectar CSAM”, señaló Daniel Kahn Gillmor, tecnólogo especialista de la Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés).

“Estos sistemas pueden tener terribles consecuencias para las personas usuarias debido a los falsos positivos”, enfatiza Gillmor, y argumenta que la tecnología no es la solución para este problema. “Incluso puede introducir nuevos problemas, como crear un sistema de vigilancia robusto que afecte desproporcionadamente a las personas marginadas”.

Por su parte, Jon Callas, experto en seguridad informática de la organización Electronic Frontier Foundation, se refirió a las prácticas de Google como “intrusivas” y agregó que “esa es precisamente la pesadilla de la que estábamos preocupados” ante el uso de este tipo de tecnologías para automatizar la detección de contenido relacionado con abuso sexual infantil.

Muchas personas expertas en tecnología han alertado sobre los riesgos y limitaciones de los sistemas de detección automática de imágenes de abuso sexual infantil, al intentar aplicar una solución tecnológica a un problema social. A finales de 2021, Apple retrasó la implementación de nuevas medidas para escanear las imágenes en sus dispositivos y supuestamente combatir la pornografía infantil, las cuales fueron duramente rechazadas por la sociedad civil y academia a nivel internacional.


Imagen (CC BY) Gibrán Aquino

Publicaciones relacionadas

Exigimos que las personas puedan #migrarsinvigilancia: ¡No a la recolección e intercambio masivo de datos biométricos de personas migrantes!

Exigimos que las personas puedan #migrarsinvigilancia: ¡No a la recolección e intercambio masivo de datos biométricos de personas migrantes!

En mayo de este año, más de 35 organizaciones de derechos humanos enviamos una carta a Amazon Web Services (AWS) para pedirle que termine su acuerdo para albergar la base de datos de tecnología de reconocimiento avanzado nacional (Homeland Advanced Recognition Technology o HART) del Departamento de Seguridad Nacional de los Estados Unidos (DHS por sus siglas en inglés). Aún no recibimos respuesta.