Más de 90 organizaciones de la sociedad civil que defienden los derechos civiles, humanos y en el entorno digital, entre estas R3D: Red en Defensa de los Derechos Digitales, pidieron a Apple a abandonar sus planes de implementar capacidades de vigilancia en sus dispositivos iPhone, iPad y otros productos, como anunció la compañía a principios de agosto.

Estos planes podrían tener consecuencias desastrosas, ya que podrían ser utilizadas para censurar discursos protegidos, amenazar la privacidad y la seguridad de las personas alrededor del mundo, advierten las organizaciones en la carta enviada a Tim Cook, presidente ejecutivo de Apple.

El plan de la empresa implica utilizar algoritmos para detectar contenido “sexualmente explícito” que puedan compartir cuentas que la empresa identifique como de menores de edad; sin embargo, estos algoritmos son proclives a cometer errores y pueden confundir información de salud, educativa y otros tipos de mensajes e imágenes con esta categoría.

Además, el sistema asume que las cuentas que declaren ser “padres e hijos” son, efectivamente, entre una persona adulta y una menor con dicha relación, o que ambas partes tienen una interacción sana. Las organizaciones advierten que algunos grupos ─como menores de edad LGBT+ sin aprobación de sus familias─ pueden estar especialmente en riesgo.

Apple también anunció que instalará una base cifrada de identificadores (hashes) de imágenes de abuso y explotación sexual infantil en sus sistemas operativos, para compararla con cualquier imagen subida a iCloud, sin que esta opción pueda ser desactivada por la persona usuaria.

Las organizaciones prevén que es solo cuestión de tiempo para que estas nuevas capacidades sean el objetivo de gobiernos autoritarios que presionen a Apple a detectar contenidos que estos regímenes consideren como inaceptables, tales como evidencia de violaciones a derechos humanos o contenidos de sátira.

“Una vez que esta capacidad sea incluida en los productos Apple, la compañía y sus competidores enfrentarán enormes presiones —y potenciales requerimientos legales— de gobiernos del mundo para escanear imágenes que no solo sean de abuso sexual infantil. sino otras que un gobierno encuentre cuestionables”, concluyen las organizaciones.


Imagen de Chris Velazco