En una entrevista con el medio Schweizer Monat, Meredith Whittaker, presidenta de Signal ─organización responsable de la aplicación de mensajería instantánea que defiende la privacidad de las personas usuarias─ criticó el uso de los sistemas de inteligencia artificial para la vigilancia.
Whittaker considera que estos sistemas suelen emplearse para hacer perfiles de las caras de las personas y crear datos sobre de quién es ese rostro o qué tipo de persona indica algo que suele provocar sesgos raciales o sociales. Esto afianza y amplía el modelo de negocio de la vigilancia, porque su insaciable demanda conducirá naturalmente a más vigilancia, más recopilación y, por supuesto, una necesidad exacerbada en la generación de estos datos.
Además, la presidenta de Signal afirma que lo que ahora conocemos como inteligencia artificial está cayendo en manos de grandes corporaciones o países poderosos como Estados Unidos y China, lo que supone entregar las llaves de la toma de decisiones y la dirección de la sociedad a un puñado de empresas de vigilancia que, en última instancia, se guían por el beneficio económico y el crecimiento, no por el beneficio social.
Sobre el uso de sistemas de IA generativa, Whittaker piensa que socavará profesiones creativas como el periodismo, el arte, la escritura, entre otras. Así mismo, en contextos de conflictos policiales y militares, considera que la IA será utilizada para acallar las protestas y la disidencia con el fin de promover los objetivos de control social.
“Podemos repasar una letanía de sistemas calibrados para servir a los intereses de los poderosos a expensas de los que tienen menos poder. Deberíamos ser muy cautelosos sobre el tipo de confianza, llave en mano, que estamos poniendo en manos de esos actores corporativos”, afirma Whittaker sobre los peligros futuros del uso de la inteligencia artificial en nuestra sociedad.
La presidenta de Signal se ha caracterizado por ser una de las perspectivas más críticas contra la falta de ética de empresas tecnológicas y gobiernos en el uso de sistemas de vigilancia. Por ejemplo, en 2019, Whittaker se sumó a las voces que pedían la prohibición del uso del reconocimiento facial para identificar emociones, algo que se ha comprobado como una práctica pseudocientífica.
Al igual que la aplicación que representa, Meredith Whittaker es una ferviente defensora de la privacidad y el cifrado de las comunicaciones, como ha demostrado recientemente en sus críticas a Meta por entregar las conversaciones privadas de una adolescente a la policía o su firme oposición a proyectos de ley que pretenden menoscabar el cifrado de extremo a extremo.
Imagen: (CC-BY) Gibrán Aquino