Vivimos en un mundo en el cada vez dependemos de algoritmos en nuestra vida digital, de estos dependen nuestras búsquedas, nuestros feeds en Twitter y Facebook y, también, en los datos que interpretan las empresas para dirigir sus anuncios.
Creemos que el código es simplemente programación, libre de prejuicios y amoral, y en sí lo es, pero qué sucede con las personas que lo escriben ¿ellos también están libres de prejuicios y racismo?
De acuerdo con el sitio de tecnología Hipertextual, los modelos bajo los que este código es aplicado pueden acarrear un sesgo racista de origen, incluso aprenderlo: los algoritmos perpetúan nuestros vicios.
En un estudio del Data Privacy Lab de 2012, la doctora Latanya Sweeney de Harvard, determinó que existe una discriminación a través de los anuncios que aparecían tras una búsqueda que implicara un nombre identificado con un grupo racial.
De acuerdo con el estudio, un porcentaje más alto de anuncios relacionados con arrestos aparecían tras buscar a una persona con un nombre asociado con la comunidad afroamericana que con la búsqueda de un nombre caucásico, 25 por ciento más en ciertas páginas.
“En una perspectiva más amplia, la tecnología puede hacer más para impedir efectos discriminatorios y armonizar con las normas sociales. Los anuncios que responden a búsquedas de nombres aparecen en un contexto de información específica y la tecnología controla ese contexto.
“Un usuario ingresa un nombre y mira el contenido y noticias relacionadas a ese nombre en específico. La publicidad dinámica es parte de ese contexto.”, dice el estudio en sus conclusiones.
Para Hipertextual, una de las soluciones para prevenir esta discriminación puede ser la transparencia, especialmente en los que funcionan en la educación y los sistemas de justicia, además de que se debe tener una seguridad de la forma en que se manejan los datos personales recolectados.