¿Cómo discriminan los algoritmos?

Mar 10, 2016 | Privacidad

Vivimos en un mundo en el cada vez dependemos de algoritmos en nuestra vida digital, de estos dependen nuestras búsquedas, nuestros feeds en Twitter y Facebook y, también, en los datos que interpretan las empresas para dirigir sus anuncios.

Creemos que el código es simplemente programación, libre de prejuicios y amoral, y en sí lo es, pero qué sucede con las personas que lo escriben ¿ellos también están libres de prejuicios y racismo?

De acuerdo con el sitio de tecnología Hipertextual, los modelos bajo los que este código es aplicado pueden acarrear un sesgo racista de origen, incluso aprenderlo: los algoritmos perpetúan nuestros vicios.

En un estudio del Data Privacy Lab de 2012, la doctora Latanya Sweeney de Harvard, determinó que existe una discriminación a través de los anuncios que aparecían tras una búsqueda que implicara un nombre identificado con un grupo racial.

De acuerdo con el estudio, un porcentaje más alto de anuncios relacionados con arrestos aparecían tras buscar a una persona con un nombre asociado con la comunidad afroamericana que con la búsqueda de un nombre caucásico, 25 por ciento más en ciertas páginas.

“En una perspectiva más amplia, la tecnología puede hacer más para impedir efectos discriminatorios y armonizar con las normas sociales. Los anuncios que responden a búsquedas de nombres aparecen en un contexto de información específica y la tecnología controla ese contexto.

“Un usuario ingresa un nombre y mira el contenido y noticias relacionadas a ese nombre en específico. La publicidad dinámica es parte de ese contexto.”, dice el estudio en sus conclusiones.

Para Hipertextual, una de las soluciones para prevenir esta discriminación puede ser la transparencia, especialmente en los que funcionan en la educación y los sistemas de justicia, además de que se debe tener una seguridad de la forma en que se manejan los datos personales recolectados.


 

Imagen original de Kevin D: NO RACISM

Publicaciones relacionadas

La Unión Europea llega a un acuerdo para mejorar las condiciones laborales de trabajadores en plataformas digitales

La Unión Europea llega a un acuerdo para mejorar las condiciones laborales de trabajadores en plataformas digitales

El Parlamento Europeo y el Consejo de la Unión Europea han alcanzado un acuerdo provisional sobre una directiva para mejorar las condiciones laborales de las personas trabajadoras en plataformas digitales. La directiva representa un esfuerzo legislativo de la Unión Europea por reglamentar la gestión algorítmica y establecer condiciones laborales mínimas.

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Continúa impune el uso de Pegasus, a un año de las nuevas denuncias

Se cumple un año de que se diera a conocer un nuevo ataque digital perpetrado en contra del Centro de Derechos Humanos Miguel Agustín Pro Juárez (Centro Prodh), mediante el uso del software espía Pegasus y, pese a que la denuncia fue debidamente presentada, al día de hoy no se han dado pasos relevantes para la investigación y sanción de estos actos.