La muerte del ‘Me gusta’ como única forma de calificar un post de Facebook trajo consigo Reactions, un nuevo formato en que la gente puede escoger entre el clásico pulgar hacia arriba, un corazón, y varios emojis, enojado, feliz, riendo y preocupado.
De acuerdo con Facebook, Reactions nació como una respuesta a las peticiones de sus usuarios, para “expresar más fácil y rápidamente lo que algo en tu News Feed te hace sentir”, escribe Sammi Krug, el gerente de producto de Facebook en el blog de la empresa.
¿Cómo afectará tu News Feed el cambio a Reactions?
Facebook utiliza algoritmos para determinar lo que te gusta ver y no. Para saberlo, monitorea los contenidos a los que les das clic y “Me gusta”, además de otros varios parámetros, como ubicación, edad y amistades.
Pero esto también significa que cuando tú dejas de entrar a los enlaces que comparten tus amistades o dar “Me gusta” en sus fotos, estos desaparecerán lentamente de tu News Feed, sin previo aviso ni consentimiento tuyo, dejándote solo con los contenidos con los que regularmente interactúas.
A este comportamiento se le denomina “burbuja de filtro”, debido a que te aísla y determina qué es lo que en teoría quieres ver.
“Nuestra meta con el News Feed es mostrarte las historias que más te importan. Inicialmente, de la misma forma que cuando alguien le da ‘Me gusta’ a un post, si alguien utiliza Reaction inferiremos que quieren ver más de ese tipo de post.
“Al principio, no importará si a alguien le gusta, ‘entristece’ o ‘sorprende’ un post —inicialmente usaremos cualquier Reaction similar a un ‘Me gusta’ para inferir que tú quieres ver más de ese tipo de contenido. Con el tiempo esperamos aprender cómo las diferentes reacciones deben ser consideradas, de forma distinta, para el News Feed para hacer un mejor trabajo y mostrarle a todos las historias que más quieren ver”, explica Krug.
El gran problema con este tipo de filtrado es que Facebook te expondrá cada vez menos a contenidos que considere que no te interesan, disminuyendo la diversidad de los temas y posturas a los que tienes acceso. Además, el algoritmo de Facebook es opaco, por lo que se desconocen los criterios para saber cómo se modela el contenido que puedes leer en el feed y bajo qué criterios se selecciona. En 2014, el Pew Research Center estudió este problema al analizar por qué aparentemente había menos exposición en Facebook a los sucesos en Ferguson que en Twitter.
“Esto marcha muy rápido hacia un mundo en el que Internet nos muestra lo que cree que queremos ver, pero no necesariamente que tenemos que ver”, aseguró Eli Pariser, un especialista sobre las “burbujas de filtro”, durante una TED Talk al respecto.