Ciencia y Tecnología

Los usuarios, y no algoritmos, deciden en Facebook

El estudio sostiene que la decisión final de qué contenido ver en Facebook corresponde al usuario, no a una máquina
El estudio sostiene que la decisión final de qué contenido ver en Facebook corresponde al usuario, no a una máquinalarazon

Son los propios usuarios de la red social, y no los algoritmos, quienes tienen en última instancia el poder de censurar contenidos en Facebook y evitar exponerse a aquello que desafía sus pensamientos e ideas, según un estudio publicado por la revista Science, informa Efe.

¿Pueden las redes sociales como Facebook crear una especie de «burbujas» en torno a sus usuarios para que estos vean únicamente el tipo de noticias y contenidos que quieren ver? Fue la pregunta que se hicieron los autores del estudio, tres investigadores de la Universidad de Michigan.

Eytan Bakshy y sus colegas analizaron la actividad de más de 10 millones de usuarios de Facebook en EEUU que dan a conocer en su perfil su afiliación ideológica y preferencias políticas, así como siete millones de enlaces compartidos en un periodo de seis meses, de julio de 2014 a enero pasado.

Los investigadores analizaron las noticias que esos usuarios comparten con sus amigos y luego determinaron cuáles llegaron a ellos a través de algoritmos creados por Facebook como el que la red social utiliza para decidir qué contenidos ganan prioridad en la lista de «Últimas noticias» (News Feed).

Tras ese análisis, llegaron a la conclusión de que la «elección individual» juega un mayor rol que ese algoritmo a la hora de limitar la exposición del usuario a contenidos que pueden desafiar su ideología.

El algoritmo que usa Facebook para ordenar la información en la lista de «Últimas Noticias» del usuario produce, en promedio, un cambio de un punto porcentual en la proporción de noticias potencialmente desafiantes, según el estudio.

Sin embargo, cuando se considera la elección individual, ese cambio es de cuatro puntos porcentuales en esa proporción.

El algoritmo automático de Facebook, utiliza un gran número de variables para dar preferencia a contenidos que considera que el usuario quiere ver, lo que ha levantado el temor de que los internautas se muevan en una «burbuja» ideológica que no se expone a otras opiniones.

«Nuestro trabajo sugiere que el poder que tiene uno mismo de exponerse a perspectivas del otro lado (conservadoras para los progresistas y viceversa) en las redes sociales reside primero y ante todo en los individuos», sostienen los investigadores.

No obstante, reconocen que su análisis tiene «limitaciones», dado que, aunque la gran mayoría de usuarios de redes sociales en EEUU tiene una cuenta en Facebook, su estudio se centra únicamente en esa plataforma.

EFE