<img src="https://certify.alexametrics.com/atrk.gif?account=fxUuj1aEsk00aa" style="display:none" height="1" width="1" alt="">

¿Sabías que Facebook te dice qué leer o ver?

viernes, 23 junio 2017 - 05:41
Facebook
Twitter
Whatsapp
Email

Cuando navega a través de su  cuenta de Facebook no solo encuentra fotos o comentarios de sus amigos y familiares. Además de anuncios publicitarios, también se topa con noticias y contenidos informativos. ¿Ha notado que, extrañamente, la mayor parte de estos contenidos muestran información con la que usted está de acuerdo?Si su respuesta es negativa, mire dos veces. Aunque a menudo se piensa lo contrario, la red social no enseña a sus usuarios todas las actualizaciones de cada una de las páginas que estos voluntariamente siguen. Lo que ven en su “muro” es, en realidad, el resultado de una curaduría: contenido especialmente seleccionado para su consumo, según lo que el sistema considera que quieren consumir.

Se trata de burbujas de información “filtradas” automáticamente por algoritmos que intentan mostrar, casi exclusivamente, contenidos que responden a los intereses de cada usuario. Es una práctica que no solo usa Facebook, sino también otras herramientas digitales como Google, que seleccionan, priorizan, clasifican y asocian contenidos según lo que saben de las preferencias de cada lector.

Al hacerlo, advierte el activista de Internet Eli Pariser, crean espacios digitales en los que las personas se vuelven cada vez más partidistas porque constantemente reciben información respaldando opiniones con las que concuerdan de antemano. En consecuencia, quedan más susceptibles a creer en falsedades y a no distinguir los límites de sus propias creencias.

Un estudio llevado a cabo en 2015 por académicos de tres universidades de Estados Unidos encontró que más del 60% de los usuarios de Facebook no está consciente de que la red social cura el contenido que aparece en sus muros. Erróneamente, la mayoría piensa que todas las publicaciones de sus amigos y de las páginas a las que siguen aparecen en sus secciones de noticias.

Facebook, en su sección de ayuda, informa que las historias que se muestran en esta sección vienen determinadas por las conexiones y la actividad de cada usuario den- tro de la red social. De este modo, sostiene la explicación oficial, los usuarios pueden ver las historias que más le interesan.

Los efectos de este tipo de selección, sin embargo, han sido ampliamente cuestionados desde la academia. “Ahora existimos en ambientes curados, donde nunca vemos nada más allá de nuestra propia burbuja”, advierte la editora de la revista científica Journal of Cyber Policy, Emily Taylor, en una entrevista con el diario inglés The Guardian.

 
 
Para colmo, continúa Taylor, “ni siquiera nos damos cuenta de cuán curados están”. Sally Adee, colaboradora de New Scientist, explica que las intenciones detrás de una curaduría de información basada en gustos personales son mantener a cada lector “enganchado”, pero concuerda con que el resultado puede ser “una visión del mundo torcida para acomodarse a nuestras propias preferencias y prejuicios”.¿Estas burbujas se pueden reventar? Según un estudio promovido desde el interior de Facebook, más que los algoritmos, son “elecciones individuales” las que limitan la exposición de cada uno a contenidos más diversos.

La misma red social ofrece, en sus configuraciones, opciones para modificar las preferencias de las noticias que cada usuario recibe en su muro. Además, desde New Scientist recomiendan a los usuarios tomar medidas sencillas como no dejar de seguir a personas que tengan opiniones diferentes y cuestionar las visiones extremas incluso cuando provienen de sus propios espectros ideológicos.

Más leídas
 
Lo más reciente