Casi 700.000 usuarios. Ésa es la cifra de personas que participaron sin saberlo en el último experimento que ha organizado Facebook en su red social y que ha levantado un gran revuelo en los últimos días. ¿En qué consistió dicho test? Un grupo de investigadores se propusieron, a finales de 2012, adivinar si lo que leemos en las redes sociales afecta a nuestros sentimientos. En resumen: querían descubrir si el leer cosas positivas hace que compartamos más estados alegres y si el leer cosas negativas hace que compartamos más estados tristes.
¿Cómo lo hicieron? Ahí llega el problema: alteraron los posts que las personas veían en su news feed o sección noticias de Facebook. Según los propios ingenieros explican en el estudio, "manipularon" la información que se mostraba a cada participante. Mientras que a algunos decidieron mostrarles más historias positivas, a otros les llenaban el perfil de actualizaciones con connotaciones negativas. Si bien descubrieron que sí, las emociones también son contagiosas en las redes sociales, también avivaron otro debate: ¿qué derecho tiene Facebook a manipular o filtrar lo que vemos?
Las consecuencias del experimento
Lo que Facebook hizo puede ser cuestionable, sí, pero después de que muchos medios diéramos la noticia, muchos explicaron que esto estaba recogido en las normas de uso de la red social. Cuando te registras, las aceptas. Existe una cláusula en la que se afirma que toda la información que un usuario proporciona puede ser utilizada para uso interno e investigación. Por tanto, si te has registrado y utilizas Facebook, deberías estar de acuerdo con esto. De hecho, como bien explican en Read Write Web, la única solución para no ser objetivo de estudio para Facebook es borrar tu cuenta.
Sin embargo, las fechas no terminan de encajar. El estudio se realizó durante una semana de enero de 2012, pero Facebook no añadió esta cláusula a los términos de uso hasta mayo de 2012. Esto puede ser un gran problema para la red social, que de hecho ya está siendo investigada por ello por la agencia de protección de datos de Reino Unido. Dicho organismo está fijándose en que los usuarios no hayan dado su consentimiento para participar y en la información que Facebook ha recogido.
Pero que Facebook experimenta con sus usuarios a modo de cobayas humanas no es algo nuevo, y de hecho la creación del equipo que se encarga de estos tests se produjo en 2007. En The Wall Street Journal recogen un ejemplo: en 2010 se enviaron mensajes de "movilización política" a más de 61 millones de personas para que votaran en las elecciones que se produjeron aquel año en Estados Unidos. Para Kramer, el investigador al que citábamos antes, Facebook es el mayor campo de estudio de todo el mundo y la gran ventaja es que pueden realizar experimentos de forma rápida y con multitud de participantes. No ha sido el primer estudio y tampoco será el último.
Facebook y el filtrado de información
El hecho de que Facebook filtra nuestros news feed no es algo nuevo, aunque mucha gente no sea consciente de ello. Supongamos que tienes 100 amigos. ¿Vas a ver las historias de esos 100 amigos, absolutamente todo lo que publiquen, en tu perfil? La respuesta es no. A diferencia de lo que ocurre en otras redes sociales, Facebook utiliza un algoritmo que decide qué información es relevante para cada usuario y qué información no lo es. En base a ello, te muestra unas actualizaciones u otras.
Haz un experimento: si tienes cuenta de Facebook y hace tiempo que no lees nada de un amigo o te extraña no haber visto recientemente actualizaciones de una página que sigues, visita directamente su perfil. ¡Sorpresa! Las actualizaciones están ahí, aunque a ti no te lleguen. Por algún motivo, el algoritmo de la red social considera que no son relevantes para ti y por eso no te las muestra. Esto es algo que siempre ha sido así y que justifican diciendo que, si de verdad nos enseñaran todo, nos asustaríamos de tanta información. En palabras de Brian Boland, jefe del equipo de Marketing de Facebook:
Otras plataformas online muestran todo el contenido en tiempo real. Pero la aproximación del tiempo real tiene sus limitaciones. La gente tiene un tiempo determinado para consumir información, y la gente normalmente se pierde contenido que no estaba arriba del todo cuando cierran su sesión. Esto significa que frecuentemente no ven el contenido que es más valioso para ellos. En nuestras pruebas siempre se ha demostrado que el sistema de rankings del news feed ofrece a la gente una mejor experiencia en Facebook.
Volviendo al ejemplo anterior, si un usuario tiene 100 amigos y publica una fotografía, puede que sólo 20 de ellos lleguen a verla en su news feed. A esta cifra se le conoce, dentro de las estadísticas de Facebook, con el nombre de "alcance": el número de personas a las que se les muestra una determinada actualización. Si tienes una cuenta personal, el alcance de tus publicaciones es un secreto. Si, por el contrario, tienes una página de Facebook (por un negocio, una marca, etc.) el alcance aparece en la parte inferior de cada post. Pero ¿en qué se basa el algoritmo para decidir si una historia es relevante para ti?
Esto es lo que se sabe del algoritmo de Facebook
Ésa pregunta que nos acabamos de hacer es precisamente uno de los problemas, ya que Facebook nunca ha dado muchos detalles al respecto. Inicialmente, a este algoritmo se le conocía como EdgeRank y se decía que dependía, fundamentalmente de tres parámetros: la afinidad del usuario con la fuente, la importancia del contenido (si ha recibido "me gusta", comentarios...) y el tiempo (lo actualizado o no que es). Hablamos en pasado porque Facebook dejó de utilizar este término hace un par de años y el algoritmo es, hoy en día, mucho más complicado.
De hecho, hace algunos meses Facebook llegó a reconocer que el algoritmo actual depende de más de 100.000 parámetros. Sí, las tres claves del EdgeRank siguen considerándose, pero en la actualidad el proceso de selección de contenidos es mucho más completo y sofisticado. La evolución de este algoritmo es lógica para Lars Backstroom, el ingeniero a cargo del sistema, y que en abril del pasado año hacía una comparación con Google para explicarlo. Con el paso de los años, los buscadores han ido refinando sus algoritmos para mostrar más arriba la información más relevante. Con Facebook han querido hacer lo mismo.
A pesar de todo, sigue habiendo "consejos" generales sobre cómo conseguir un mayor alcance. ¿Te suena ver cómo algunas marcas utilizan adivinanzas o preguntas que fomentan los comentarios? Es habitual ver posts del tipo "Completa la frase" o similar. Cuantos más comentarios y "me gusta" tenga un estado, más alcance tendrá. Lo mismo ocurre con las imágenes: en general suelen tener más alcance que otros contenidos, como los enlaces o los estados de texto. Pero esto son generalidades que, además, van cambiando con el tiempo, ya que Facebook va haciendo ajustes continuamente con lo que va aprendiendo.
Volviendo al ejemplo que poníamos antes. Si una página decide publicar "Completa la frase: me gusta _______", ¿qué aporta esto a los usuarios? Realmente poco, pero como suelen ser posts con muchos comentarios, antes tenían mucho alcance. ¿Y las actualizaciones repetidas, una y otra vez, que piden que hagas click en "me gusta"? Las acciones pueden engañar al algoritmo, pero en diciembre del año pasado Facebook anunció mejoras y cambios en éste precisamente para evitar que este tipo de posts consiguieran pasar el filtro. El algoritmo, y sus ingenieros, aprenden rápido y están constantemente haciendo cambios.
El usuario no tiene el control
Una de las críticas más frecuentes a Facebook por este algoritmo es que, realmente, el usuario no tiene el control de lo que ve. Si quieres ver todas las actualizaciones de un amigo o página, no tienes forma de indicárselo a la red social. Puedes añadir a tus amigos a la lista de "Mejores amigos", algo que tendrá en cuenta el algoritmo, pero nada más. No hay forma de suscribirse para ver todo.
¿Y si en lugar de ver los posts ordenados por importancia deseas verlos ordenados por fecha? En la columna izquierda, en la flechita al lado de "Noticias", puedes seleccionar "Más recientes", pero es una configuración temporal. Siempre que quieras ver las actualizaciones en orden cronológico tendrás que realizar el mismo proceso. En definitiva: no te queda más remedio que dejar que Facebook haga la selección y los ordene por ti.
¿Quién es Facebook para decir qué es importante para un usuario y qué no lo es? Si bien muchos se hacen esta pregunta, lo cierto es que es algo que la red social lleva haciendo desde hace varios años y no está previsto que lo cambien en un futuro cercano. Simplemente, a ellos les funciona mejor así y el usuario no tiene más remedio que aceptar que otros, basándose en un algoritmo desconocido, deciden qué se les muestra y qué no.
Dinero a cambio de subir el alcance
Es imposible hablar del alcance en Facebook sin mencionar otra de las polémicas recurrentes. Existen dos tipos de alcance: el orgánico (que es el que consigue una actualización normal al ser publicada) y el de pago. Si tienes una página y publicas una actualización, puedes pagar un dinero extra para que Facebook se la muestre a más gente. Entonces, ¿por eso el alcance está bajando con el paso de los años? ¿Es en realidad una técnica de la red social para conseguir más ingresos?
Son muchos los que defienden que es así. En Ogilvy & Mather se refieren a ello como el efecto "Facebook Zero", asegurando que llegará el momento en el que el alcance orgánico será cero y únicamente tendremos alcance de pago. Para ello han analizado varias páginas de sus clientes, con más de 500.000 "me gusta", y han conseguido unas estadísticas bastante negativas: el alcance se ha desplomado.
Desde Facebook, obviamente, niegan tajantemente que eso sea así. Sin que sirva de precedente, en este caso sí que estoy de acuerdo con la red social: cada vez existen más páginas y más competencia, así que es normal que el alcance baje. Con lo que les ha costado convencer a las pequeñas y medianas empresas de que dieran el salto a lo social, ¿de verdad van a poner en juego este modelo híbrido (orgánico y de pago) por unos euros?
La burbuja de los filtros
Eli Pariser, jefe de Upworthy y ciberactivista, lleva tiempo denunciando precisamente este tipo de comportamientos por parte de distintos servicios de Internet, y no sólo Facebook. Para Pariser, es peligroso que una persona siempre esté expuesta a información afín a ella y a sus creencias. Es a lo que él llama la Burbuja de los filtros (Filter bubble) y que explicaba con BP en un ejemplo. Google también personaliza las búsquedas, por lo que si alguien busca por la petrolera BP puede obtener información sobre las inversiones y otra persona, con la misma cadena de búsqueda, puede llegar a una página donde explican el famoso vertido de la compañía.
Pariser dice que esto provoca que la gente "se cierre a nuevas ideas e información importante", creando además la impresión de que todo lo que existe es lo que vemos a nuestro alrededor, sin ir más allá. Esto, según el ejecutivo, hace que la gente sea más vulnerable a la manipulación. Este concepto no es nuevo y ya en 2011 lo resumía Javier de Vega en su blog:
Imagina un mundo donde sólo te dijeran lo que quieres oír, donde no encontrases disensión ni te enfrentases a otros puntos de vista; donde tan sólo tuvieses acceso a lo que otros creen que quieres saber, y además no lo supieses; donde no conocieses a quien moldea el espectro de realidad al que puedes acceder ni conocieses bajo qué reglas. Bienvenido a tu propio ancho de banda.
El misterio que rodea al algoritmo de Facebook no ayuda a esto. Dejando de lado el propósito de la manipulación (lo de intentar entristecer a la gente con actualizaciones negativas tiene tela), el hecho de que sólo nos hayamos enterado de la modificación manual del algoritmo por las conclusiones del estudio ya deja ver que, en realidad, Facebook está mostrándonos los que ellos quieren y en base a lo que ellos consideraran. No existe transparencia alguna.
¿Qué percepción de la realidad tendríamos si sólo viésemos contenidos de una fuente o de una determinada corriente de pensamiento? Por ejemplo, ¿si sólo leyésemos contenidos de La Razón? ¿O si sólo pudiésemos leer información de Público? Nuestra realidad estaría influenciada por eso que leemos, ya que no tenemos forma de contrastar lo que dicen otros. En Facebook y otros servicios de Internet en los que se hace filtrado de información, y según los defensores de esta "burbuja de filtros", ocurre algo similar: nos muestran lo que creen que queremos ver, no la realidad. Y lo que es más peligroso: nosotros, los usuarios, no tenemos el control ni el poder para cambiarlo.
Imagen | mkhmarketing
Ver todos los comentarios en https://www.xataka.com
VER 20 Comentarios