Qué escándalo: Facebook tuvo la temeridad de llevar a cabo un experimento con sus usuarios sin decírselo y ahora los resultados se publican en The Proceedings of the U.S. National Academy of Sciences.
En realidad, nadie debería sorprenderse.
Durante una semana del 2012, el científico de planta de la red social Adam Kramer y dos colaboradores utilizaron algoritmos para modificar los ‘feeds’ de noticias de 689.003 usuarios angloparlantes de Facebook.
Redujeron la cantidad de publicaciones que contenían palabras “positivas” y “negativas”, rastrearon las publicaciones de sus usuarios ‘ratas de laboratorio’ y descubrieron que su estado de ánimo se veía influenciado por el de las noticias.
El término, conocido entre los psicólogos que estudian las comunicaciones del mundo real, es “contagio emocional”.
Si el experimento de una semana de duración de Kramer parece escandaloso, lo que Facebook hace todos los días es monstruoso. Un algoritmo llamado EdgeRank califica cada posteo con una serie de criterios, tales como la frecuencia con que el dueño de un News Feed interactúa con su autor y la calidad de esa interacción (un comentario es más valioso que un “me gusta”).
Los posteos de más alto puntaje van al comienzo del ‘feed’. Es por eso que un usuario típico no ve todo lo que están publicando sus amigos, sólo lo que Facebook decide que le gustaría ver, más publicidad paga (que también supuestamente está dirigida).
Uno puede hacer pequeños cambios en la configuración para que los posteos aparezcan en su orden “natural”, pero pocas personas se toman la molestia de hacerlo, tal como casi nadie lee la política de uso de datos de Facebook: oculta en medio de esas 9.000 palabras, hay una oración que dice que la investigación es un uso legítimo.
En otras palabras, en Facebook, uno puede optar por rechazar que una máquina decida qué contenido le resultará interesante.
MAYORÍA DE REDES LO HACEN
Twitter, en cambio, permite a los usuarios dar autorización utilizando el ‘feed’ llamado Discover. Esta última táctica parece más honesta pero es menos efectiva desde el punto de vista de la comercialización.
Facebook como política manipula lo que ven los usuarios. Los académicos podrán discutir si los usuarios dan su consentimiento informado para esa utilización de sus datos, pero la experiencia común sugiere que muchas personas eligen seguir no informadas.
Otros se dan cuenta de que están siendo rastreados, y de que son objeto de experimentos, por empresas como Facebook y Google y no les importa. No es inusual en la red social. “¿Dirige un sitio web, mide todo, hace cambios basados en las mediciones? ¡Felicitaciones, usted está realizando un experimento psicológico!” tuiteó el capitalista de riesgo Marc Andreessen, que forma parte del directorio de Facebook.
Bloomberg