Facebook : des centaines de milliers d’utilisateurs manipulés pour la Science ?

Régulations
facebook-fb-newswire

Facebook a manipulé les fils d’actualité de près de 700 000 de ses utilisateurs. Il s’agissait de vérifier si la « contagion émotionnelle » est possible.

La publication d’un article scientifique associé à une expérimentation sur les émotions véhiculées via Facebook dans l’édition du 17 juin de la revue Proceedings of the National Academy of Sciences (PNAS) fait du bruit.

L’étude a été réalisée par des chercheurs de l’Université de Princeton, de la division Core Data Science Team de Facebook, de l’Université de Californie à San Francisco et de l’Université de Cornell.

Intitulé « Experimental evidence of massive-scale emotional contagion through social networks  » (littéralement « La preuve expérimentale de la contagion émotionnelle à grande échelle via les réseaux sociaux« ), l’article précise le périmètre du test :  comment tout le long d’une semaine (du 11 au 18 janvier 2012), les fils d’actualité de 689 003 utilisateurs de Facebook ont été sciemment manipulés.

L’article décrit une expérience réalisée à grande échelle sur les utilisateurs de Facebook (à leur insu) afin de démontrer la « véracité de la contagion émotionnelle ». Le phénomène, déjà mis en évidence à l’occasion d’autres expériences, stipule que les états émotionnels peuvent être transférés à d’autres individus, ceux-ci éprouvant alors les mêmes émotions sans qu’ils en aient conscience.

Il est vrai que Facebook apparait comme un « laboratoire »  pour étudier de tels phénomènes, donnant son tout son sens à la loi des grands nombres. Fin décembre 2013, le nombre d’utilisateurs de Facebook était ainsi de 1,23 milliard, même si ce sont ici près de 700 000 individus anglophones qui ont été l’objet de cette expérimentation.

Facebook avait déjà permis de ramener l’hypothèse des 6 degrés de séparation entre individus (théorie formulée dans les années 1920 par Stanley Milgram et Jeffrey Travers) à 4,74 degrés.

Facebook : les émotions des autres influencent-elle les nôtres ?

Pour mettre en oeuvre le test, la quantité de contenu émotionnel a été filtrée sur les fils d’actualité. Facebook d’expliquer qu’entre 10% et 90% de ce contenu a été filtré (les messages étaient, eux, exemptés) mais qu’il restait possible d’y accéder en regardant la timeline d’un ami plutôt que son propre fil d’actualité.

A l’aide du logiciel Linguistic Inquiry and Word Count (LIWC2007), les publications étaient détectées comme positives ou négatives si elles contenaient au moins un mot positif ou négatif. Toujours est-il que lorsque les publications à teneur « positive » ont été réduites, les personnes ont produit moins de posts positifs et plus de posts négatifs. A contrario, lorsque les publications négatives ont été réduites, le schéma opposé s’est produit.

Selon les chercheurs, ces résultats démontrent que les émotions émises par d’autres individus sur Facebook influencent directement nos propres émotions. Il ne leur en faut pas plus pour parler d’une preuve (titre de l’article publié) à grande échelle de la contagion émotionnelle sur les réseaux sociaux.

Facebook : sommes-nous des cobayes ?

Qu’il s’agisse d’un simple mimétisme dépassant le cadre des émotions ou d’un réel phénomène de contagion des émotions (comme il existe des phénomènes de foule), l’étude en elle-même soulève de nombreuses interrogations. D’abord sur la méthodologie adoptée, puisqu’on dépasse le cadre de l’observation en y injectant de la manipulation dans le procédé expérimental mis en oeuvre.

Le procédé mis en lumière par Forbes n’a d’ailleurs pas manqué de soulever l’indignation sur… Twitter, même si Facebook prétexte l’amélioration du service.

Pour une expérimentation publiée dans une revue scientifique, à combien d’autres manipulations similaires Facebook se prêtent-ils ? Au-delà des interrogations légitimes, il s’agit surtout de se demander à quel dessein la société de Mark Zuckerberg s’est-elle prêtée à un tel jeu. D’aucuns avanceront qu’il s’agit simplement d’un intérêt scientifique. Mais connaître le comportement des individus suivant l’exposition à différents types de messages est avant tout d’un intérêt majeur pour les annonceurs.

Facebook va-t-il devenir (ou bien est-il déjà) un réseau social à réalité augmentée avec un surcouche (filtrage ou autre contenu ajouté) additionnelle ?

Crédit illustration : alexaldo – Shutterstock.com

Lire aussi :