Pour gérer vos consentements :
Categories: Cloud

Vie privée : séquence émotions sur Facebook

La teneur des messages que publient les utilisateurs de Facebook est-elle influencée par les contenus auxquels ces derniers sont exposés ?

Le réseau social y répond par l’affirmative, à l’appui d’une étude menée du 11 au 18 janvier 2012 avec des équipes de scientifiques issus des universités Cornell et de Californie à San Francisco. Les résultats de cette expérience jusqu’alors passée inaperçue ont été publiés ce 17 juin dans le numéro 111 de la revue américaine Compte rendus de l’Académie nationale des sciences (Proceedings of the National Academy of Sciences).

Près de 690 000 internautes anglophones en ont été les sujets. Il s’agissait d’examiner dans quelle mesure les réseaux sociaux pouvaient favoriser le phénomène dit de « contagion émotionnelle ». Dans cette optique, les chercheurs ont modifié – secrètement – les algorithmes de Facebook afin d’afficher, sur le fil d’actualité des cobayes, des informations au ton plus ou moins positif.

Les tests furent concluants. A mesure que l’on parcourait le spectre émotionnel, le comportement des utilisateurs évoluait. Ces derniers « ont ressenti les mêmes émotions [que leurs amis] sans en être conscientes ». De nombreuses recherches avaient déjà été menées en la matière, mais celle-ci est sans précédent de par son principe : modifier des données à la source.


Les auteurs de l’étude ont pris soin de préciser l’adéquation de leur procédé vis-à-vis de la politique de confidentialité en vigueur sur Facebook… et que les nouveaux membres acceptent explicitement lors de leur inscription. Sans remettre en cause la légalité d’une telle pratique, les grands médias américains qui s’en sont fait l’écho ce week-end ont émis de sérieuses réserves sur l’aspect éthique.

Les réactions ont fusé sur la Toile. Tantôt, l’expérience était qualifiée « d’alarmante » ; tantôt, de « démoniaque ». Plus d’un en a appelé à un boycott du réseau social, tout particulièrement face à la posture des deux universités, qui disent avoir approuvé les travaux en considérant qu’apparemment, Facebook « [manipulait] systématiquement le contenu des informations diffusées sur son site ».

Du côté des principaux intéressés, on souligne la « courte durée » de l’étude et le fait qu’aucune information n’était liée au compte d’une personne en particulier. La porte-parole qui s’est confiée à l’AFP évoque « une expérience nécessaire […] pour comprendre comment les individus répondent à différents types de contenus » et ainsi « améliorer les services de Facebook ».

Cette « contagion émotionnelle » vaut tout autant pour les sentiments positifs que négatifs.

—— A voir aussi ——
Quiz ITespresso.fr : connaissez-vous les principes du SMO ?

Crédit photo : Sukharevskyy Dmytro (nevodka) – Shutterstock.com

Recent Posts

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

2 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

3 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

4 semaines ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago

Microsoft Teams : comment fonctionne le double usage « pro-perso »

Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…

1 mois ago