Pour gérer vos consentements :

Facebook Live: le dispositif humain de filtrage renforcé pour lutter contre la violence

Le live streaming implique des responsabilités. Facebook prend progressivement conscience de l’impact  de la diffusion vidéo en direct.

Certes, le réseau social fournit déjà des efforts de modération et de filtrage (à la fois automatique et humain) vis-à-vis des contenus vidéo à caractère violente et d’incitation à la haine.

Ce n’est pas suffisant au regard des homicides qui apparaissent sur Facebook comme on a pu le constater récemment en Thaïlande et aux Etats-Unis.

Le groupe Internet va gonfler de manière significative son équipe en charge de la surveillance des vidéos diffusées sur son réseau social.

Mark Zuckerberg prend la main sur ce sujet sensible. Le CEO et co-fondateur de Facebook annonce que son bataillon de modérateurs va changer de dimension. L’effectif dédié va passer de 4500 à 7500 en un an. Sachant que le groupe numérique dispose d’une masse globale de 17 000 collaborateurs.

L’exploitation de Facebook Live, lancée en 2016, suscite parfois des dérives en tant que vecteur de diffusion de vidéos choquantes.

Dans sa contribution officielle, Mark Zuckerberg l’admet : « Au cours des dernières semaines, nous avons vu des gens s’automutiler. D’autres ont blessé  des personnes sur Facebook soit en direct, soit en postant la vidéo ultérieurement. C’est déchirant et j’ai réfléchi sur la façon dont nous pouvons faire mieux pour notre communauté. »

Ces 3000 modérateurs supplémentaires devraient permettre à Facebook de se montrer plus réactifs vis-à-vis du traitement des millions de signalements de contenus inappropriés qui sont reçus chaque semaine.

« Ces examinateurs nous aideront à améliorer nos efforts en supprimant des choses que nous n’autorisons pas sur Facebook, comme les discours de haine et l’exploitation des enfants. »

La semaine dernière, un Thaïlandais a diffusé une vidéo via laquelle on assistait en direct au meurtre de sa fille. En l’espace d’un peu plus d’une journée, la vidéo avait été visualisée 370 000 fois, avant le retrait du contenu malsain par Facebook.

Les autorités nationales s’en inquiètent. En Allemagne, Facebook pourrait écoper d’une amende en cas de manque de réactivité pour supprimer les contenus indésirables. Le réseau social devra être en mesure d’en écarter une proportion de 70% en l’espace de 24 heures.

(Crédit photo : @Facebook)

Recent Posts

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

2 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

3 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

4 semaines ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago

Microsoft Teams : comment fonctionne le double usage « pro-perso »

Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…

1 mois ago