Facebook Live: le dispositif humain de filtrage renforcé pour lutter contre la violence

CensureEmploiManagementMarketingRégulationsSocial MediaSurveillance
facebook-live-filtrage-mark-zuckerberg

Face aux dérives du live streaming, Facebook va recruter 3000 modérateurs en plus pour se montrer plus réactifs dans la suppression des vidéos de nature violente.

Le live streaming implique des responsabilités. Facebook prend progressivement conscience de l’impact  de la diffusion vidéo en direct.

Certes, le réseau social fournit déjà des efforts de modération et de filtrage (à la fois automatique et humain) vis-à-vis des contenus vidéo à caractère violente et d’incitation à la haine.

Ce n’est pas suffisant au regard des homicides qui apparaissent sur Facebook comme on a pu le constater récemment en Thaïlande et aux Etats-Unis.

Le groupe Internet va gonfler de manière significative son équipe en charge de la surveillance des vidéos diffusées sur son réseau social.

Mark Zuckerberg prend la main sur ce sujet sensible. Le CEO et co-fondateur de Facebook annonce que son bataillon de modérateurs va changer de dimension. L’effectif dédié va passer de 4500 à 7500 en un an. Sachant que le groupe numérique dispose d’une masse globale de 17 000 collaborateurs.

L’exploitation de Facebook Live, lancée en 2016, suscite parfois des dérives en tant que vecteur de diffusion de vidéos choquantes.

Dans sa contribution officielle, Mark Zuckerberg l’admet : « Au cours des dernières semaines, nous avons vu des gens s’automutiler. D’autres ont blessé  des personnes sur Facebook soit en direct, soit en postant la vidéo ultérieurement. C’est déchirant et j’ai réfléchi sur la façon dont nous pouvons faire mieux pour notre communauté. »

Ces 3000 modérateurs supplémentaires devraient permettre à Facebook de se montrer plus réactifs vis-à-vis du traitement des millions de signalements de contenus inappropriés qui sont reçus chaque semaine.

« Ces examinateurs nous aideront à améliorer nos efforts en supprimant des choses que nous n’autorisons pas sur Facebook, comme les discours de haine et l’exploitation des enfants. »

La semaine dernière, un Thaïlandais a diffusé une vidéo via laquelle on assistait en direct au meurtre de sa fille. En l’espace d’un peu plus d’une journée, la vidéo avait été visualisée 370 000 fois, avant le retrait du contenu malsain par Facebook.

Les autorités nationales s’en inquiètent. En Allemagne, Facebook pourrait écoper d’une amende en cas de manque de réactivité pour supprimer les contenus indésirables. Le réseau social devra être en mesure d’en écarter une proportion de 70% en l’espace de 24 heures.

(Crédit photo : @Facebook)

Lire aussi :