Facebook Live : des promesses face au fardeau des vidéos indésirables

MarketingSocial Media
facebook-christchurch

En marge d’un sommet qui réunit à Paris sociétés technologiques et chefs d’État, Facebook prend des engagements dans la lutte contre les contenus indésirables.

Comment limiter la propagation de contenus indésirables sur Facebook ? En restreignant davantage l’accès au service de live streaming.

Ce pari se traduira par des blocages temporaires pour quiconque aura posté, où que ce soit sur le réseau social, ne serait-ce qu’un contenu violant « les règles les plus importantes ».

Ces règles répriment les individus et les organisations impliqués dans cinq catégories d’activités, ayant trait au terrorisme, à la haine, aux meurtres, à la traite des êtres humains et et à la violence organisée. Elles ont récemment été invoquées pour fermer les comptes de plusieurs personnalités classées essentiellement d’extrême-droite.

Facebook donne un exemple d’infraction répréhensible : la publication, sans contexte, d’un lien vers une déclaration d’un groupe terroriste.
Il est question d’étendre ces blocages dans les prochaines semaines ; notamment pour empêcher les individus et organisations visés de créer des publicités sur le réseau social.

L’épisode Christchurch

Cette initiative intervient en parallèle du déplacement de Jacinda Andern à Paris.

La première ministre de Nouvelle-Zélande a rencontré, ce 15 mai 2019, des chefs d’État et de gouvernement (Emmanuel, Macron, Theresa May, Justin Trudeau, Abdallah II de Jordanie). Ainsi que des représentants de sociétés high-tech (Google, Microsoft, Twitter, Wikimedia…).

Elle a invité ces dernières à s’impliquer davantage dans la lutte contre l’usage abusif de leurs plates-formes respectives.

En toile de fond, les attaques terroristes survenues voilà deux mois dans deux mosquées de Christchurch (Nouvelle-Zélande). Leur auteur a utilisé Facebook Live pour diffuser en direct son forfait.

Les limites de l’IA

Dans les jours suivant le drame, Facebook a régulièrement fait le point sur la propagation de la vidéo.

Celle-ci a duré 17 minutes. Elle a été vue « moins de 200 fois » pendant le live.
Le premier signalement est intervenu 12 minutes après la fin de la diffusion. Le temps de la supprimer, elle avait été vue environ 4 000 fois. Et au moins un utilisateur de 8chan avait posté un lien vers une copie hébergée sur un service de partage de fichiers.

Dès lors, la vidéo n’a cessé de réapparaître sur Facebook. Y compris dans des versions modifiées (« plus de 800 visuellement distinctes »), d’autant plus difficiles à détecter, même si l’analyse de l’audio a aidé.

Le réseau social dit avoir retiré, en 24 heures, environ 1,5 million de vidéos, dont 1,2 million avant qu’elles soient visibles des utilisateurs. Aucune précision n’est fournie sur la portée qu’ont eue les 300 000 autres.

Facebook évoque la « rareté » des attentats et explique manquer par là même de données pour entraîner ses algorithmes de détection. La ressemblance avec les jeux vidéo à caractère violent complique la tâche.

En outre, une vidéo non signalée pendant la diffusion a moins de chances d’être priorisée auprès des équipes de modération de Facebook.

Photo d’illustration © endermasali – Shutterstock.com


Lire la biographie de l´auteur  Masquer la biographie de l´auteur