YouTube associe l’homme et la machine pour juguler les dérives extrémistes

Régulations
youtube-antiterrorisme

Entre experts indépendants et intelligence artificielle, YouTube annonce plusieurs mesures pour lutter contre la propagation de contenus à caractère extrémiste.

Accentuer l’utilisation de la reconnaissance d’images et creuser le sillon de l’apprentissage automatique pour développer des algorithmes de classification… mais aussi solliciter davantage d’experts et d’ONG, tout en impliquant les YouTubeurs dans des campagnes contre le discours radical : face aux dérives extrémistes, Google cherche l’équilibre entre l’homme et la machine.

Sous la pression de l’Union européenne et de plusieurs de ses États membres, le groupe Internet a annoncé, par la voie de son directeur juridique Kent Walker, plusieurs mesures allant dans ce sens pour sa plate-forme vidéo.

Concernant la reconnaissance d’images, aujourd’hui exploitée principalement pour empêcher la remise en ligne de contenus ayant fait l’objet d’une suppression, elle se verra dédier davantage de ressources R&D. L’idée étant, grâce au machine learning, d’accélérer l’identification des contenus en question.

Pour les cas tangents qui pourraient porter atteinte à la liberté d’expression, le programme YouTube Trusted Flagger sera élargi. Une cinquantaine d’organisations s’ajouteront aux 63 actuellement impliquées. La collaboration avec les agences de contre-terrorisme sera renforcée en parallèle.

Contre-publicité

Google compte aussi se montrer plus strict sur les vidéos trop provocantes ou idéologiques, même si elles ne violent pas les conditions d’utilisation de la plate-forme. Un avertissement y sera intégré sous forme d’interstitiel et la vidéo ne pourra être ni monétisée, ni recommandée, ni commentées.

Autre axe de travail : le programme Creators for Change, qui promeut la voix des YouTubeurs contre les propos incitant à la haine. Il s’agira aussi d’implémenter plus largement en Europe la diffusion, auprès des recrues potentielles de l’État islamique, d’annonces ciblées redirigeant vers des vidéos antiterroristes.

Ces engagements font notamment écho à la volonté – réaffirmée la semaine passée – de la France de responsabiliser les sociétés technologiques sur les plates-formes desquelles circulent les propos à caractère extrémiste. Ce en les exposant à des sanctions plus sévères en cas de défaut de modération.

Au Royaume-Uni, le Parlement a émis des recommandations, à l’appui d’une étude qui a révélé une mise en application « trop lente » et « aléatoire » des engagements pris par YouTube et consorts auprès de l’Union européenne, dont le traitement de « la majorité des demandes valides de suppression de contenus sous 24 h ».

Lire aussi :

Lire la biographie de l´auteur  Masquer la biographie de l´auteur