Sécurité : Google promet des CAPTCHA plus discrets

AuthentificationRisquesSécurité
recaptcha-v3

Avec la v3 de son système reCAPTCHA, Google va distinguer les robots des humains sans que ces derniers aient à effectuer d’actions particulières.

Système de filtrage des robots qui consiste, pour l’utilisateur d’un service en ligne, à prouver qu’il est bien un humain, en résolvant un ou plusieurs problèmes simples sur lesquels les machines sont censées buter.

On donne traditionnellement cette définition des systèmes de CAPTCHA* (« Completely Automated Public Turing test to tell Computers and Humans Apart »).

Google a dans son portefeuille un outil de ce type, baptisé « reCAPTCHA » et exploitable sous la forme d’un widget JavaScript.

La première version imposait systématiquement à l’utilisateur de recopier du texte.

La v2 analyse davantage de signaux pour déterminer le niveau de risque de chaque requête. L’utilisateur n’a ainsi à recopier du texte qu’en cas de risque élevé. Au contraire, si la connexion semble « légitime », il n’a qu’à cocher une case. En cas de doute modéré, il lui est demandé d’identifier, parmi un ensemble d’images, celles qui ont un contenu similaire.

Avec la v3, tout juste annoncée, Google promet de ne plus du tout solliciter l’utilisateur – et donc de ne pas affecter le taux de conversion.

À chaque requête est attribué un score allant de 0.0 (bot) à 1.0 (humain). Selon la note, des mesures peuvent être prises à différentes étapes du parcours utilisateur. Par exemple, imposer l’authentification à double facteur, soumettre un commentaire à modération ou bloquer une transaction.

Le score peut, suggère Google, être combiné à des données en propre (profils d’utilisateurs, historiques d’achats…) ou encore servir à entraîner des algorithmes de détection de fraude.

* Marque commerciale de l’université Carnegie-Mellon

Crédit photo : Check Point

Lire aussi :

Lire la biographie de l´auteur  Masquer la biographie de l´auteur