Google active des leviers pour diffuser « son » intelligence artificielle

CloudMobilité

L’IA s’affirme comme la thématique forte de la Google I/O 2018. Le groupe américain en nourrit ses services et cherche à séduire les développeurs tiers.

Dans la galaxie Google, quel service n’a pas sa dose d’apprentissage automatique ?

Pour présenter les produits qui résultent de ses travaux en la matière, le groupe américain préfère utiliser le terme d’intelligence artificielle.

Il n’y a pas dérogé ce mardi, que ce soit au sujet des fonctionnalités à venir sur Android, de l’évolution de Google Assistant ou encore des possibilités offertes aux développeurs.

L’édition 2018 de la Google I/O a surtout été l’occasion d’adresser un signal fort, avec changement d’identité pour la division R&D : exit Google Research, place à Google AI. Une démarche qui rappelle le renommage, voilà deux ans, de Microsoft Research en Microsoft AI+Research.

La technologie Duplex fait partie des grands chantiers en cours. Elle doit permettre à Google Assistant d’entretenir des conversations téléphoniques orientées sur des tâches spécifiques telles que la prise de rendez-vous.

Google vise, dans un premier temps, une exploitation en interne, pour vérifier les heures d’ouverture de commerces et les intégrer dans son moteur de recherche.

La complexité est double : il faut non seulement interpréter du langage naturel, mais aussi en produire. Sur ce volet, Google est allé jusqu’à implémenter des marqueurs d’hésitation, afin que la machine se confonde mieux avec l’humain.

Présent, selon la firme, sur 500 millions d’appareils, l’assistant sera intégré dans Google Maps, pour faciliter la navigation en combinaison avec Street View en réalité augmentée. Il fera par ailleurs ses débuts sur des enceintes dotées d’écrans, signées Lenovo, LG, Sony et JBL.

L’IA, c’est moi ?

Pour diffuser « son » IA au-delà de ses propres services, Google exploite le levier Firebase.

La plate-forme de développement est enrichie d’un SDK « ML Kit » qui donne accès à plusieurs API permettant d’intégrer, dans des apps Android et iOS, des capacités d’apprentissage automatique. En l’occurrence, de la reconnaissance de texte, de visages, de codes-barres et d’images.

Les API peuvent être ajoutées au code des applications, pour une utilisation « en local ». Chacune est déclinée en une version cloud payante, mais qui offre davantage de possibilités – par exemple, reconnaître, sur une photo, non seulement un chien, mais aussi sa race.

Google réfléchit d’une part à compresser les algorithmes et de l’autre, à les découpler des applications pour en alléger le téléchargement initial.

Côté cloud, la Google I/O 2017 avait permis de découvrir la deuxième génération des TPU (Tensor Processing Units), ces puces dédiées à l’entraînement de modèles de machine learning sur la base du framework TensorFlow.

L’édition 2018 a vu Google lever le voile sur une troisième génération dite « 8 fois plus puissante », développant jusqu’à 100 Pflops.

L’IA « made in Google » abreuvera aussi Android P. La prochaine version de l’OS mobile est censée prévoir les actions de l’utilisateur et faire apparaître, à plusieurs endroits de l’interface (moteur de recherche, Play Store, lanceur…), des raccourcis adaptés.

Dans le prolongement de cette fonctionnalité appelée « Actions », Google compte introduire les « Slices ». Objectif : pousser le concept plus loin en affichant des « fragments » d’applications qui permettent de réaliser des actions rapides.

L’intelligence artificielle prend aussi de l’importance dans Google News, avec une volonté d’offrir une « vision plus large » de l’actualité.

Dans Google Photos, elle permettra notamment de détacher des sujets de l’arrière-plan, de corriger la luminosité et de coloriser des images en noir et blanc. Sur Gmail, elle propulsera la fonction Smart Compose, vouée à rédiger des e-mails sans intervention humaine (en l’état, la technologie ne fait que recommander des phrases).

Lire aussi :

Lire la biographie de l´auteur  Masquer la biographie de l´auteur