Cloud et machine learning : Google approfondit la relation

CloudData-stockage
google-ai-cloud
2 15

Deux des API de machine learning mises à disposition par Google sur sa plate-forme cloud passent en bêta publique : « Natural Language » et « Speech ».

Petit à petit, l’intelligence artificielle fait son nid dans le cloud de Google.

Deux des services de machine learning que le groupe Internet propose sur sa plate-forme passent en bêta publique.

En premier lieu, l’API « Natural Language », qui doit permettre d’analyser la structure et le sens d’un texte, initialement en anglais, en espagnol et en japonais.

Sur le volet syntaxique, il s’agit de détecter les parties du discours, ainsi que des éléments comme le genre et le nombre. Mais aussi les relations entre les mots (sujet – verbe – objet, modificateurs…).

L’aspect sémantique consiste à identifier des unités de sens, à les catégoriser, à déterminer le ton d’un propos et plus globalement à établir des liens avec d’autres faits et entités, le tout aussi bien à l’échelle d’un syntagme que d’un document entier.

Dans la pratique, « Natural Language », facturé en fonction du nombre de requêtes, peut être exploité pour analyser des commentaires en ligne ou des transcriptions d’appels au service client.

Pour illustrer les capacités de son API, Google a effectué une démonstration à l’appui d’un article du New York Times.

Skype Translator dans le viseur

Deuxième API ouverte en bêta : « Speech », qui exploite le même moteur de reconnaissance vocale que Google Search et Google Now pour retranscrire de la voix en texte, dans « plus de 80 langues », depuis des applications ou des objets connectés.

« Plus de 5 000 entreprises » auraient testé le service en alpha, dont HyperConnect, qui s’en est servi à la manière d’un Skype Translator pour agrémenter son service de visioconférence d’une couche multilingue.

Avec le passage en bêta, on recense quelques nouveautés, dont la possibilité d’intégrer des mots-clés qui seront exploitables en contexte ; par exemple « lecture » et « pause » lorsqu’on regarde un film.

Les deux API s’inscrivent dans la veine du « machine perception », c’est-à-dire la vision par ordinateur, qui a déjà permis à Google d’améliorer la recherche de photos, la saisie manuscrite sous Android, la reconnaissance optique de caractères avec Google Drive et la recommandation de contenu sur YouTube.

La multinationale affiche sa volonté de garder le contrôle. En cas de dérapage technologique de l’intelligence artificielle, un framework servant de « bouton rouge » a été développé par la filiale DeepMind, par ailleurs à l’origine du programme AlphaGo.

Pour aller plus loin, on revisionnera, ci-dessous, l’intervention de Sundar Pichai à la Code Conference organisée début juin.

Le CEO de Google était revenu sur l’avancée des travaux du groupe dans l’intelligence artificielle. Il avait affirmé avoir ressenti « un point d’inflexion il y a trois, quatre ans », tout particulièrement dans la manière d’interpréter et d’intégrer la dimension du contexte.

Crédit photo : agsandrew – Shutterstock.com


Lire la biographie de l´auteur  Masquer la biographie de l´auteur