Google – Salesforce : chacun cherche son intelligence artificielle

Big dataCloudData-stockage
google-salesforce-ai
5 34

API, CPU dédiés, nouveaux modèles de deep learning… Entre théorie et pratique, Google et Salesforce avancent leurs pions dans l’intelligence artificielle.

Quand Salesforce parle de « coattention dynamique » appliquée aux réseaux neuronaux, Google préfère évoquer le tri des concombres dans une ferme au Japon sur la base d’un Raspberry Pi 3* : à chacun son approche de l’intelligence artificielle,  mais un même objectif :  se positionner comme une référence dans le domaine.

Chez Google, la démarche passe par une réorganisation interne, avec la création du « Cloud Machine Learning group ».

Cette équipe regroupe des collaborateurs qui travaillaient jusqu’alors séparément sur divers aspects de l’intelligence artificielle en lien avec le cloud. À sa tête, on trouve Fei-Fei Li (ex-directrice AI à Stanford) et Jia Li (ancienne directrice de la recherche chez Snap).

Au-delà des effectifs, l’offre évolue elle aussi. Notamment avec une nouvelle API baptisée « Jobs » et destinée à aider au recrutement. Jibe, Dice et CareerBuilder l’ont expérimentée, constatant que les algorithmes étaient capables de réaliser des associations candidats – recruteurs qui échappaient aux RH (plus d’informations sur le fonctionnement de l’API ici).

Côté serveur, des processeurs graphiques (GPU) feront leur apparition en 2017 sur l’offre Google Cloud Platform. Trois références sont annoncées : une chez AMD (FirePro S9300 x2) et deux chez Nvidia (Tesla P100, Tesla K80s).

Pas besoin d’attendre l’année prochaine pour l’API Cloud Natural Language, dont la disponibilité générale est actée. Google évoque une meilleure analyse syntaxique et morphologique (genre, nombre, temps, personne…), ainsi que des progrès sur la reconnaissance d’entités (lieux, individus, sociétés…).

On notera que l’API Cloud Translation est déclinée en une version premium qui exploite les TPU (« TensorFlow Processing Units »), développés spécifiquement pour le machine learning. Il est question d’une réduction des erreurs de 55 à 85 % sur certaines combinaisons de langues. Trois cas d’usage sont présentés : la traduction d’un flux vidéo en direct, de gros volumes d’e-mails et d’articles spécialisés.

Mémoire et neurones

Les annonces de Salesforce sont plus « théoriques », mais pourraient mener à l’introduction de nouvelles capacités dans l’offre de l’éditeur américain.

On retrouve le concept de « coattention dynamique » dans les travaux de l’équipe Salesforce Research, constituée après l’acquisition du spécialiste du deep learning MetaMind.

Il désigne, dans les grandes lignes, un système d’intelligence artificielle capable de répondre à des questions sur un texte en se faisant plusieurs représentations du document (ce qui suppose que les questions lui soient posées a priori). Un « décodeur dynamique » permet de se concentrer sur les aspects importants en anticipant le type de réponse attendue, puis en balayant les hypothèses jusqu’à atteindre un niveau suffisant de certitude.

Dans l’absolu, l’AI de Salesforce a fait mieux que celles de Microsoft, IBM et Google sur le Stanford Question Answering Dataset, dépassant les 80 % de similarité avec les réponses données par des humains.

L’éditeur a aussi développé une approche qui contraste avec le modèle traditionnel de la « mémoire courte à long terme » : l’analyse d’un texte ne se fait pas mot à mot, mais en une fois, avec des performances dites « jusqu’à 16 fois supérieures ».

* La bibliothèque open source de machine learning TensorFlow est mise à contribution. Dans un premier temps pour analyser les photos prises par le Raspberry Pi et déterminer si l’objet est bien un concombre. Ensuite, pour le classer en fonction de nombreux critères dont la taille, la couleur, la texture et la fraîcheur.


Lire la biographie de l´auteur  Masquer la biographie de l´auteur