Pour gérer vos consentements :

Une voiture autonome capable de s’adapter à tous les trajets sans recourir à des données de navigation préchargées, un smartphone susceptible d’organiser un voyage en connaissant simplement la destination… Google nourrit de grandes ambitions en matière d’intelligence artificielle.

Le groupe Internet reconnaît que de telles technologies ne pourront émerger que sur le long terme, une fois que les algorithmes auront permis aux machines de développer suffisamment leurs capacités d’apprentissage.

Dans l’état actuel, les systèmes informatiques dépendent encore largement des données qui leur sont fournies par l’humain. Illustration avec l’assistant Google Now exploité notamment sur les appareils Android ou avec la reconnaissance de visages sur les photos Facebook. C’est cette limite que Google cherche à dépasser, en créant des algorithmes capables d’apprendre uniquement de leurs expériences, sans qu’aucune règle ne soit fixée par avance.

Inspirée du fonctionnement du cerveau humain, cette technique est appelée Deep Reinforcement Learning dans le jargon scientifique anglophone, par opposition au simple Deep Learning. Elle est aujourd’hui mise en application dans le cadre d’une expérimentation dont le magazine spécialisé Nature s’est fait l’écho ce mercredi.

A la tête de ce projet, on retrouve les équipes du laboratoire britannique DeepMind, passé en janvier 2014 dans le giron de Google pour une somme estimée à environ 400 millions de dollars. Le fruit de leurs recherches se nomme DQN, pour « Deep Q-network ». Il s’agit d’un algorithme capable d’apprendre à jouer aux jeux vidéo.

Un algorithme rétro

DQN n’offre pas encore un taux de réussite satisfaisant dans les environnements en 3D. Il se rapproche en revanche des capacités humaines dans des jeux plus simples ; en l’occurrence, ceux sortis dans les années 1980 sur la console de salon Atari 2600.

Sur plus de la moitié des jeux testés, DQN atteint au moins 75 % du score d’un bon joueur. Cette polyvalence constitue sans doute sa principale particularité, le différenciant des algorithmes « traditionnels » conçus pour un jeu en particulier et qui s’appuient sur des règles plutôt que sur de l’apprentissage.

DQN ne travaille qu’à partir de deux informations : les pixels affichés et le score. Il détermine ensuite quelles actions rapportent le maximum de points. Cette technique fonctionne parfaitement sur certains jeux comme le casse-briques Breakout, le flipper Video Pinball et le classique Pong.

DQN est beaucoup moins agile quand il s’agit d’élaborer une stratégie sur le long terme, typiquement pour traverser un niveau dans un jeu d’aventure. Ainsi, 94 % des joueurs humains ont fait mieux sur Frostbite, qui consiste à sauter sur des blocs de glace en déplacement sans tomber dans l’eau. Le pourcentage est comparable sur Asteroids, ce jeu de tir spatial où la variable gravité est très difficile à prendre en compte (confer la vidéo en bas de l’article).

DeepMind & cie

L’algorithme pourra théoriquement reproduire dans la vraie vie ce qu’il est capable de faire dans un jeu vidéo. Autant de perspectives pour les laboratoires de Google. Selon les experts, il n’est peut-être plus qu’une question de mois avant qu’une technologie de type DQN ne soit expérimentée dans le monde de la robotique.

L’acquisition de DeepMind n’a pas été la seule manoeuvre de Google en 2014 pour monter en compétence sur l’intelligence artificielle. Témoin l’annonce, au mois d’octobre, d’un partenariat avec l’université britannique d’Oxford… et le rachat de deux start-up issues de cette même université : Dark Blue Labs (interprétation du langage naturel) et Vision Factory (reconnaissance de texte et de formes).

En toile de fond, la concurrence d’IBM, qui a fait de son supercalculateur Watson – capable d’opérer dans le domaine de l’ambigu et du hautement contextuel – une unité dédiée concentrant un budget d’un milliard de dollars. Plusieurs services cloud ont déjà été lancés autour de cette offre, dont l’outil décisionnel Watson Analytics.

Microsoft a lui aussi des ambitions avec ses algorithmes prédictifs. La firme a profité des TechDays organisés début février à Paris pour revenir sur le potentiel des technologies d’apprentissage automatique pour les décideurs métiers et IT. Elle a évoqué le concept « d’intelligence ambiante », c’est-à-dire d’une technologie qui s’immiscerait dans notre quotidien à tel point qu’elle en deviendrait invisible, mais omniprésente.

Crédit illustration : agsandrew – Shutterstock.com

Recent Posts

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

2 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

3 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

1 mois ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago

Microsoft Teams : comment fonctionne le double usage « pro-perso »

Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…

1 mois ago