Intelligence artificielle : Google veut garder les moyens de tout déconnecter

Big dataData-stockage
google-bouton-rouge-intelligence-artificielle

DeepMind, la branche IA de Google, propose un framework qui servirait de bouton rouge en cas de dérapage technologique incontrôlé.

Google voudrait approfondir son expertise dans l’intelligence artificielle. Mais pas à n’importe quel prix. Le groupe Internet voudrait garder le contrôle sur les technologies d’intelligence artificielle qui s’incruste de plus en plus à travers des apps qui rythment notre vie au quotidien.

Au Royaume-Uni, sa branche DeepMind (à l’origine du programme AlphaGo) a développé un « kill switch » pour AI. C’est à dire un garde-fou pour interrompre un système d’intelligence artificielle en cas de dérive et de perte de contrôle. Cela auraît pu servir à Microsoft lorsque son chatbot Tay a dépassé les limites de la décence…

Dans un article scientifique publié début juin (disponible au format PDF), Laurent Orseau (Google DeepMind) et Stuart Armstrong (Future of Humanity Institute, Université d’Oxford) décrivent la manière de concevoir des systèmes d’intelligence artificielle qui ne déborderait pas des prérogatives fixés par leurs concepteurs humains (« Safely Interruptible Agents »).

La documentation présentée propose « d’explorer un moyen pour qu’un agent intelligent n’apprenne pas à éviter d’être interrompu par l’environnement ou un opérateur humain ».

« A partir de maintenant et au-delà, il devrait être nécessaire pour un opérateur humain d’appuyer sur un bouton rouge pour empêcher un agent intelligent de poursuivre des opérations nuisibles. »
Les chercheurs proposent donc de bâtir un environnement (« framework ») associé à ce « bouton rouge ».

Interrogé par la BBC, le docteur Laurent Orseau comprend l’appréhension des gens vis-à-vis des progrès dans l’intelligence artificielle. Des experts comme Elon Musk prennent aussi du recul vis-à-vis des formidables bonds technologiques auxquels nous assistons (machine learning, big data, robotique…).

« Ces inquiétudes ont du sens. Mais, actuellement, l’état des connaissances ne nécessite pas que nous soyons préoccupés », assure le chercheur scientifique français qui a rejoint l’équipe Google Deepmind.

Lire aussi :

Lire la biographie de l´auteur  Masquer la biographie de l´auteur