Stephen Hawking a l’intelligence artificielle à l’oeil

Régulations
intelligence-artificielle

Le développement de l’intelligence artificielle doit être maîtrisé selon le chercheur britannique Stephen Hawking, qui signe une tribune avec trois autres scientifiques de renom.

Stephen Hawking, scientifique mondialement réputé pour ses travaux en cosmologie et physique des trous noirs, co-signe une tribune dans le journal britannique The Independant. Il dénonce un manque d’intérêt de la communauté scientifique pour les risques inhérents au développement de l’intelligence artificielle.

Associé à d’autres chercheurs de renom comme Stuart Russel, Max Tegmark et Frank Wilczek, il tire le signal d’alarme. « Développer avec succès l’intelligence artificielle pourrait être le plus grand événement dans l’histoire de l’humanité. Malheureusement, ce pourrait aussi être le dernier », estiment-ils. Les risques qu’ils évoquent sont multiples mais renvoient tous à des problématiques déjà explorées dans le domaine du cinéma.

Ainsi, dans des films comme iRobot ou Terminator, peut-on voir émerger des formes d’intelligence artificielle (souvent associées à des robots) ultra-connectées et omniprésentes ? Lorsque celles-ci décident de se retourner contre leurs créateurs, elles sont capables de bloquer la plupart des services et infrastructures qui nous font vivre actuellement.

Pure fiction ? Stephen Hawking et les trois autres scientifiques estiment que ces scénarios restent plausibles. « On peut imaginer que cette technologie soit capable de déjouer les marchés financiers, de dépasser les scientifiques humains, de manipuler les dirigeants et développer des armes qu’on ne puisse pas comprendre. L’incidence à court terme de l’intelligence artificielle dépend de celui qui la contrôle, mais, à long terme, cela dépend de la possibilité concrète de la contrôler. »

Asservir l’intelligence artificielle avant qu’elle ne nous asservisse

Que recommandent les quatre personnalités ? Il faut modifier la nature des travaux portés sur l’intelligence artificielle. Il faudrait associer la volonté de créer une nouvelle intelligence aux recherches portant sur les moyens de la contrôler. Reviendrait alors sur le tapis d’autres problématiques comme celle du servage. Créer une forme d’intelligence et l’asservir ne serait-ce pas immoral (on se souvient d’ailleurs que le mot « Robot » est issu de racines slaves référant au travail, aux corvées).

Actuellement, les technologies faisant appel aux fondamentaux de l’IA comme les assistants personnels des smartphones (Siri, Cortana…) ou encore l’ordinateur Watson d’IBM et les voitures intelligentes de Google, ne « font que pâle figure comparé à ce qui pourrait advenir dans les dizaines prochaines années ».

Reste à savoir si les trois lois de la robotique d’Asimov* suffiront à nous protéger quand la machine décidera de sa propre destinée.

Stephen Hawking est directeur de recherche en mathématiques appliquées et physiques théoriques de l’Université de Cambridge. Stuart Russell professeur en sciences informatiques de l’Université de Berkeley (Californie). Max Tegmark et Frank Wilczek sont des experts en physiques au MIT.

Stephen-Hawking-robotique-intelligence-artificielle
Stephen Hawking, prestigieux physicien et cosmologiste.
Source photo : www.hawking.org.uk
Lois de la robotique d’Asimov
Au nombre de trois, les lois de la robotique énoncées par l’écrivain Isaac Asimov dans ses récits de science-fiction sont censées garantir le fait qu’un robot ne pourra jamais nuire à un humain de quelle que manière que ce soit.

  1. Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.
  2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Quiz : Siri, Google Now, Cortana : la reconnaissance vocale, ça vous parle ?

Crédit image : agsandrew pour Shutterstock

Lire aussi :

Lire la biographie de l´auteur  Masquer la biographie de l´auteur