Stop les robots tueurs: ces experts français de l’IA qui s’engagent avec Elon Musk

Bases de donnéesCloudData-stockageLégislationRégulations
robots-tueurs-stop-experts-intelligence-artificielle

Un collectif d’experts de l’intelligence artificielle interpelle la communauté internationale. Parmi les signataires figurent des experts français qui dirigent des start-up.

Sous la bannière de Future of Life Institute et d’Elon Musk (Tesla, SpaceX, OpenAI), un panel d’experts dans l’intelligence artificielle du monde entier s’engagecontre les risques de prolifération des armes létales autonomes qui l’on tend à surnommer les « robots tueurs ».

Dans une lettre adressée à l’Organisation des Nations Unies et publiée à l’occasion de la conférence IJCAI qui se déroule jusqu’au 25 août à Melbourne (Australie), des spécialistes issus de 116 organisations ont lancé un signal d’alarme à propos du danger des armes létales autonomes (LAWS, acronyme de « lethal autonomous weapons systems » en anglais).

Elles sont susceptibles de symboliser « la troisième révolution de la guerre » et de tomber dans les mains de despotes, d’Etat renégats ou de groupes terroristes.

Une douzaine de pays, comme les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne, développent des systèmes d’armes autonomes, selon l’association de défense des Droits de l’Homme Human Rights Watch.

Parmi les signataires du texte émanant du Future of Life Institute figurent des pointures comme Demis Hassabis, cofondateur et CEO de DeepMind (propriété de Google, UK), Esben Østergaard (cofondateur et CTO d’Universal Robotics, Danemark) mais aussi Yoshua Bengio (fondateur d’Element AI, Canada).

Tous demandent à l’ONU une interdiction de ses armes autonomes potentiellement destructrices.

L’image de Terminator au cinéma a marqué les esprits mais la menace est prise au sérieux au regard des progrès réalisés dans la sphère de l’intelligence artificielle.

« Nous avons peu de temps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la refermer », assurent le collège d’experts qui interpellent la communauté internationale.

Dans la liste des signataires, on distingue des spécialistes français dans l’intelligence artificielle.

Pêle-mêle, on trouve Raul Bravo (DIBOTICS, qui développe une solution de reconstruction en temps réel de l’environnement autour d’un véhicule), Raphael Cherrier (Qucit, qui a crée une plateforme prédictive urbaine) et Jérome Monceaux (Spoon.ai qui crée des créatures artificielles, également fondateur de la société Aldebaran Robotics à qui l’on doit les robots Nao et Pepper et passée sous la bannière du groupe japonais SoftBank).

Dans la liste, on repère aussi Charles Ollion (Heuritech, start-up développant une technologie de reconnaissance d’images pour l’univers de la mode notamment), Anis Sahbani (Enova Robotics, premier constructeur robotique en Afrique) et Alexandre Vallette (SNIPS qui se concentre sur l’analyse prédictive des données, Ants Open Innovation Labs positionnée comme une « civic hacker company »).

L’ensemble des signataires issus de 24 pays appellent à l’interdiction totale des armes offensives autonomes.

Les risques de dérive de l’exploitation de l’IA est un sujet qui tient à coeur le charismatique entrepreneur et homme d’affaires Elon Musk. Il intervient régulièrement sur ce sujet pour sensibiliser l’opinion publique.

(Crédit photo : copie écran reportage vidéo via ABC.net.au)

Lire aussi :

Lire la biographie de l´auteur  Masquer la biographie de l´auteur