Test de Turing : Eugene Goostman divise la communauté scientifique

Régulations
test-turing-scientifique

De nombreux chercheurs contestent l’exploit du programme informatique de type chatter bot qui a réussi le test de Turing en se faisant passer pour un jeune garçon nommé Eugene Goostman.

Le 7 juin dernier marquait les 60 ans de la mort d’Alan Turing.

La mémoire de ce mathématicien britannique (connu pour ses travaux qui ont aidé à décrypter les messages codés des Allemands pendant la Seconde Guerre mondiale) perdure à travers un test qui porte son nom. L’exercice consiste à mettre un humain en confrontation verbale avec, d’un côté, un ordinateur et de l’autre, un deuxième humain, le tout à l’aveugle.

Si dans plus de 30% des cas, l’homme qui engage les conversations n’est pas capable de déterminer lequel de ses interlocuteurs est une machine, on peut considérer que le logiciel a passé le test avec succès. C’est ce qui s’est justement produit le 7 juin lors d’une compétition à la Royal Society de Londres : le programme informatique Eugene Goostman serait parvenu à duper 33% de ses interlocuteurs humains pendant une conversation de 5 minutes.

Un tiers du jury a pensé avoir affaire à un jeune garçon de 13 ans, d’origine ukrainienne. Selon l’université britannique de Reading, ce programme de type chatter bot – ou chatbot – développé par le Russe Vladimir Veselov a réalisé une performance « historique », sans précédent documenté depuis 1950, année de conception du test de Turing.

Mais les critiques, des chercheurs de Google à ceux de l’Institut de technologie du Massachusetts (MIT), doutent de la pertinence du procédé. Ils déplorent notamment l’absence, à ce jour, de détails scientifiques concernant l’épreuve du 7 juin.

Parmi les contestataires, Ray Kurzweil, directeur de l’ingénierie chez Google, Ray Kurzweil, évoque la relativité du test de Turing : « [Sa] définition varie d’une personne à l’autre… Les premières revendications sur les machines ayant passé le test seront démystifiées par des observateurs bien informés, y compris moi-même« . Et d’ajouter : « Le chatbot se fait passer pour un enfant de 13 ans dont l’anglais n’est pas la langue maternelle. Il s’agit d’une limite« .

Comme le note Silicon.fr, Ray Kurzweil critique également la durée des interactions, limitées à cinq minutes chacune : « La probabilité de tromper des juges naïfs dans un laps de temps si court est forte« .

—— A voir aussi ——
Quiz ITespresso.fr : êtes-vous au point sur la réalité augmentée ?

Crédit illustration : Mopic – Shutterstock.com

Lire aussi :