Test de Turing : Eugene Goostman divise la communauté scientifique

Régulations
test-turing-scientifique

De nombreux chercheurs contestent l’exploit du programme informatique de type chatter bot qui a réussi le test de Turing en se faisant passer pour un jeune garçon nommé Eugene Goostman.

Le 7 juin dernier marquait les 60 ans de la mort d’Alan Turing.

La mémoire de ce mathématicien britannique (connu pour ses travaux qui ont aidé à décrypter les messages codés des Allemands pendant la Seconde Guerre mondiale) perdure à travers un test qui porte son nom. L’exercice consiste à mettre un humain en confrontation verbale avec, d’un côté, un ordinateur et de l’autre, un deuxième humain, le tout à l’aveugle.

Si dans plus de 30% des cas, l’homme qui engage les conversations n’est pas capable de déterminer lequel de ses interlocuteurs est une machine, on peut considérer que le logiciel a passé le test avec succès. C’est ce qui s’est justement produit le 7 juin lors d’une compétition à la Royal Society de Londres : le programme informatique Eugene Goostman serait parvenu à duper 33% de ses interlocuteurs humains pendant une conversation de 5 minutes.

Un tiers du jury a pensé avoir affaire à un jeune garçon de 13 ans, d’origine ukrainienne. Selon l’université britannique de Reading, ce programme de type chatter bot – ou chatbot – développé par le Russe Vladimir Veselov a réalisé une performance “historique”, sans précédent documenté depuis 1950, année de conception du test de Turing.

Mais les critiques, des chercheurs de Google à ceux de l’Institut de technologie du Massachusetts (MIT), doutent de la pertinence du procédé. Ils déplorent notamment l’absence, à ce jour, de détails scientifiques concernant l’épreuve du 7 juin.

Parmi les contestataires, Ray Kurzweil, directeur de l’ingénierie chez Google, Ray Kurzweil, évoque la relativité du test de Turing : “[Sa] définition varie d’une personne à l’autre… Les premières revendications sur les machines ayant passé le test seront démystifiées par des observateurs bien informés, y compris moi-même“. Et d’ajouter : “Le chatbot se fait passer pour un enfant de 13 ans dont l’anglais n’est pas la langue maternelle. Il s’agit d’une limite“.

Comme le note Silicon.fr, Ray Kurzweil critique également la durée des interactions, limitées à cinq minutes chacune : “La probabilité de tromper des juges naïfs dans un laps de temps si court est forte“.

—— A voir aussi ——
Quiz ITespresso.fr : êtes-vous au point sur la réalité augmentée ?

Crédit illustration : Mopic – Shutterstock.com


Lire la biographie de l´auteur  Masquer la biographie de l´auteur