Numérique : le temps de l’augmentation est venu

Business intelligenceCloudData-stockageEntrepriseManagementRéseaux

L’une des raisons est que si l’on parle beaucoup de numérique, du cloud, des méthodes agiles ou d’intelligence artificielle, leur intégration reste limitée.

C’est l’une des énigmes économiques des années 2010 : on ne parle que de disruption, mais la productivité ralentit. La révolution numérique n’accélère pas la création de richesses alors que nous la constatons quotidiennement dans nos usages individuels.
 
C’est le fameux paradoxe de Solow, que partagent les investisseurs : la nouvelle vague des technologies de l’information crée des champions, mais peine parfois à répondre procurer les mêmes retours sur investissements aux entreprises.
 

L’une des raisons est que si l’on parle beaucoup de numérique, du cloud, des méthodes agiles ou d’intelligence artificielle, leur intégration reste limitée.

Les difficultés d’une telle intégration sont multiples : tendance à répliquer et optimiser les anciens processus alors que l’automatisation oblige à repenser plus profondément les organisations ; difficulté à formaliser les expertises humaines existantes pour en faire de la matière d’apprentissage pour des machines ; résistance des équipes face à la crainte de se voir marginalisées ; difficulté en haut de l’organisation à penser les nouveaux modèles rendus possibles par la technologie et en bas de l’organisation à réunir les compétences nécessaires pour déployer les nouveaux outils techniques. 

Or, comme le rappelle justement Luc Julia [1], il faudrait moins parler d’intelligence artificielle que d’intelligence (humaine) augmentée par le numérique. Autrement dit, ce n’est pas l’ordinateur qui va remplacer l’humain, c’est l’humain augmenté !

Et c’est là que réside le principal frein à l’utilisation de ces technologies : le temps nécessaire pour identifier où la technologie augmente réellement l’humain, et pour l’humain de comprendre là où il doit se méfier des suggestions de l’intelligence artificielle.

Les technologies de « deep learning » ont ceci de particulier qu’elles ne suivent pas des règles explicites pour proposer des solutions aux problèmes posés. Elles intègrent les savoirs à la manière d’un enfant qui apprend à reconnaître les objets qui l’entourent. Mais là ou il suffit de trois exemples à un enfant pour apprendre à reconnaître un chat, il en faudra des milliers pour entraîner un réseau de neurones. 

Ce réseau reconnaîtra alors les chats comme le juge Potter avait déclaré reconnaître la pornographie (« Je ne sais pas la définir, mais je sais dire lorsque j’en vois. »), c’est-à-dire sans que le cheminement menant à un diagnostic ne soit explicité. Ce qui aura une conséquence directe : ne sachant pas comment la machine raisonne, les utilisateurs auront besoin de temps pour apprendre à pouvoir lui faire confiance.

Nous savons juger d’un coup d’œil notre chauffeur, en détecter les comportements suspects ou nous mettre à sa place pour en imaginer les réactions. Nous mettrons du temps à atteindre le même niveau de confiance avec un véhicule autonome et à lui étendre le pacte implicite de confiance, qui mobilise des liens d’émotions en plus de la raison, que nous avons établi avec nos pairs. Par ailleurs, il faudra aussi définir un régime juridique qui clarifie de nouvelles responsabilités entre le fabricant de la machine et son utilisateur.
 

C’est à ces deux conditions que l’ « intelligence artificielle » atteindra sa maturité, c’est-à-dire le point auquel les entreprises sauront à la fois ce qu’elles peuvent en attendre, et ne pas en attendre. L’enjeu principal ne sera pas de remplacer l’homme par la machine, mais par l’homme augmenté. Et la question qui devrait occuper nos décideurs devrait davantage être celle se savoir comment réaliser cette « augmentation ».

C’est ce que l’on observe déjà dans certains secteurs en avance par rapport à la moyenne.  Ainsi, les technologies de reconnaissance d’images médicales servent avant tout aux médecins à augmenter leur productivité et à consacrer plus de temps sur l’enjeu principal : passer de l’identification d’anomalie à la réalisation d’un diagnostic et à la prise en charge du patient.

Un sondage auprès des radiologues [2] montre que leur grande majorité est plus enthousiaste face à ce potentiel qu’inquiète sur son métier. Ils font même parfois preuve d’impatience : ils attendent depuis des décennies que le numérique les débarrasse des tâches administratives – la première référence d’un dossier médical numérique datant de 1969.

Pour prendre un autre exemple dans l’industrie, la détection de fissures dans les pipelines est une opération qui nécessite d’analyser l’équivalent de plusieurs fois la surface de Paris pour trouver des fissures de la taille d’un brin d’herbe. Impossible à réaliser à la main, cette opération est désormais effectuée par un logiciel qui identifie les zones pouvant poser des problèmes, puis par des équipes d’experts, qui confirment ou infirment le diagnostic et pilotent les opérations de maintenance. Sans le numérique ces emplois n’existeraient pas, mais sans les équipes humaines ce service ne suffirait pas à apporter une solution.

Au final, une fois retombé le nuage de fumée qui entoure l’intelligence artificielle, c’est autour de trois questions très concrètes que se centre la transformation numérique. Trouver les tâches (complexes mais rarement intelligentes) pour lesquelles les technologies peuvent « augmenter » l’humain.

Repenser nos produits et services pour que l’intelligence bien réelle de nos entreprises soit mieux utilisée. Et, enfin, réécrire le nouveau contrat de confiance qui nous reliera à ces machines.
 
[1]  https://livre.fnac.com/a12970716/Luc-Julia-L-intelligence-artificielle-n-existe-pas
[2 ]http://futur-radiologie.champain.net

Auteur
Bertrand Mabille, associé EPSA, cabinet de conseil spécialisé dans l'amélioration de la performance des entreprises. Vincent Champain, président de l'Observatoire du Long Terme, think tank dédié aux enjeux de long terme.
En savoir plus 

Livres blancs A la Une