Comment l’intelligence artificielle perturbe les équilibres du droit

Big dataBusiness intelligenceData-stockageEmploiManagement
intelligence-artificielle-droit

Dans quelle mesure l’intelligence artificielle impacte-t-elle la pratique du droit ? Il en a été question lors de la Journée Numérique de l’université Paris Descartes.

Et si on démythifiait cette intelligence artificielle qui suscite autant de fascination que de crispation ?

Anne Laude et Pavlos Moraitis ont abordé la problématique sous cet angle, en la réinscrivant dans un contexte plus large : celui de la révolution digitale qui touche les métiers du droit.

Intervenant dans le cadre de la Journée Numérique organisée par l’université Paris Descartes, les deux enseignants se sont retrouvés sur de nombreux points, quand bien même leurs profils s’opposent au premier abord : l’une est doyen de la faculté de droit ; l’autre, directeur du laboratoire informatique et responsable de l’équipe « Intelligence Artificielle Distribuée ».

L’idée d’une machine capable d’effectuer des tâches accomplies d’ordinaire par des humains sur la base d’un apprentissage, d’une organisation de la mémoire et d’un raisonnement n’est pas nouvelle : Isaac Asimov l’esquissait déjà dans les années 40 avec ses trois lois de la robotique, codées dans les cerveaux positroniques des machines.

L’auteur de science-fiction d’origine russe avait véritablement abordé la notion d’IA dans sa nouvelle de 1985 intitulée « Les Robots et l’Empire » et dans laquelle une machine déduit par elle-même une quatrième loi, fonction des trois premières.

Trente-cinq ans plus tôt, le mathématicien et cryptologue britannique Alan Turing avait donné ce qui est désormais communément admis comme la première définition de l’intelligence artificielle, en évoquant des ordinateurs ou des machines « conscientes ».

IA libératrice

Couplée au traitement massif de données, cette capacité à aller au-delà de la simple exécution de tâches commence à impacter les professions intellectuelles.

Le droit n’y échappe pas, mais on ne saurait, d’après Anne Laude, n’y voir qu’une menace. Avocats, notaires* et consorts devront apprivoiser la technologie comme un levier pour se libérer des tâches à faible valeur ajoutée et se concentrer ainsi sur des prestations telles que la gestion des dossiers et la relation client.

Les tâches en question sont celles qui impliquent des paramètres objectifs. On parle là de la création de documents juridiques (contrats commerciaux, dépôts de marques, statuts, testaments…) et judiciaires (procès-verbaux, assignations).

Des start-up se sont positionnées sur ce segment de business, sous la bannière LegalTech. Le recours à l’intelligence artificielle leur permet de proposer des prix significativement inférieurs à ceux des avocats et des juristes, tout en réduisant les délais de traitement et en assurant un service en 24/24.

Illustration en France avec Captain Contrat, qui a levé 1 million d’euros avec sa place de marché de création de documents juridiques exploitée en mode « semi-automatisé ».

anne-laude

Déshumanisation ?

Ce concept de « semi-automatisation » a son importance dans la compréhension du phénomène IA. Chez Captain Contrat, il consiste à conserver un lien avec des avocats pour ne pas « laisser le client seul responsable de son acte ».

À travers cet exemple, Pavlos Moraitis perçoit un enjeu majeur que l’on rattache aujourd’hui plus volontiers à l’univers de la voiture autonome : comment considérer l’intelligence artificielle sur le plan juridique et vers qui se tourner en cas de problème ?

Anne Laude suggère une piste : la mise en place, dans le code civil,  d’un troisième statut aux côtés des biens et des personnes.

La loi no 2015-177 du 16 février 2015 relative à la modernisation et à la simplification du droit et des procédures dans les domaines de la justice et des affaires intérieures a ouvert une telle piste pour les animaux, qui, en tant qu’«êtres vivants doués de sensibilité », ne sont plus considérés comme des « meubles », bien qu’ils relèvent toujours du régime des biens.

La question de la responsabilité interpelle un médecin radiologue présent dans l’assistance. Mentionnant le crash du Mont Sainte-Odile (janvier 1992), resté dans un flou juridique du fait que le système de l’avion aurait refusé de remettre les gaz alors que le pilote avait actionné la commande, l’intéressé se demande dans quelle mesure il pourrait un jour payer pour les erreurs de l’intelligence artificielle.

Par « erreurs », il faut entendre, dans le contexte de sa profession, les faux positifs et les faux négatifs qui compromettent certains diagnostics, obligeant l’humain à effectuer un contrôle a posteriori et remettant par là même en cause l’efficience de l’IA.

Pour Anne Laude, « on multiplie la chaîne des personnes potentiellement responsables ». On pourrait ainsi imaginer qu’un jour, même l’opérateur télécoms qui fournit le réseau par lequel sont transmises les données puisse être poursuivi.

Dure limite

Les choses sont plus claires sur la notion de « justice prédictive ». Ou comment l’IA a le potentiel de profiler les avocats et les magistrats en recoupant de la data, pour répondre à des questions de type « Devant quels tribunaux Me. X obtient-il les plus souvent raison ? » ou « Quelles sont les juridictions qui cassent le moins de décisions ? ».

Le site spécialisé Village de la Justice cite, à ce propos, la société américaine Neota, qui a monté une plate-forme combinant règles et raisonnements complexes, documents et processus pour améliorer la performance et réduire les risques en fonction des requêtes de l’utilisateur.

Cette approche « industrielle » a pour avantage d’aller dans le sens d’un désengorgement des tribunaux. Elle se heurte toutefois aux limites de l’IA dans la prise de décision. Non seulement lorsque des articles de lois sont conflictuels et qu’il existe une jurisprudence, mais aussi lorsque la notion d’intime conviction entre en jeu – essentiellement dans le domaine du pénal.

Spécialisée en droit de la santé, Anne Laude donne l’exemple d’un hôpital ou se produirait un accident impliquant une intelligence artificielle. De nombreux critères entreraient en ligne de compte : l’établissement est-il public ou privé ? Le médecin concerné est-il salarié ou libéral ? La justice s’est-elle déjà prononcée sur des cas similaires ?

Le défi est d’autant plus grand qu’une étude de 2013 dont le magazine Le Big Data s’est fait l’écho démontre que l’AI a fait perdre des capacités au personnel médical, moins enclin à repérer des cancers sur des zones qui ne sont pas mises en lumière par un ordinateur.

* Sur le cas des notaires, on a eu droit à l’évocation de la blockchain. Sans plus de détails, mais on imagine le potentiel de la technologie de registre décentralisé et distribué en association avec de l’intelligence artificielle.

(Photo en tête d’article : Pavlos Moraitis. Dans le corps de l’article : Anne Laude)


Lire la biographie de l´auteur  Masquer la biographie de l´auteur