Pour beaucoup, le terme de justice prédictive évoque la nouvelle de science-fiction de Philip K. Dick The Minority Report, où les précogs prédisent les crimes à venir. Il désigne pourtant une réalité, par exemple aux États-Unis où des juges utilisent des logiciels évaluant la probabilité qu’un suspect récidive, mais aussi ailleurs dans le monde, où naissent des start-up qui proposent d’anticiper l’issue des litiges et les indemnités potentielles. Si ces legaltech offrent de nombreux avantages (automatisation des tâches répétitives des juristes, déjudiciarisation, réduction de l’aléa judiciaire, etc.), elles ne sont pas sans risque pour la justice, qui pourrait devenir moutonnière, inéquitable et déshumanisée.

Justice et algorithmes font-ils bon ménage ? L’américain Eric Loomis a estimé que non. En le condamnant à six ans de prison pour avoir fui la police dans une voiture volée, une cour du Wisconsin s’est en partie appuyée sur un haut risque de récidive calculé par le logiciel Compas. N’ayant pas accès à l’algorithme, Eric Loomis considère qu’il n’a pas bénéficié d’un procès équitable. Débouté par la cour suprême de l’état du Wisconsin, il tente maintenant un recours auprès de la Cour suprême des États-Unis.

Nouveaux outils

Bienvenue dans le monde de la “justice prédictive”. Aux États-Unis, plusieurs états utilisent des logiciels tels que Compas pour décider si un suspect doit être incarcéré avant son procès ou non, ou pour évaluer la probabilité de récidive, ce qui est susceptible d’influer sur le jugement. Au Royaume-Uni, la police de Durham va bientôt être équipée d’un programme similaire, appelé Harm Assessment Risk Tool (Hart), pour déterminer si un suspect doit être placé en détention provisoire ou non. Mis au point avec l’université de Cambridge, il se base sur une trentaine de facteurs. En France, il n’est pas question pour l’instant d’appliquer ce type d’outils au pénal mais des start-up comme Predictice, Supra Legem ou Case Law Analytics développent des solutions permettant d’anticiper les chances de réussite d’une affaire et les montants d’indemnisation au civil.

L’utilisation d’outils numériques par la justice n’est absolument pas nouveau. Voilà déjà une bonne quinzaine d’années que le numérique a fait son entrée dans les tribunaux. Cette “cyberjustice”, bien décrite dans un récent rapport de la commission européenne pour l’efficacité de la justice (CEJEP), consiste notamment à faciliter l’accès à la justice, à améliorer la communication entre les tribunaux et les professionnels du droit, à assister le juge ou encore à administrer les tribunaux. Mais il faut bien distinguer cette cyberjustice de la justice prédictive, née plus récemment au croisement de l’intelligence artificielle, des big data et de l’open data.

En effet, grâce aux progrès croissants de l’intelligence artificielle, à des machines capables de traiter une masse de données de plus en plus importante et aux politiques publiques d’ouverture des données, des start-up baptisées legaltech se sont lancées sur le marché du droit avec une double promesse : faciliter le travail des professionnels du droit et réduire l’aléa judiciaire. “L’idée est de tuer la recherche juridique, a admis sans ménagement Nicolas Bustamante, président de Doctrine.fr lors d’un colloque sur la justice prédictive à l’Université Catholique de Lille. Notre but est de doper le droit à l’intelligence artificielle pour automatiser les tâches répétitives afin que le juriste se concentre sur sa valeur ajoutée première : conseiller ses clients et faire preuve d’inventivité juridique.”

Finies les longues heures perdues à fouiller dans la jurisprudence, promettent ainsi les legatech proposant une offre dédiée à la recherche juridique (Casetext, Ross, etc.). Ces start-up ambitionnent d’être bien plus que de simples bases de données juridiques. Leurs algorithmes permettent par exemple de faire des recherches en langage naturel et s’adaptent à l’utilisateur en apprenant de ses recherches. En transformant la jurisprudence en données, certaines legaltech en offrent une traduction statistique sur laquelle peut se baser l’avocat pour évaluer les chances de réussite de telle ou telle affaire, pour déterminer la fourchette d’indemnisations accordées dans des affaires similaires par le passé ou encore pour adapter sa stratégie en se servant des arguments qui ont le plus souvent fait mouche. En cela, les outils visent à limiter l’insécurité juridique. Louis Larret-Chahine, l’un des fondateurs de Predictice (un logiciel actuellement testé par les cours d’appel de Rennes et de Douai et par le barreau de Lille), promet ainsi de “sortir de cette justice qui était imprévisible, rendue de manière aléatoire ou disparate sur le territoire, pour aller vers quelque chose d’un peu plus logique, d’un peu plus scientifique, en tout cas d’un peu plus maîtrisable.”

Robot-Lawyer

La justice doit-elle être prévisible ?

“La fonction prédictive n’est pas nouvelle en soi : elle est inscrite dans la nature même du droit qui est de rendre les rapports sociaux prévisibles”, rappelle le magistrat Antoine Garapon, secrétaire général de l’Institut des hautes études sur la justice. Mais “une règle n’est pas prédictive si l’on ne connaît pas la règle d’application de la règle. Or ces règles de second rang sont beaucoup plus difficiles à trouver et à formaliser que les premières. C’est pourquoi elles fournissent une marge d’appréciation aux juristes”, poursuit ce magistrat. Si le droit a donc pour but d’offrir une certaine prévisibilité, la justice, elle, doit être rendue au cas par cas.

Malgré tout, “prédire les décisions de justice est depuis toujours l’objectif de tout avocat et de tout universitaire consultant. Qui se tourne vers l’un ou l’autre de ces acteurs attend d’eux, avec plus ou moins d’espoir, une prescience de la jurisprudence”, souligne le professeur Bruno Dondero. En permettant de le faire de façon beaucoup plus fiable et systématique, ces programmes poussent à résoudre les conflits autrement qu’en passant devant un juge. En effet, si les deux parties savent très précisément ce qu’elles pourront obtenir en entamant une action contentieuse, il est probable qu’elles optent pour un règlement alternatif. “Les premiers à l’avoir compris sont les assureurs de protection juridique qui sont aujourd’hui nos meilleurs clients. Ils utilisent cet outil dans le but de décourager leurs clients d’aller au contentieux”, a ainsi rapporté Louis Larret-Chahine lors du colloque à Lille.

Une telle déjudiciarisation a des avantages évidents : désengorgement des tribunaux, rapidité de la procédure, moindre coût. L’exercice de la profession d’avocat risque de s’en trouver assez profondément modifié. Ce dernier “n’aura plus vocation à servir les intérêts uniques d’une partie mais, avec son confrère, à trouver une issue apaisée dans l’intérêt commun des deux parties”, a pronostiqué Stéphane Dhonte, bâtonnier de l’ordre des avocats du Barreau de Lille. Sachant que la moitié des décisions rendues chaque année par la Cour européenne des droits de l’Homme (CEDH) concerne des procédures trop lentes au niveau national, la déjudiciarisation semble bienvenue, à condition bien-sûr qu’elle soit conforme aux intérêts du justiciable et pas seulement à ceux des professionnels du droit. Certains, comme Antoine Garapon, regretteront une évolution qui “transforme les praticiens du droit en auxiliaires des stratégies économiques et voit dans le jugement le signe d’un échec d’une régulation raisonnable et moderne des contentieux”.

L’un des principaux risques posés par la justice prédictive est la substitution de la norme d’application à la règle de droit. “Ces logiciels, qui à l’instar de la common law vont mettre en exergue la règle du précédent, ne doivent pas effacer la règle écrite par le législateur au risque d’inverser notre hiérarchie des normes”, prévient ainsi Stéphane Dhonte. C’est d’ailleurs la raison pour laquelle ces logiciels sont généralement plus développés dans les pays anglo-saxons (États-Unis, Royaume-Uni) que dans les pays de droit continental. Mais quel que soit le système, il est problématique de mettre sur le même plan les données juridiques, les caractéristiques premières du litige et les éléments de contexte. “Pour les big data, le droit et la jurisprudence sont des faits au même titre que les caractéristiques du dossier ou le tempérament d’un juge”, regrette Antoine Garapon.

Un autre risque majeur est celui de l’effet moutonnier : en consultant l’un de ces outils offrant une analyse poussée de la jurisprudence, le juge pourra par exemple observer que 90% de ses collègues ont pris telle décision dans tel type d’affaire et ainsi ressentir une pression de faire de même ou bien se sentir déchargé de la responsabilité d’avoir à trancher en décidant de leur emboîter le pas. “Avec ce type de dispositifs, la part de jugement du magistrat peut se trouver aussi bien confortée que biaisée par des effets de surdétermination ou « d’ancrage »”, s’inquiète la CEPEJ. L’indépendance et la liberté du juge peuvent ainsi être menacées par des logiciels susceptibles de pousser au conformisme. “Les outils d’aide à la décision judiciaire doivent être conçus et perçus comme une aide auxiliaire au processus de décision du juge, permettant de faciliter son travail, et non comme une contrainte, préconise la CEPEJ. Le respect du principe d’indépendance commande que chacun puisse et doive, in fine, prendre une décision qui lui soit personnelle à la suite d’un raisonnement qu’il doit pouvoir assumer à titre personnel, sans égard pour l’outil informatique.” Le juge doit donc rester maître de la procédure.

Cette commission rattachée au Conseil de l’Europe recommande aussi de porter la plus grande attention à la nature et à l’utilisation des données lorsqu’il ne s’agit pas strictement de jurisprudence, soulignant par exemple le risque d’utiliser l’identité des juges à des fins de profilage. Ceux-ci seront-ils un jour notés comme des restaurants ou des hôtels ? Aux États-Unis, la start-up Lex Machina, spécialisée dans les affaires de propriété intellectuelle et rachetée en 2015 par LexisNexis, fournit déjà des statistiques sur les décisions prises par les tribunaux en fonction du juge mais aussi des informations sur les avocats de la partie adverse. Le risque est de voir se développer le forum shopping (élection de juridiction), c’est-à-dire que le demandeur choisisse une juridiction en fonction des avantages, de procédure ou de fond, qu’il peut en attendre.

Il est d’autant plus important que le juge reste maître de la procédure, que les algorithmes utilisés ne sont pas toujours transparents et que se pose la question de la qualité des données qui les alimentent. Ainsi de l’algorithme de Compas, que la société Northpointe refuse de dévoiler, et qui, selon une grande enquête du site d’investigation américain ProPublica, donne des résultats différents selon la couleur de peau des suspects. L’analyse de Compas faite par ProPublica “a révélé que les accusés noirs étaient beaucoup plus susceptibles que les blancs de se voir attribuer à tort un risque plus élevé de récidive, tandis que les accusés blancs étaient plus susceptibles que les noirs d’être incorrectement signalés comme étant à faible risque.” Ce logiciel reproduit donc les discriminations déjà à l’œuvre dans le pays.

N’y a-t-il pas aussi un risque que les algorithmes basés sur la jurisprudence se révèlent très conservateurs et bloquent l’évolution et l’amélioration du droit ? Autrement dit, le passé doit-il gouverner le futur ? Ces algorithmes fonctionnent en effet à partir de situations antérieures, ce qui constitue une véritable limitation. Si les juges et les avocats se laissent guider par les résultats de ces programmes, cela risque de freiner l’adaptation du droit à la société. Toutefois, pour le magistrat détaché auprès du Conseil de l’Europe, Yannick Meneceur, la forte évolutivité des règles juridiques constitue en elle-même une limite technique pour les algorithmes. Car les règles juridiques n’évoluent pas de façon linéaire comme dans les sciences dures, où une nouvelle règle vient compléter la précédente sans nécessairement l’invalider. Dans les systèmes de droit continental, il suffit que le texte fondamental change pour que la jurisprudence qui était fondée dessus se trouve écartée.

On voit donc que de multiples précautions sont nécessaires en matière de justice prédictive. En premier lieu, il convient d’être transparent. “Si elle ne veut pas passer pour une justice divinatoire, aussi mystérieuse et intimidante que les oracles antiques, la justice prédictive doit rendre publics ses algorithmes et ne pas se réfugier derrière le secret de fabrication”, prévient ainsi Antoine Garapon. En second lieu, il ne faut pas se laisser duper par la soi-disant neutralité des algorithmes. Ceux-ci sont en partie le reflet des données qui les alimentent, comme l’ont si bien montré les dérapages de l’intelligence artificielle lancée par Microsoft sur Twitter. A peine 24 heures après son lancement, elle émettait des tweets racistes, ayant été alimentée par ce type de contenus.

Il convient également de s’assurer du respect de l’équité de la procédure et du débat contradictoire. Si seuls certains cabinets puissants ont accès à ces outils numériques, les parties risquent de se retrouver dans une situation d’inégalité des armes face au juge. “La garantie du principe du contradictoire et l’égalité des armes doivent également être garantis de la même manière que dans les procédures sans informatique au regard des outils technologiques mis à disposition ou auxquels ont recours de leur propre initiative les différentes parties à un procès”, estime ainsi la CEPEJ.

Enfin, il faut veiller à ce que ces technologies ne finissent pas par déshumaniser la justice. “Notre responsabilité est majeure, a averti Stéphane Dhonte à Lille. Ces logiciels de demain, qui peuvent être d’excellents outils d’aide à la décision, qu’elle soit judiciaire ou amiable, ne doivent pas nous écarter de nos objectifs communs : une justice de qualité, humaine et individualisée.” L’idéal serait que l’avocat, débarrassé de nombreuses tâches répétitives, utilise le temps ainsi libéré pour mieux servir son client tandis que le juge, qui verra moins d’affaires lui parvenir, pourra passer plus de temps sur celles qui lui seront soumises. “Les legaltech libèrent du temps pour s’occuper de l’individu”, veut ainsi croire Bruno Cathala, premier président de la Cour d’Appel de Douai. D’autres sont moins optimistes. “Je suis très sceptique face à l’idée que l’on va libérer du temps pour mieux juger”, dit ainsi Antoine Garapon. Et d’observer : “plus on a d’outils, d’instruments ou de techniques qui libèrent du temps, plus on le consacre à des choses qui le densifient, donc moins on a de temps…”

 

More on paris innovation review

By the author

  • Louis Larret-Chahine

    Bravo pour cet excellent article!
    Louis Larret-Chahine

www.parisinnovationreview.com

This content is licensed under a Creative Commons Attribution 3.0 License
You are free to share, copy, distribute and transmit this content

Logo creative commons

5 quai Voltaire 75007 Paris, France - Email : contact@parisinnovationreview.com / Landline : +33 1 44 50 32 89