Accueil
Le quotidien du droit en ligne
-A+A
Article

Justice et intelligence artificielle, préparer demain - épisode I

Regards croisés d’une juriste et d’un mathématicien.

Ce dossier, proposé par Laurence Pécaut-Rivolier, conseillère à la Cour de cassation, et Stéphane Robin, directeur de recherche à l’INRA, a été séparé en trois épisodes.

Introduction

L’intelligence artificielle (IA) est le sujet du moment. Un sujet incontournable et en prise directe avec la réalité, y compris dans la situation sanitaire actuelle. Il suffit pour s’en convaincre de consulter le décret Datajust1 publié il y a quelques jours à peine. Il ne s’agit donc évidemment plus, aujourd’hui, de se demander s’il y a opportunité à introduire ces techniques dans le fonctionnement judiciaire. C’est déjà le cas, de manière irréversible. L’IA est déjà présente partout. Mais il est très important, au moment où les choix décisifs vont être faits sur la manière d’introduire l’IA dans la justice, de prendre le temps de se poser quelques questions susceptibles de déterminer ces choix.

Ces questions sont d’autant plus fondamentales que la justice, ça n’a échappé à personne, a du retard sur l’IA. Elle y a été longtemps réfractaire, pour de bonnes comme pour de mauvaises raisons. Elle s’y est longtemps refusée, d’abord, parce qu’elle y voit l’antithèse de la philosophie qui guide traditionnellement le juge. L’IA vise à rationaliser et à massifier le traitement. La justice est censée donner à chaque cas une réponse individualisée tenant compte des particularités de l’espèce. Mais l’arrivée tardive à l’IA est liée à d’autres facteurs, moins symboliques : la question des moyens n’est évidemment pas absente, mais aussi, probablement, une crainte parfois irraisonnée que la machine ne sonne la fin de la sacro-sainte indépendance du juge.

Ce retard dans la pénétration de l’IA dans le fonctionnement judiciaire met, paradoxalement, la justice dans une situation de vulnérabilité bien plus forte que d’autres secteurs face aux avancées technologiques. Elle n’a pas eu le temps de développer une réflexion d’ensemble, elle n’a pas eu la possibilité de s’habituer et de s’emparer petit à petit des nouveaux outils. C’est pourquoi il est fondamental aujourd’hui de prendre ce temps. Prendre le temps de se demander ce qu’on veut, où cela peut nous mener, et quelles précautions doivent être respectées.

Cette étude, coécrite par un magistrat et un mathématicien, vise à donner un éclairage, modeste, mais qui permette d’amorcer cette réflexion2. Car une chose est sûre : pour faire se rencontrer justice et IA, il faut faire d’abord se rencontrer les hommes et les femmes qui les actionnent.

Nous laisserons de côté, dans cette réflexion, la question de l’open data, c’est-à-dire la question de l’accès aux décisions de justice, qui se concentre sur la problématique de l’anonymisation ou de la pseudonymisation. Elle pose une question avant tout technique, mais plus, à ce stade, d’éthique. Nous nous concentrerons sur les objectifs et les conditions du recours à l’IA dans les décisions de justice.

1 - Le recours à l’IA dans la justice, pourquoi ?

11 - Les objectifs

111 - Les objectifs des acteurs : convergences et divergences

L’introduction de l’IA dans la justice a ceci de spécifique qu’elle est attendue par de très nombreux acteurs, qui cependant en espèrent des avancées en réalité très différentes. Les acteurs de la justice sont en effet multiples. Il y a ceux qui officient en interne, les juges, les greffiers. Il y a ceux qui travaillent avec la justice, les avocats, huissiers et auxiliaires de justice en général. Il y a ceux qui utilisent ou dépendent de la justice, qu’on nomme dans le jargon judiciaire les « justiciables », aux profils évidemment multiformes. Il y a enfin le ministère de la justice, à la fois concepteur et utilisateur des outils de justice.

Or, si tous les acteurs en appellent − plus ou moins fort − au développement de l’IA au sein de la justice, ils en attendent en réalité des résultats divers, et qui ne convergent pas toujours. On peut résumer en quatre axes principaux les attentes liées à l’introduction de l’IA dans la justice.

1111 - La sécurité juridique

Il y a d’abord, le plus souvent entendu au cours de ces dernières années, l’espoir de rationaliser la décision judiciaire, de permettre une meilleure uniformisation donc une meilleure sécurité juridique.

Bien sûr, la sécurité juridique fait partie du droit.

La sécurité juridique est une tautologie. Comme le faisait remarquer un éminent auteur : « La formule sonne en effet comme une sorte de redondance, tant il paraît évident qu’un droit qui n’assurerait pas la sécurité des relations qu’il régit cesserait d’en être un. Imagine-t-on un droit qui organiserait l’insécurité, ou même qui la rendrait possible ? »3

Pour autant, les décisions judiciaires sont, par nature, sujettes à variation.

Elles le sont d’abord pour des raisons conscientes, qui tiennent à la nécessité, pour le juge, de s’adapter à chaque situation.

Elles peuvent l’être aussi pour des raisons inconscientes, liées à la personne du juge. Ce sont des présupposés liés à son éducation, à ses croyances, à sa personnalité, qui peuvent avoir une incidence même involontaire sur la décision. Nombreuses sont les études qui démontrent que des données fort variées et parfois étonnantes − le petit-déjeuner du juge4, sa fatigue5, l’influence médiatique6, son égocentrisme7 à ses préjugés divers8 − peuvent influer sur la décision prise.

Ces deux motifs de variation de la décision de justice, qui, pour une même situation, peut donner lieu à deux décisions différentes, sont souvent confondus par ceux qui évoquent, pour le déplorer, l’aléa judiciaire.

Face à ce qui est qualifié souvent indistinctement d’aléa, de multiples garde-fous existent. La collégialité, d’abord, élément essentiel de contrôle interne, la jurisprudence, ensuite, qui unifie l’interprétation des textes, les barèmes, qui lissent les réponses dans certaines situations de préjudice. Mais ces réponses restent très grossières puisque le cadre ainsi mis en place reste général. L’IA pourrait permettre d’affiner cette fonction unificatrice et ainsi rassurer ceux qui estiment indispensable d’avoir une justice garantissant l’identité de solution, dans une conception de la fiabilité qui repose sur l’égalité et la certitude. Toute situation A donnera lieu à réponse B.

1112 - L’aide à la décision

Presque à l’opposé de ce premier objectif, le recours à l’IA peut tendre à aider à une réponse la plus adaptée possible à chaque cas, considéré comme nécessairement unique. Il ne s’agit plus de rechercher une même réponse pour tous, mais au contraire une réponse qui prenne en compte toutes les caractéristiques de la situation, peu important – ou au contraire en espérant − que le résultat soit différent dans chacune d’entre elles, mais pour des raisons objectives et justifiables.

On sait que, depuis la Révolution française, en France, il est interdit au juge de rendre des arrêts de règlement. Le code civil pose comme principe en son article 5 qu’il est défendu aux juges de prononcer « par voie de disposition générale et réglementaire sur les causes qui leur sont soumises », et en son article 1355 que « l’autorité de la chose jugée n’a lieu qu’à l’égard de ce qui a fait l’objet du jugement. Il faut que la chose demandée soit la même ; que la demande soit fondée sur la même cause ; que la demande soit entre les mêmes parties, et formée par elles et contre elles en la même qualité ». En d’autres termes, le juge ne peut jamais s’appuyer sur une autre décision pour statuer dans le cas qui lui est soumis, il doit se prononcer en fonction des éléments spécifiques à chacune des affaires, et les jugements qu’il rend n’ont qu’une autorité relative, limitée à l’affaire sur laquelle le juge statue9.

Cette obligation de s’adapter au cas d’espèce explique que la première exigence attendue d’une décision de justice repose sur sa motivation : « La qualité de la décision dépend principalement de la qualité de la motivation. »10 C’est elle qui garantit que les faits de l’espèce ont été examinés et pris en compte, et rapportés spécifiquement à la règle de droit leur étant applicable.

Rendre une décision adaptée au cas d’espèce ne veut évidemment pas dire rendre une décision sans cadre légal. Toute décision doit être la mise en œuvre de ce cadre légal. La difficulté du travail du juge, le fameux syllogisme judiciaire, est donc, dans chaque cas, de cerner la situation, pour déterminer le cadre juridique applicable, et d’en tirer les conséquences en fonction des spécificités de chaque espèce.

L’IA peut aider dans ce travail. En fournissant des bases de données complètes et des systèmes de recherches efficaces, elle permet au juge de bénéficier d’outils opérationnels pour accomplir sa mission dans toute sa diversité.

1113 - Améliorer le traitement quantitatif des dossiers

La lenteur de la réponse judiciaire est probablement une des critiques les plus vives émises contre l’institution judiciaire11. La critique n’est pas nouvelle. On la retrouve, rituelle, dans la littérature de toutes les époques12 et elle s’exprime dans tous les pays démocratiques. C’est que la justice est par essence lente. Elle l’est parce que sa crédibilité repose sur le respect de procédures − actes, délais, respect du contradictoire − lourdes et chronophages. Elle l’est aussi probablement par volonté délibérée de décourager les plaideurs d’habitude, les plaideurs compulsifs, et demeurer la solution de dernier recours dans des litiges ou des conflits que la société ne peut résoudre autrement que devant un tribunal.

Si elle n’est pas nouvelle, cette critique n’en demeure pas moins un souci majeur, insupportable pour ceux qui n’ont pas d’autre choix que de dépendre de l’institution judiciaire, notamment pour un acte de leur vie courante ; divorce, litige de voisinage, ou dont la vie est suspendue dans l’attente d’une décision de justice, civile ou pénale13. Or, parmi les raisons majeures de la lenteur, il y a les moyens de la justice, et notamment le nombre d’affaires par magistrat et greffier14. Dans ce cadre, le recours à l’IA est un espoir pour permettre d’accélérer le travail judiciaire. Il peut alors s’agir de fluidifier en amont le traitement des procédures, ou encore de permettre une réponse accélérée à des cas considérés comme « de masse », comme les impayés de crédit à la consommation ou les infractions au code de la route, quitte à laisser par ailleurs la possibilité de sortir du lot les affaires considérées comme présentant des spécificités. C’est un objectif de meilleure réponse quantitative qui est ici poursuivi, notamment par personnes en charge de la gestion des tribunaux.

1114 - Permettre de prévoir la réponse judiciaire

Très proche de l’objectif de sécurisation de la réponse judiciaire, le souhait d’aboutir à rendre les décisions de justice plus prévisibles en diffère par l’idée qu’il ne s’agit pas nécessairement d’assurer une réponse unique mais d’être en capacité de prédire, au regard des différentes circonstances, qui peuvent tenir compte de certaines données considérées comme aléatoires jusqu’à présent, quelle réponse devrait être effectivement donnée à cette situation particulière. Selon la définition du professeur Bruno Dondero15, il s’agit de « tenter de prédire avec le moins d’incertitude possible ce que sera la réponse de la juridiction X quand elle est confrontée au cas Y ». L’analyse prédictive peut ainsi s’intéresser à l’analyse des risques au pénal, au montant des sommes allouées par les juridictions, aux chances de gagner un procès…

La prévisibilité permet de placer le justiciable en position réelle d’acteur, en capacité de faire des choix en connaissance de cause. Elle serait par ailleurs facteur de conciliation, dès lors que les parties peuvent mieux mesurer la teneur de leurs engagements et de leurs concessions16.

On le constate, les attentes du monde de la justice en matière d’IA peuvent être très différentes selon les acteurs, et pas forcément convergentes. C’est donc un premier défi de décider quelle ou quelles attentes doivent être privilégiées, lesquelles sont prioritaires, pour savoir quels outils doivent être développés. Car les outils ne peuvent être que fonction d’objectifs clairement déterminés en amont.

12 - Le concept d’IA dans la justice

121 - Qu’appelle-t-on IA et algorithmes ?

Le mot algorithme, encore abscons pour beaucoup il y a peu d’années, a envahi le langage commun en un temps remarquablement court. Comme pour tout mot technique, cette popularisation en a modifié le sens et la définition. La plupart des dictionnaires s’accordent pour définir un algorithme comme une suite finie et non ambiguë d’opérations ou d’instructions permettant de résoudre une classe de problème. Un exemple fameux est l’algorithme de la division, enseigné à l’école primaire, qui permet de calculer le rapport entre deux nombres avec une précision donnée. Des algorithmes ont été conçus pour accomplir des tâches de natures très diverses. Ainsi, l’extraction d’une grande base de données des exemples respectant une série de critères fait en soi appel à un algorithme. Dans ce cas, le travail algorithmique vise principalement à assurer non seulement que la réponse fournie est exacte mais aussi qu’elle sera retournée en un temps court, même quand la base de données est de très grande taille.

Dans le cas de l’intelligence artificielle, le mot algorithme désigne indifféremment le procédé qui permet de fournir une réponse à une requête au moyen d’une formule de calcul et le processus dit d’« apprentissage » qui a précisément permis d’établir cette formule. C’est ce second processus qui justifie le nom d’« intelligence artificielle » au sens où il se fonde sur l’analyse d’un grand nombre d’exemples à partir desquels la machine est censée extraire « automatiquement » des règles de décision. Nous décrivons ici quelques exemples de tâches qui pourraient être confiées à des algorithmes issus de l’IA dans cadre du travail juridique. Ces exemples sont décrits à titre introductif et illustratif : il ne s’agit certes pas de se prononcer sur l’opportunité que ces tâches soient effectivement confiées un algorithme plutôt qu’à un acteur de justice.

122 - Les différentes interventions de l’IA dans les décisions de justice

1221 – Les bases de données

Avant de présenter quelques exemples de recours possible à l’IA, il convient de rappeler que tout traitement automatisé nécessite, au préalable, de procéder à la saisie, manuelle ou non, des données disponibles dans une base de données informatique. Cette première organisation des données sous une forme exploitable n’est pas neutre dans la mesure où elle requiert en général un encodage de l’information, par exemple au moyen de mots-clés afin de pouvoir ensuite les organiser, les compiler et les analyser.

1222 – L’aide à la décision

Une première tâche qu’il pourrait être tentant de confier à l’IA serait celle d’assister un juge lors de l’instruction d’un dossier. Ainsi, le travail d’instruction d’un juge en charge d’une affaire civile pourrait être éclairé par la connaissance plus générale des affaires et des jugements rendus par les tribunaux français en la matière. L’objectif de l’aide à la décision est d’assister, par des outils automatiques, un utilisateur sans pour autant prendre la décision à sa place. Dans notre exemple, l’existence de bases de données de décision et d’outils informatiques interactifs peut permettre à un acteur de justice d’extraire un ensemble d’affaires similaires à celle qui l’intéresse.

Cette extraction elle-même peut être laissée entièrement à l’initiative de l’utilisateur à qui il revient alors de déterminer les critères caractérisant au mieux son affaire (textes appliqués, circonstances de l’affaire, mots-clés, etc.) pour extraire de la base celles qui lui sont similaires selon ces critères. Ce travail d’extraction pourrait être également confié à un algorithme issu d’IA dont l’objectif serait de définir une typologie des affaires enregistrées dans la base de données, sans se donner de critère de filtre ou de classification a priori et fournir au juge de façon « automatique » un ensemble d’affaires proches de celle qui l’occupe, sans qu’il ait eu à spécifier lui-même les critères de ressemblance.

1223 – La prédiction de décision

Une deuxième tâche, sans doute plus ambitieuse, consisterait à proposer à un magistrat une décision au regard du cas qu’il doit traiter. Ainsi, en matière de droit du travail, en l’absence de barème obligatoire, on pourrait vouloir avoir recours à l’IA pour prédire l’indemnité correspondant à un licenciement particulier, en se fondant pour cela sur une base de données constituée des jugements rendus par tous les conseils de prud’hommes (et/ou cours d’appel) de France sur des affaires de licenciement.

Là encore, le magistrat pourrait conserver la haute main sur cette opération en définissant lui-même les critères selon lui pertinents pour extraire des situations ou des dossiers semblables à celui qu’il doit traiter et obtenir ainsi au moins une gamme d’indemnités cohérentes avec celles déjà attribuées. Une seconde approche consisterait à recourir à un algorithme d’apprentissage afin d’établir une « formule de prédiction » associant à la description de chaque cas une indemnité la plus proche possible de celle qui a effectivement été attribuée. Il suffirait ensuite de soumettre le cas d’étude à cette formule pour obtenir une prédiction de la « bonne » indemnité. Dans ce cas, cette formule de prédiction serait opaque à l’utilisateur mais censément respectueuse de l’ensemble des décisions ayant servi à la déterminer.

1224 – L’analyse de décisions

Le recours à l’IA peut être également envisagé non pas lors du processus menant à chaque décision judiciaire mais pour analyser a posteriori l’ensemble de ces décisions. L’analyse a posteriori des décisions est un travail indispensable si l’on veut pouvoir s’assurer de leur cohérence, des éventuelles évolutions des conceptions judiciaires qu’elles révèlent, et, par un travail de recherche plus avancé, des biais qu’elles recèlent. On pourrait ainsi s’intéresser à l’analyse des jugements rendus en matière de contentieux de crédits à la consommation par les tribunaux de différents départements ou régions.

De telles analyses peuvent se fonder sur des critères choisis directement par l’analyste qui décidera de croiser le montant du crédit contracté et la région pour étudier d’éventuelles différences de traitement géographique, ou encore les caractéristiques socioéconomiques des personnes ayant commis la même infraction au regard des peines prononcées. Ces analyses reposent entièrement sur l’expertise et le jugement de l’opérateur qui conserve l’initiative d’effectuer telle comparaison plutôt que telle autre. Les critères de l’analyse restent alors complètement explicites. Mais on peut aussi prétendre mener une telle analyse de façon « automatique » en confiant à un algorithme la tâche de constituer une typologie de décisions et/ou de tribunaux. Comme dans le cas de la prédiction, la règle de répartition des données dans les différentes catégories sera opaque, au sens où elle n’aura pas été conçue par l’utilisateur.

13 - Le choix des méthodes

Les exemples précédents montrent quelques tâches juridiques qui pourraient être confiées à des algorithmes afin qu’elles soient effectuées plus « automatiquement ». L’objectif est de tenter de décrire comment de tels algorithmes peuvent être conçus et, surtout, quels sont les choix arbitraires ou subjectifs qui les sous-tendent nécessairement. Le caractère apparemment automatique17 du fonctionnement de ces systèmes repose en fait sur une série de décisions parfaitement humaines, qu’il importe par conséquent de maîtriser.

131 - Un parti pris empirique

La détermination d’une liste de cas de divorce similaires à une affaire donnée ou l’évaluation d’une indemnité de licenciement sont des tâches historiquement confiées à des humains qu’il s’agirait de déléguer, au moins partiellement, à des algorithmes. Ceux-ci auront donc pour objectif d’accomplir une tâche de manière à produire un résultat comparable à celui que produirait un humain.

Il existe typiquement deux façons d’aborder un tel problème. La première, qu’on peut dire mécaniste, consiste à encoder (ou modéliser) le processus intellectuel de l’humain qui aurait à accomplir cette tâche. La seconde, qu’on peut dire empirique, vise à produire des résultats similaires à ceux fournis par un humain sans chercher à reconstituer sa démarche.

Les algorithmes les plus en vue depuis plusieurs années en IA adoptent résolument un parti pris empirique : il ne s’agit pas de copier le raisonnement (par exemple juridique) d’un humain mais seulement de mimer ses décisions. Ce parti pris implique que ces algorithmes ne reposent pas sur la modélisation du processus intellectuel d’un humain, mais sur le processus d’apprentissage par lequel la machine détermine « elle-même » ses propres règles de décisions en se fondant sur de nombreux exemples, qui lui tiennent lieu d’expérience et qu’elle tentera de mimer au mieux.

Ce parti pris est résolument pragmatique au sens où, de ce point de vue, seul le résultat compte. S’il s’agit de produire des résultats proches de ceux que produirait un humain, plutôt que d’essayer de reconstituer le raisonnement humain, autant chercher à déterminer une formule mathématique qui minimisera les différences entre des résultats originellement produits par des humains (et enregistrés dans une base de données) et ceux fournis par la machine. Le problème d’apprentissage est ainsi transformé en un problème d’optimisation : étant donné un critère qui mesure la fidélité des prédictions aux observations, l’algorithme d’apprentissage vise directement à optimiser ce critère. La contribution de l’optimisation (qui ressort à la fois des mathématiques et de l’informatique mais emprunte aussi à la physique) aux succès de l’IA est à ce titre déterminante.

On peut observer à ce stade que, de ce point de vue, les approches mécanistes sont battues d’avance par les méthodes empiriques puisque ces dernières visent précisément à optimiser le critère qui doit permettre de comparer leurs performances respectives. Il apparaît ainsi que l’IA tend naturellement à imposer ses critères (en l’occurrence, la proximité maximale avec des décisions déjà rendues) au détriment d’autres, moins mathématisables, comme la nécessité de justifier une décision, comme nous le discuterons (§ 2123).

132 - Les tâches typiques

Parmi les tâches pouvant être confiées à des algorithmes issus de l’IA on distingue souvent les problèmes « non supervisés » des problèmes « supervisés », les premiers ayant typiquement un objectif descriptif quand les seconds ont généralement une visée prédictive.

1321 - L’apprentissage non supervisé

Le terme « non supervisé » désigne les problèmes pour lesquels, lors de la phase d’apprentissage, l’algorithme ne dispose pas d’une information exogène lui permettant d’évaluer la qualité des résultats qu’il produit. C’est le cas de la définition ex nihilo d’une typologie de cas à partir d’une grande base de données réunissant des contentieux de crédit à la consommation ou de la recherche d’affaires de divorce similaires à un cas donné.

Dans ce cas, la typologie finalement exhibée par l’algorithme ne peut évidemment pas être parfaitement intrinsèque au sens où elle serait fondée sur la seule contemplation des données, sans aucune grille d’analyse particulière. Elle repose nécessairement sur une représentation « mathématique » des données (en l’occurrence, des textes) et sur un critère (également mathématique) mesurant la proximité ou la similarité entre deux textes. L’effet de sidération produit par les performances des algorithmes provient en partie du fait qu’il est difficile d’imaginer qu’on puisse mathématiser la comparaison de deux textes. Cela est cependant possible et pour tout dire assez simple : on peut par exemple représenter un texte comme un simple sac de mots (bag of words), oubliant toute structure syntaxique, et mesurer la proximité entre deux textes en comparant simplement la fréquence d’utilisation des différents mots. On recourt alors à un algorithme qui vise à définir une catégorisation « optimale » de textes, c’est-à-dire à déterminer des groupes de textes similaires entre eux, les groupes étant, au contraire, les plus distincts possible les uns des autres. On a pu ainsi classer des articles de presse sur la seule base de leur contenu textuel et constater que la typologie ainsi obtenue correspondait au sujet dont ils relevaient (sport, économie, culture, politique internationale, etc.) alors même que la rubrique du journal dans laquelle ils avaient été publiés n’avait pas été prise en compte pour déterminer cette typologie, ni même la liste de ces rubriques18. Le succès de l’expérience est dû, d’une part, à la disponibilité informatique d’un très grand nombre d’articles de presse et, d’autre part, au fait que les termes utilisés dans les différents champs thématiques sont suffisamment différents pour que l’analyse des seules fréquences de mots permette de les distinguer.

Pour accomplir cette tâche « automatique », il aura fallu choisir, a priori, une représentation de l’information (un texte = un sac de mots), une mesure de similarité (la comparaison des fréquences d’utilisation) et un critère d’optimalité mesurant à quel point les groupes de textes sont bien distincts entre eux (que nous ne détaillons pas ici).

1322 - L’apprentissage supervisé

Les problèmes supervisés sont ceux pour lesquels une validation des prédictions est disponible lors de la phase d’apprentissage. C’est le cas de l’évaluation d’une indemnité de licenciement pour laquelle on disposerait d’une base de données comprenant à la fois la description des affaires et le montant finalement alloué à l’issue de la procédure judiciaire. Il s’agit alors de déterminer une fonction de prédiction qui associera une décision (en l’occurrence, un montant) à un cas, laquelle fonction est censée mimer, au mieux, les décisions enregistrées dans la base de données.

Là encore, le processus d’apprentissage repose sur une représentation des cas (par exemple par mots-clés ou comme sac de mots) mais aussi sur le choix d’une forme pour la fonction de prédiction et sur un critère qui mesure la proximité entre la prédiction fournie et la réponse vraie. Il existe pléthore de fonctions de prédiction aux noms obscurs (machine à vecteurs supports), évocateurs (réseaux de neurones), ou poétiques (forêts aléatoires)19. La qualité de prédiction repose grandement sur la flexibilité de cette fonction, c’est-à-dire sur sa capacité à rendre compte du lien existant entre la description du cas et la décision sans trop préjuger de sa forme. La contrepartie de cette flexibilité (qui contribue grandement aux performances de ces méthodes) est le caractère très opaque des formules de prédictions qui en résultent et dont il est en général vain d’essayer d’avoir une compréhension intuitive. Ainsi, un réseau de neurones profond peut mettre en jeu plusieurs dizaines de milliers de coefficients dont la combinaison fournit la prédiction (la détermination de ces coefficients est précisément l’objectif de l’algorithme d’apprentissage).

L’apprentissage supervisé peut formuler une prédiction non pas sous forme d’une valeur ponctuelle (par exemple, un montant) mais sous forme d’une distribution de valeurs (intervalle ou même de distribution de probabilités). Nous n’entrons pas ici dans les spécificités des algorithmes fournissant ce type de réponse dans la mesure où ils sont, le plus souvent, également peu interprétables.

1323 - Des situations hybrides

Il existe évidemment de nombreuses tâches de nature hybride, entre supervisée et non supervisée. Un juge spécialisé dans les affaires de divorce pourrait ainsi recourir à un algorithme non supervisé pour extraire automatiquement d’une base de données une liste d’affaires similaires à celle qu’il doit traiter et, de plus, interagir avec l’algorithme en validant ou non, au cas par cas, les éléments de cette liste. Un algorithme d’apprentissage supervisé peut alors entrer en jeu pour réviser les critères ayant permis de déterminer la typologie initiale en fonction des validations et invalidations apportées par l’utilisateur. Cette interaction avec l’utilisateur rend l’apprentissage « supervisé » dans le sens où il bénéficie d’une information supplémentaire. L’algorithme d’apprentissage vise alors à réviser la formule de classification afin de maximiser le taux de validation par le juge, qui constitue un nouveau critère d’optimalité.

La procédure qui résulte d’un tel apprentissage reste opaque dans la mesure où la formule permettant d’établir la liste des affaires pertinentes n’est pas aisément interprétable mais tend progressivement à mimer les critères de choix du juge qui l’alimente.

 

 

Notes

1. Décr. n° 2020-356, 27 mars 2020, JO 29 mars, v. Dalloz actualité, 1er avr. 2020, art. P. Januel. Certains pensent qu’il s’agit d’anticiper les multiples recours juridiques des malades du covid.

2. Une réflexion déjà largement amorcée depuis plusieurs années par de grands auteurs de la pensée judiciaire. À cet égard, les auteurs de ces lignes remercient très vivement Antoine Garapon pour les échanges auxquels il a bien voulu participer et qui ont grandement nourri cet article.

3. J. Boulouis, « Quelques observations à propos de la sécurité juridique », in Du droit international au droit de l’intégration. Liber amicorum : Pierre Pescatore, Nomos Verlag, 1987, p. 53, cité par J.-G. Huglo, Dossier : Le principe de sécurité juridique, Cah. Cons. const. 2001, n° 11.

4. Présumée dès 1950 du XXe siècle par le philosophe et juge américain Jérôme Franck (Court of trial, 1950), l’incidence du repas ou de la faim sur la décision du juge a été établie par une étude parue dans la revue Proceedings of the national Academy of Science (PNAS) (v. la traduction : S. Danziger, J. Levav et L. Avnaim-Pesso, « Qu’a mangé le juge à son petit-déjeuner ? » De l’impact des conditions de travail sur la décision de justice, Cah. just. 2015. 579 ). Les auteurs de l’étude ont étudié plus de 1 000 décisions faisant suite à des demandes de liberté conditionnelle prises par huit différents juges en Israël sur une période de dix mois. Les juges ont jugé de 14 à 35 cas par jour en trois sessions : une du début de la journée à une pause snack au milieu de la matinée, une deuxième de la pause du matin à la pause déjeuner et une troisième de la pause déjeuner à la fin de la journée. De manière générale, les juges ont eu davantage tendance à accepter les demandes de liberté conditionnelle au début de la journée qu’à la fin, et les chances de voir sa demande acceptée étaient même doublées quand l’affaire était jugée en début de session plutôt qu’en fin de session. En fait, le nombre de cas qu’un juge avait à traiter au cours d’une session affectait de manière significative ses décisions. Les huit juges étudiés ont suivi le même schéma, et ont refusé au total 64,2 % des demandes.

5. Doss. Des juges sous influence, Cah. just. 2015. 501 s.

6. A. Philippe, Vous jurez de n’écouter ni la haine ou la méchanceté… Les biais affectant les décisions de justice, Cah. just. 2015. 563 .

7. Fait de surévaluer ses capacités par rapport à la moyenne. Les auteurs de l’étude constatent que 56 % des juges pensent être dans le quart des juges les moins infirmés en appel, et 88 % pensent être dans la meilleure moitié, ce qui est mathématiquement impossible. Les biais affectant les décisions de justice, art. préc.

8. K. Diallo, Une intelligence artificielle tente de corriger les biais racistes dans la justice, Le Figaro, 13 juin 2019.

9. La question de la jurisprudence, telle qu’issue principalement des décisions de la Cour de cassation, n’est pas posée ici.

10. Conseil consultatif des juges européens (CCJE), avis n° 11 (2008), à l’attention du Comité des ministres du Conseil de l’Europe sur la qualité des décisions de justice ; N. Fricero, « La qualité des décisions de justice au sens de l’article 6, § 1, de la Convention européenne des droits de l’homme », art. préc., p. 56 ; dans le même sens, un auteur relève que la motivation est « une garantie essentielle pour le justiciable, car elle est destinée à le protéger contre l’arbitraire du juge », v. J.-P. Ancel, La rédaction de la décision de justice en France, RID comp. 1998. 852.

11. Dans une étude de janvier 2014 commandée par le ministère de la justice, 95 % des Français font à la justice le reproche de sa lenteur.

12. Des Guêpes d’Aristophane au Procès de Kafka, en passant par La Farce de maître Pathelin ou Les Plaideurs de Balzac.

13. En 2017, le délai moyen pour obtenir une décision de justice était de neuf mois devant le juge administratif, de six mois devant le juge d’instance, de sept mois devant le tribunal de grande instance, de quinze mois devant le conseil de prud’hommes et de treize mois devant la cour d’appel.

14. 8 313 magistrats en France en 2017, soit 11,9 juges pour 100 000 habitants, ce qui fait de la France l’un des pays les moins bien dotés en Europe, selon une étude du Conseil de l’Europe, 84 969 agents, pour 2 609 394 décisions en matière civile et commerciale et 1 180 949 décisions en matière pénale.

15. B. Dondero, La justice prédictive, Le blog du professeur Bruno Dondero.

16. Rapport d’information fait au nom de la Commission des lois sur « le redressement de la justice », Sénat, n° 795, 4 avril 2017, p. 139 s.

17. D’où l’usage des guillemets lors de l’emploi de ce terme jusqu’ici.

18. D.M. Blei, A.Y. Ng et M.I. Jordan (2003). Latent dirichlet allocation. Journal of machine Learning research, 3(Jan), 993-1022.

19. L. Godefroy, F. Lebaron et J.L. Vehel, Comment le numérique transforme le droit et la justice vers de nouveaux usages et un bouleversement de la prise de décision. Rapport de recherche, 2019.