Ces questions sont d’autant plus fondamentales que la justice, ça n’a échappé à personne, a du retard sur l’IA. Elle y a été longtemps réfractaire, pour de bonnes comme pour de mauvaises raisons. Elle s’y est longtemps refusée, d’abord, parce qu’elle y voit l’antithèse de la philosophie qui guide traditionnellement le juge. L’IA vise à rationaliser et à massifier le traitement. La justice est censée donner à chaque cas une réponse individualisée tenant compte des particularités de l’espèce. Mais l’arrivée tardive à l’IA est liée à d’autres facteurs, moins symboliques : la question des moyens n’est évidemment pas absente, mais aussi, probablement, une crainte parfois irraisonnée que la machine ne sonne la fin de la sacro-sainte indépendance du juge.
Ce retard dans la pénétration de l’IA dans le fonctionnement judiciaire met, paradoxalement, la justice dans une situation de vulnérabilité bien plus forte que d’autres secteurs face aux avancées technologiques. Elle n’a pas eu le temps de développer une réflexion d’ensemble, elle n’a pas eu la possibilité de s’habituer et de s’emparer petit à petit des nouveaux outils. C’est pourquoi il est fondamental aujourd’hui de prendre ce temps. Prendre le temps de se demander ce qu’on veut, où cela peut nous mener, et quelles précautions doivent être respectées.
Cette étude, coécrite par un magistrat et un mathématicien, vise à donner un éclairage, modeste, mais qui permette d’amorcer cette réflexion2. Car une chose est sûre : pour faire se rencontrer justice et IA, il faut faire d’abord se rencontrer les hommes et les femmes qui les actionnent.
Nous laisserons de côté, dans cette réflexion, la question de l’open data, c’est-à-dire la question de l’accès aux décisions de justice, qui se concentre sur la problématique de l’anonymisation ou de la pseudonymisation. Elle pose une question avant tout technique, mais plus, à ce stade, d’éthique. Nous nous concentrerons sur les objectifs et les conditions du recours à l’IA dans les décisions de justice.
11 - Les objectifs
111 - Les objectifs des acteurs : convergences et divergences
L’introduction de l’IA dans la justice a ceci de spécifique qu’elle est attendue par de très nombreux acteurs, qui cependant en espèrent des avancées en réalité très différentes. Les acteurs de la justice sont en effet multiples. Il y a ceux qui officient en interne, les juges, les greffiers. Il y a ceux qui travaillent avec la justice, les avocats, huissiers et auxiliaires de justice en général. Il y a ceux qui utilisent ou dépendent de la justice, qu’on nomme dans le jargon judiciaire les « justiciables », aux profils évidemment multiformes. Il y a enfin le ministère de la justice, à la fois concepteur et utilisateur des outils de justice.
Or, si tous les acteurs en appellent − plus ou moins fort − au développement de l’IA au sein de la justice, ils en attendent en réalité des résultats divers, et qui ne convergent pas toujours. On peut résumer en quatre axes principaux les attentes liées à l’introduction de l’IA dans la justice.
1111 - La sécurité juridique
Il y a d’abord, le plus souvent entendu au cours de ces dernières années, l’espoir de rationaliser la décision judiciaire, de permettre une meilleure uniformisation donc une meilleure sécurité juridique.
Bien sûr, la sécurité juridique fait partie du droit.
La sécurité juridique est une tautologie. Comme le faisait remarquer un éminent auteur : « La formule sonne en effet comme une sorte de redondance, tant il paraît évident qu’un droit qui n’assurerait pas la sécurité des relations qu’il régit cesserait d’en être un. Imagine-t-on un droit qui organiserait l’insécurité, ou même qui la rendrait possible ? »3
Pour autant, les décisions judiciaires sont, par nature, sujettes à variation.
Elles le sont d’abord pour des raisons conscientes, qui tiennent à la nécessité, pour le juge, de s’adapter à chaque situation.
Elles peuvent l’être aussi pour des raisons inconscientes, liées à la personne du juge. Ce sont des présupposés liés à son éducation, à ses croyances, à sa personnalité, qui peuvent avoir une incidence même involontaire sur la décision. Nombreuses sont les études qui démontrent que des données fort variées et parfois étonnantes − le petit-déjeuner du juge4, sa fatigue5, l’influence médiatique6, son égocentrisme7 à ses préjugés divers8 − peuvent influer sur la décision prise.
Ces deux motifs de variation de la décision de justice, qui, pour une même situation, peut donner lieu à deux décisions différentes, sont souvent confondus par ceux qui évoquent, pour le déplorer, l’aléa judiciaire.
Face à ce qui est qualifié souvent indistinctement d’aléa, de multiples garde-fous existent. La collégialité, d’abord, élément essentiel de contrôle interne, la jurisprudence, ensuite, qui unifie l’interprétation des textes, les barèmes, qui lissent les réponses dans certaines situations de préjudice. Mais ces réponses restent très grossières puisque le cadre ainsi mis en place reste général. L’IA pourrait permettre d’affiner cette fonction unificatrice et ainsi rassurer ceux qui estiment indispensable d’avoir une justice garantissant l’identité de solution, dans une conception de la fiabilité qui repose sur l’égalité et la certitude. Toute situation A donnera lieu à réponse B.
1112 - L’aide à la décision
Presque à l’opposé de ce premier objectif, le recours à l’IA peut tendre à aider à une réponse la plus adaptée possible à chaque cas, considéré comme nécessairement unique. Il ne s’agit plus de rechercher une même réponse pour tous, mais au contraire une réponse qui prenne en compte toutes les caractéristiques de la situation, peu important – ou au contraire en espérant − que le résultat soit différent dans chacune d’entre elles, mais pour des raisons objectives et justifiables.
On sait que, depuis la Révolution française, en France, il est interdit au juge de rendre des arrêts de règlement. Le code civil pose comme principe en son article 5 qu’il est défendu aux juges de prononcer « par voie de disposition générale et réglementaire sur les causes qui leur sont soumises », et en son article 1355 que « l’autorité de la chose jugée n’a lieu qu’à l’égard de ce qui a fait l’objet du jugement. Il faut que la chose demandée soit la même ; que la demande soit fondée sur la même cause ; que la demande soit entre les mêmes parties, et formée par elles et contre elles en la même qualité ». En d’autres termes, le juge ne peut jamais s’appuyer sur une autre décision pour statuer dans le cas qui lui est soumis, il doit se prononcer en fonction des éléments spécifiques à chacune des affaires, et les jugements qu’il rend n’ont qu’une autorité relative, limitée à l’affaire sur laquelle le juge statue9.
Cette obligation de s’adapter au cas d’espèce explique que la première exigence attendue d’une décision de justice repose sur sa motivation : « La qualité de la décision dépend principalement de la qualité de la motivation. »10 C’est elle qui garantit que les faits de l’espèce ont été examinés et pris en compte, et rapportés spécifiquement à la règle de droit leur étant applicable.
Rendre une décision adaptée au cas d’espèce ne veut évidemment pas dire rendre une décision sans cadre légal. Toute décision doit être la mise en œuvre de ce cadre légal. La difficulté du travail du juge, le fameux syllogisme judiciaire, est donc, dans chaque cas, de cerner la situation, pour déterminer le cadre juridique applicable, et d’en tirer les conséquences en fonction des spécificités de chaque espèce.
L’IA peut aider dans ce travail. En fournissant des bases de données complètes et des systèmes de recherches efficaces, elle permet au juge de bénéficier d’outils opérationnels pour accomplir sa mission dans toute sa diversité.
1113 - Améliorer le traitement quantitatif des dossiers
La lenteur de la réponse judiciaire est probablement une des critiques les plus vives émises contre l’institution judiciaire11. La critique n’est pas nouvelle. On la retrouve, rituelle, dans la littérature de toutes les époques12 et elle s’exprime dans tous les pays démocratiques. C’est que la justice est par essence lente. Elle l’est parce que sa crédibilité repose sur le respect de procédures − actes, délais, respect du contradictoire − lourdes et chronophages. Elle l’est aussi probablement par volonté délibérée de décourager les plaideurs d’habitude, les plaideurs compulsifs, et demeurer la solution de dernier recours dans des litiges ou des conflits que la société ne peut résoudre autrement que devant un tribunal.
Si elle n’est pas nouvelle, cette critique n’en demeure pas moins un souci majeur, insupportable pour ceux qui n’ont pas d’autre choix que de dépendre de l’institution judiciaire, notamment pour un acte de leur vie courante ; divorce, litige de voisinage, ou dont la vie est suspendue dans l’attente d’une décision de justice, civile ou pénale13. Or, parmi les raisons majeures de la lenteur, il y a les moyens de la justice, et notamment le nombre d’affaires par magistrat et greffier14. Dans ce cadre, le recours à l’IA est un espoir pour permettre d’accélérer le travail judiciaire. Il peut alors s’agir de fluidifier en amont le traitement des procédures, ou encore de permettre une réponse accélérée à des cas considérés comme « de masse », comme les impayés de crédit à la consommation ou les infractions au code de la route, quitte à laisser par ailleurs la possibilité de sortir du lot les affaires considérées comme présentant des spécificités. C’est un objectif de meilleure réponse quantitative qui est ici poursuivi, notamment par personnes en charge de la gestion des tribunaux.
1114 - Permettre de prévoir la réponse judiciaire
Très proche de l’objectif de sécurisation de la réponse judiciaire, le souhait d’aboutir à rendre les décisions de justice plus prévisibles en diffère par l’idée qu’il ne s’agit pas nécessairement d’assurer une réponse unique mais d’être en capacité de prédire, au regard des différentes circonstances, qui peuvent tenir compte de certaines données considérées comme aléatoires jusqu’à présent, quelle réponse devrait être effectivement donnée à cette situation particulière. Selon la définition du professeur Bruno Dondero15, il s’agit de « tenter de prédire avec le moins d’incertitude possible ce que sera la réponse de la juridiction X quand elle est confrontée au cas Y ». L’analyse prédictive peut ainsi s’intéresser à l’analyse des risques au pénal, au montant des sommes allouées par les juridictions, aux chances de gagner un procès…
La prévisibilité permet de placer le justiciable en position réelle d’acteur, en capacité de faire des choix en connaissance de cause. Elle serait par ailleurs facteur de conciliation, dès lors que les parties peuvent mieux mesurer la teneur de leurs engagements et de leurs concessions16.
On le constate, les attentes du monde de la justice en matière d’IA peuvent être très différentes selon les acteurs, et pas forcément convergentes. C’est donc un premier défi de décider quelle ou quelles attentes doivent être privilégiées, lesquelles sont prioritaires, pour savoir quels outils doivent être développés. Car les outils ne peuvent être que fonction d’objectifs clairement déterminés en amont.
12 - Le concept d’IA dans la justice
121 - Qu’appelle-t-on IA et algorithmes ?
Le mot algorithme, encore abscons pour beaucoup il y a peu d’années, a envahi le langage commun en un temps remarquablement court. Comme pour tout mot technique, cette popularisation en a modifié le sens et la définition. La plupart des dictionnaires s’accordent pour définir un algorithme comme une suite finie et non ambiguë d’opérations ou d’instructions permettant de résoudre une classe de problème. Un exemple fameux est l’algorithme de la division, enseigné à l’école primaire, qui permet de calculer le rapport entre deux nombres avec une précision donnée. Des algorithmes ont été conçus pour accomplir des tâches de natures très diverses. Ainsi, l’extraction d’une grande base de données des exemples respectant une série de critères fait en soi appel à un algorithme. Dans ce cas, le travail algorithmique vise principalement à assurer non seulement que la réponse fournie est exacte mais aussi qu’elle sera retournée en un temps court, même quand la base de données est de très grande taille.
Dans le cas de l’intelligence artificielle, le mot algorithme désigne indifféremment le procédé qui permet de fournir une réponse à une requête au moyen d’une formule de calcul et le processus dit d’« apprentissage » qui a précisément permis d’établir cette formule. C’est ce second processus qui justifie le nom d’« intelligence artificielle » au sens où il se fonde sur l’analyse d’un grand nombre d’exemples à partir desquels la machine est censée extraire « automatiquement » des règles de décision. Nous décrivons ici quelques exemples de tâches qui pourraient être confiées à des algorithmes issus de l’IA dans cadre du travail juridique. Ces exemples sont décrits à titre introductif et illustratif : il ne s’agit certes pas de se prononcer sur l’opportunité que ces tâches soient effectivement confiées un algorithme plutôt qu’à un acteur de justice.
122 - Les différentes interventions de l’IA dans les décisions de justice
1221 – Les bases de données
Avant de présenter quelques exemples de recours possible à l’IA, il convient de rappeler que tout traitement automatisé nécessite, au préalable, de procéder à la saisie, manuelle ou non, des données disponibles dans une base de données informatique. Cette première organisation des données sous une forme exploitable n’est pas neutre dans la mesure où elle requiert en général un encodage de l’information, par exemple au moyen de mots-clés afin de pouvoir ensuite les organiser, les compiler et les analyser.
1222 – L’aide à la décision
Une première tâche qu’il pourrait être tentant de confier à l’IA serait celle d’assister un juge lors de l’instruction d’un dossier. Ainsi, le travail d’instruction d’un juge en charge d’une affaire civile pourrait être éclairé par la connaissance plus générale des affaires et des jugements rendus par les tribunaux français en la matière. L’objectif de l’aide à la décision est d’assister, par des outils automatiques, un utilisateur sans pour autant prendre la décision à sa place. Dans notre exemple, l’existence de bases de données de décision et d’outils informatiques interactifs peut permettre à un acteur de justice d’extraire un ensemble d’affaires similaires à celle qui l’intéresse.
Cette extraction elle-même peut être laissée entièrement à l’initiative de l’utilisateur à qui il revient alors de déterminer les critères caractérisant au mieux son affaire (textes appliqués, circonstances de l’affaire, mots-clés, etc.) pour extraire de la base celles qui lui sont similaires selon ces critères. Ce travail d’extraction pourrait être également confié à un algorithme issu d’IA dont l’objectif serait de définir une typologie des affaires enregistrées dans la base de données, sans se donner de critère de filtre ou de classification a priori et fournir au juge de façon « automatique » un ensemble d’affaires proches de celle qui l’occupe, sans qu’il ait eu à spécifier lui-même les critères de ressemblance.
1223 – La prédiction de décision
Une deuxième tâche, sans doute plus ambitieuse, consisterait à proposer à un magistrat une décision au regard du cas qu’il doit traiter. Ainsi, en matière de droit du travail, en l’absence de barème obligatoire, on pourrait vouloir avoir recours à l’IA pour prédire l’indemnité correspondant à un licenciement particulier, en se fondant pour cela sur une base de données constituée des jugements rendus par tous les conseils de prud’hommes (et/ou cours d’appel) de France sur des affaires de licenciement.
Là encore, le magistrat pourrait conserver la haute main sur cette opération en définissant lui-même les critères selon lui pertinents pour extraire des situations ou des dossiers semblables à celui qu’il doit traiter et obtenir ainsi au moins une gamme d’indemnités cohérentes avec celles déjà attribuées. Une seconde approche consisterait à recourir à un algorithme d’apprentissage afin d’établir une « formule de prédiction » associant à la description de chaque cas une indemnité la plus proche possible de celle qui a effectivement été attribuée. Il suffirait ensuite de soumettre le cas d’étude à cette formule pour obtenir une prédiction de la « bonne » indemnité. Dans ce cas, cette formule de prédiction serait opaque à l’utilisateur mais censément respectueuse de l’ensemble des décisions ayant servi à la déterminer.
1224 – L’analyse de décisions
Le recours à l’IA peut être également envisagé non pas lors du processus menant à chaque décision judiciaire mais pour analyser a posteriori l’ensemble de ces décisions. L’analyse a posteriori des décisions est un travail indispensable si l’on veut pouvoir s’assurer de leur cohérence, des éventuelles évolutions des conceptions judiciaires qu’elles révèlent, et, par un travail de recherche plus avancé, des biais qu’elles recèlent. On pourrait ainsi s’intéresser à l’analyse des jugements rendus en matière de contentieux de crédits à la consommation par les tribunaux de différents départements ou régions.
De telles analyses peuvent se fonder sur des critères choisis directement par l’analyste qui décidera de croiser le montant du crédit contracté et la région pour étudier d’éventuelles différences de traitement géographique, ou encore les caractéristiques socioéconomiques des personnes ayant commis la même infraction au regard des peines prononcées. Ces analyses reposent entièrement sur l’expertise et le jugement de l’opérateur qui conserve l’initiative d’effectuer telle comparaison plutôt que telle autre. Les critères de l’analyse restent alors complètement explicites. Mais on peut aussi prétendre mener une telle analyse de façon « automatique » en confiant à un algorithme la tâche de constituer une typologie de décisions et/ou de tribunaux. Comme dans le cas de la prédiction, la règle de répartition des données dans les différentes catégories sera opaque, au sens où elle n’aura pas été conçue par l’utilisateur.
13 - Le choix des méthodes
Les exemples précédents montrent quelques tâches juridiques qui pourraient être confiées à des algorithmes afin qu’elles soient effectuées plus « automatiquement ». L’objectif est de tenter de décrire comment de tels algorithmes peuvent être conçus et, surtout, quels sont les choix arbitraires ou subjectifs qui les sous-tendent nécessairement. Le caractère apparemment automatique17 du fonctionnement de ces systèmes repose en fait sur une série de décisions parfaitement humaines, qu’il importe par conséquent de maîtriser.
131 - Un parti pris empirique
La détermination d’une liste de cas de divorce similaires à une affaire donnée ou l’évaluation d’une indemnité de licenciement sont des tâches historiquement confiées à des humains qu’il s’agirait de déléguer, au moins partiellement, à des algorithmes. Ceux-ci auront donc pour objectif d’accomplir une tâche de manière à produire un résultat comparable à celui que produirait un humain.
Il existe typiquement deux façons d’aborder un tel problème. La première, qu’on peut dire mécaniste, consiste à encoder (ou modéliser) le processus intellectuel de l’humain qui aurait à accomplir cette tâche. La seconde, qu’on peut dire empirique, vise à produire des résultats similaires à ceux fournis par un humain sans chercher à reconstituer sa démarche.
Les algorithmes les plus en vue depuis plusieurs années en IA adoptent résolument un parti pris empirique : il ne s’agit pas de copier le raisonnement (par exemple juridique) d’un humain mais seulement de mimer ses décisions. Ce parti pris implique que ces algorithmes ne reposent pas sur la modélisation du processus intellectuel d’un humain, mais sur le processus d’apprentissage par lequel la machine détermine « elle-même » ses propres règles de décisions en se fondant sur de nombreux exemples, qui lui tiennent lieu d’expérience et qu’elle tentera de mimer au mieux.
Ce parti pris est résolument pragmatique au sens où, de ce point de vue, seul le résultat compte. S’il s’agit de produire des résultats proches de ceux que produirait un humain, plutôt que d’essayer de reconstituer le raisonnement humain, autant chercher à déterminer une formule mathématique qui minimisera les différences entre des résultats originellement produits par des humains (et enregistrés dans une base de données) et ceux fournis par la machine. Le problème d’apprentissage est ainsi transformé en un problème d’optimisation : étant donné un critère qui mesure la fidélité des prédictions aux observations, l’algorithme d’apprentissage vise directement à optimiser ce critère. La contribution de l’optimisation (qui ressort à la fois des mathématiques et de l’informatique mais emprunte aussi à la physique) aux succès de l’IA est à ce titre déterminante.
On peut observer à ce stade que, de ce point de vue, les approches mécanistes sont battues d’avance par les méthodes empiriques puisque ces dernières visent précisément à optimiser le critère qui doit permettre de comparer leurs performances respectives. Il apparaît ainsi que l’IA tend naturellement à imposer ses critères (en l’occurrence, la proximité maximale avec des décisions déjà rendues) au détriment d’autres, moins mathématisables, comme la nécessité de justifier une décision, comme nous le discuterons (§ 2123).
132 - Les tâches typiques
Parmi les tâches pouvant être confiées à des algorithmes issus de l’IA on distingue souvent les problèmes « non supervisés » des problèmes « supervisés », les premiers ayant typiquement un objectif descriptif quand les seconds ont généralement une visée prédictive.
1321 - L’apprentissage non supervisé
Le terme « non supervisé » désigne les problèmes pour lesquels, lors de la phase d’apprentissage, l’algorithme ne dispose pas d’une information exogène lui permettant d’évaluer la qualité des résultats qu’il produit. C’est le cas de la définition ex nihilo d’une typologie de cas à partir d’une grande base de données réunissant des contentieux de crédit à la consommation ou de la recherche d’affaires de divorce similaires à un cas donné.
Dans ce cas, la typologie finalement exhibée par l’algorithme ne peut évidemment pas être parfaitement intrinsèque au sens où elle serait fondée sur la seule contemplation des données, sans aucune grille d’analyse particulière. Elle repose nécessairement sur une représentation « mathématique » des données (en l’occurrence, des textes) et sur un critère (également mathématique) mesurant la proximité ou la similarité entre deux textes. L’effet de sidération produit par les performances des algorithmes provient en partie du fait qu’il est difficile d’imaginer qu’on puisse mathématiser la comparaison de deux textes. Cela est cependant possible et pour tout dire assez simple : on peut par exemple représenter un texte comme un simple sac de mots (bag of words), oubliant toute structure syntaxique, et mesurer la proximité entre deux textes en comparant simplement la fréquence d’utilisation des différents mots. On recourt alors à un algorithme qui vise à définir une catégorisation « optimale » de textes, c’est-à-dire à déterminer des groupes de textes similaires entre eux, les groupes étant, au contraire, les plus distincts possible les uns des autres. On a pu ainsi classer des articles de presse sur la seule base de leur contenu textuel et constater que la typologie ainsi obtenue correspondait au sujet dont ils relevaient (sport, économie, culture, politique internationale, etc.) alors même que la rubrique du journal dans laquelle ils avaient été publiés n’avait pas été prise en compte pour déterminer cette typologie, ni même la liste de ces rubriques18. Le succès de l’expérience est dû, d’une part, à la disponibilité informatique d’un très grand nombre d’articles de presse et, d’autre part, au fait que les termes utilisés dans les différents champs thématiques sont suffisamment différents pour que l’analyse des seules fréquences de mots permette de les distinguer.
Pour accomplir cette tâche « automatique », il aura fallu choisir, a priori, une représentation de l’information (un texte = un sac de mots), une mesure de similarité (la comparaison des fréquences d’utilisation) et un critère d’optimalité mesurant à quel point les groupes de textes sont bien distincts entre eux (que nous ne détaillons pas ici).
1322 - L’apprentissage supervisé
Les problèmes supervisés sont ceux pour lesquels une validation des prédictions est disponible lors de la phase d’apprentissage. C’est le cas de l’évaluation d’une indemnité de licenciement pour laquelle on disposerait d’une base de données comprenant à la fois la description des affaires et le montant finalement alloué à l’issue de la procédure judiciaire. Il s’agit alors de déterminer une fonction de prédiction qui associera une décision (en l’occurrence, un montant) à un cas, laquelle fonction est censée mimer, au mieux, les décisions enregistrées dans la base de données.
Là encore, le processus d’apprentissage repose sur une représentation des cas (par exemple par mots-clés ou comme sac de mots) mais aussi sur le choix d’une forme pour la fonction de prédiction et sur un critère qui mesure la proximité entre la prédiction fournie et la réponse vraie. Il existe pléthore de fonctions de prédiction aux noms obscurs (machine à vecteurs supports), évocateurs (réseaux de neurones), ou poétiques (forêts aléatoires)19. La qualité de prédiction repose grandement sur la flexibilité de cette fonction, c’est-à-dire sur sa capacité à rendre compte du lien existant entre la description du cas et la décision sans trop préjuger de sa forme. La contrepartie de cette flexibilité (qui contribue grandement aux performances de ces méthodes) est le caractère très opaque des formules de prédictions qui en résultent et dont il est en général vain d’essayer d’avoir une compréhension intuitive. Ainsi, un réseau de neurones profond peut mettre en jeu plusieurs dizaines de milliers de coefficients dont la combinaison fournit la prédiction (la détermination de ces coefficients est précisément l’objectif de l’algorithme d’apprentissage).
L’apprentissage supervisé peut formuler une prédiction non pas sous forme d’une valeur ponctuelle (par exemple, un montant) mais sous forme d’une distribution de valeurs (intervalle ou même de distribution de probabilités). Nous n’entrons pas ici dans les spécificités des algorithmes fournissant ce type de réponse dans la mesure où ils sont, le plus souvent, également peu interprétables.
1323 - Des situations hybrides
Il existe évidemment de nombreuses tâches de nature hybride, entre supervisée et non supervisée. Un juge spécialisé dans les affaires de divorce pourrait ainsi recourir à un algorithme non supervisé pour extraire automatiquement d’une base de données une liste d’affaires similaires à celle qu’il doit traiter et, de plus, interagir avec l’algorithme en validant ou non, au cas par cas, les éléments de cette liste. Un algorithme d’apprentissage supervisé peut alors entrer en jeu pour réviser les critères ayant permis de déterminer la typologie initiale en fonction des validations et invalidations apportées par l’utilisateur. Cette interaction avec l’utilisateur rend l’apprentissage « supervisé » dans le sens où il bénéficie d’une information supplémentaire. L’algorithme d’apprentissage vise alors à réviser la formule de classification afin de maximiser le taux de validation par le juge, qui constitue un nouveau critère d’optimalité.
La procédure qui résulte d’un tel apprentissage reste opaque dans la mesure où la formule permettant d’établir la liste des affaires pertinentes n’est pas aisément interprétable mais tend progressivement à mimer les critères de choix du juge qui l’alimente.