Accueil
Le quotidien du droit en ligne
-A+A
Article

Justice et intelligence artificielle, préparer demain - épisode II

Regards croisés d’une juriste et d’un mathématicien.

Ce dossier, proposé par Laurence Pécaut-Rivolier, conseillère à la Cour de cassation, et Stéphane Robin, directeur de recherche à l’INRA, a été séparé en trois épisodes.

Lien vers le premier épisode, publié le 14 avril.

2 - Le recours à l’IA dans la justice, comment ?

21 - Les obstacles du développement de l’IA : problématiques génériques de l’apprentissage rapportées à la justice

211 - Les obstacles inhérents à l’outil IA

2111 - Le choix de la base d’apprentissage

La plupart des algorithmes d’apprentissage se fondent sur des bases données dans lesquelles sont enregistrées un grand nombre de réponses apportées par des humains à des cas spécifiques (§ 1221). De ce fait, la formule de prédiction produite par un algorithme est elle-même fonction de cette base de données, dite d’apprentissage.

La dépendance de la formule de prédiction vis-à-vis de la base d’apprentissage est évidemment bien connue des spécialistes du domaine qui ont identifié les risques afférant depuis fort longtemps. L’un des plus connus est le risque de sur-apprentissage, lié au caractère « optimal » de la fonction de prédiction et dont il s’agit d’éviter d’avoir une vision trop optimiste de ses capacités prédictives. Il est en effet assez facile d’établir une fonction qui ne ferait aucune erreur sur l’ensemble des cas constituant la base de données : il suffit pour cela d’apprendre « par cœur » l’ensemble de ces cas. Une telle formule n’aurait cependant aucune valeur de généralité et produirait assurément une mauvaise prédiction pour un cas ne faisant pas partie de la base. Il s’agit en fait de s’assurer que la formule de prédiction offre une faible erreur pour un cas qui n’a pas servi à l’établir. Une pratique courante, appelée « validation croisée », consiste à séparer la base de données en deux, les cas de la première partie servant à établir la formule de prédiction et les cas de la seconde servant à en évaluer les performances sur de nouveaux cas. Cette approche permet ainsi de contrôler la capacité de « généralisation » de la formule de prédiction.

Ces précautions étant prises, il n’en demeure pas moins que la règle ainsi apprise dépend de la base de données initiale qui sert, de fait, de référence puisqu’elle aura servi à établir la vérité des décisions. Le projet open data ne résout pas ce problème mais permet à tout le moins de définir une base de données commune, mise à disposition du public (et des opérateurs privés), qui peut être une référence admissible puisqu’elle réunit l’ensemble de l’information disponible à un instant donné.

2112 - Le problème de l’évolution des algorithmes

L’une des spécificités des « prédicteurs » fournis par l’IA est qu’ils fonctionnent comme des boîtes noires, c’est-à-dire que la complexité de la formule de prédiction empêche d’anticiper une prédiction au simple vu de cette formule. Son usage dans le cadre judiciaire met alors le justiciable dans une position d’information asymétrique, dans l’incapacité de connaître, en fait, la règle qui lui est appliquée. La confiance dans l’objectivité de la machine suffit-elle à justifier l’ignorance dans laquelle le destinataire de la décision peut se trouver ? Une solution à ce problème pourrait consister à rendre public le prédicteur pour que chaque acteur de justice puisse au moins acquérir une connaissance empirique des prédictions qu’il fournirait.

Cette option se heurte cependant à la possibilité de prendre en compte au fur et à mesure la jurisprudence et les décisions de justice récentes. Il est techniquement tout à fait possible de réviser séquentiellement une formule apprise sur une première base de données à mesure que de nouvelles décisions ou avis sont disponibles. Mais le comportement de l’algorithme en est évidemment modifié, rendant alors difficile d’en acquérir en temps réel une compréhension empirique.

212 - Les contraintes liées à la spécificité du travail judiciaire

2121 - Une nécessaire adaptation de la décision judiciaire : l’appréciation des circonstances

Peut-on s’abstraire, au profit du seul critère de prévisibilité, de la nécessaire adaptation des décisions judiciaires en fonction des caractéristiques spécifiques à la situation examinée ?

C’est un choix, plus politique que juridique, de décider que, pour certains litiges, il vaut mieux une solution prévisible et certaine qu’une solution adaptable et donc imprévisible. La question se pose régulièrement en matière de pension alimentaire, indemnités de licenciement, indemnités de dommages corporels, infractions (au code de la route par exemple). En tout état de cause, elle ne peut pas appeler une réponse unique. Il y a des cas dans lesquels l’appréciation par le juge de la situation est un impératif. On n’imaginerait pas un système pénal qui ne laisserait pas une marge de décision au juge quant à la peine à appliquer ou un système informatique codifiant de manière automatique les conditions de résidence d’un enfant mineur.

Dès lors, la machine ne peut pas prendre la place de l’humain, de manière générale, dans le domaine de la justice. Pour qu’il y ait justice et non application mécanique d’une règle aux conséquences parfois inadaptées, voire iniques, il faut que, dans un certain nombre de contentieux, un juge intervienne, avec le pouvoir de moduler la décision − donc de s’abstraire de l’automaticité que crée l’algorithme.

2122 - À la recherche de la loyauté

Le mot loyauté revient fréquemment tant dans les propos des juristes que dans ceux des spécialistes des questions d’IA, comme concept de vigilance pour les acteurs. Il revêt cependant des significations fort différentes.

La question de loyauté, entendue au sens de fairness dans la mise en œuvre de l’IA, a également son impact (§ 222). La loyauté dont il est question ici c’est celle qui, pour les juristes, constitue un principe transversal à toute action dans la mise en œuvre d’un droit. « L’attitude loyale renvoie à l’obéissance aux lois de la probité et de l’honneur. »20 Souvent liée à la bonne foi, notion chère au droit civil, la loyauté est ce qui permet de conserver les règles juridiques dans une mise en œuvre collectivement considérée comme conforme à une vision sociale normale. Fréquemment évoquée dans les rapports contractuels de droit civil, dans le déroulement des procès, en droit du travail, elle trouve un écho particulier en matière d’IA. D’une part, en amont de la mise en œuvre de l’outil, elle oblige à s’interroger sur le sens de la règle avant d’en décliner les conséquences. D’autre part, en aval, elle autorise à sortir de l’outil chaque fois que la solution apportée contrarie la notion de loyauté, c’est-à-dire aboutit à une application détournée de la règle. Par rapport à l’IA, cela revient à exercer un contrôle externe de la loyauté, par opposition à la fairness qui vise à établir un contrôle interne.

Dans ce cadre, de même que le juge doit pouvoir adapter sa décision au cas spécifique qui lui est soumis, il doit également pouvoir adapter les règles applicables en fonction de certaines situations, afin que la règle ne se trouve pas détournée de fait par une application mécanique. Ainsi, le juge peut-il redresser des biais factuels, liés à une situation de contrainte, ou des biais sociaux, liés à une situation de discrimination par exemple.

2123 - Le respect du syllogisme judiciaire

Le principal obstacle à un usage généralisé de l’IA en matière de justice est clairement son incapacité à donner sens aux décisions judiciaires.

La particularité de l’intervention du juge réside en effet dans le mode de raisonnement qu’il met en œuvre. Ce raisonnement, connu sous le nom de syllogisme judiciaire, est la clé de voûte du fonctionnement de la justice tant civile que pénale. De manière simplifiée, il suppose trois étapes de réflexion dans chaque situation soumise au juge :

  • examen des faits de l’espèce : c’est la « mineure » ;
     
  • recherche de la règle de droit applicable à ces faits : c’est la « majeure » ;
     
  • application de la règle aux faits : c’est la conclusion du syllogisme.

Le syllogisme est un concept, qui s’exprime par le biais de la motivation. La motivation est ce qui permet au lecteur du jugement de s’assurer de la réalité et du bien-fondé du raisonnement que le juge a suivi pour arrêter sa décision.

Le raisonnement syllogique doit en effet impérativement apparaître dans la décision. La motivation en assure la transparence. Elle est la garantie que la décision rendue est bien directement en lien avec le cas d’espèce et que la qualification juridique qui a été donnée à la situation est correcte. C’est qu’en effet, la légitimité du juge passe par sa capacité à donner aux éléments factuels, parfois complexes, leur inscription dans le système de règles juridiques identifiables, autrement dit à motiver sa décision. C’est ce raisonnement que la Cour de cassation, dans son rôle de juge du droit, contrôle systématiquement, restituant dans son contrôle les trois étapes du raisonnement, en rectifiant le cas échéant. D’où les formules rituelles de la Cour de cassation : « La cour d’appel, qui a constaté tels faits, a pu en déduire que la règle X était applicable, et par conséquent dire que telle sanction ou telle indemnité était due » ou au contraire : « en statuant comme elle l’a fait, alors qu’elle avait constaté tels faits, la cour d’appel, qui aurait dû en déduire que […], a violé les textes susvisés ». Ce qui compte, c’est donc bien l’application de la bonne règle de droit et non le résultat pour lequel, si le juge a correctement effectué le raisonnement syllogique, une souplesse importante est généralement laissée à son appréciation, pour tenir compte des spécificités de l’espèce21.

Ainsi donc, la décision judiciaire tient d’abord au raisonnement qu’elle opère, ensuite à l’adaptabilité des conclusions qui en sont tirées, le cas échéant par la mise en œuvre d’une atténuation des règles via le contrôle de proportionnalité, et seulement de manière accessoire, au résultat final, c’est-à-dire au montant des sommes allouées ou de la peine appliquée. On voit immédiatement les limites d’une application directe des algorithmes dans ces conditions, puisque les phases essentielles du raisonnement ne sont plus apparentes, voire absentes.

Les obligations de motivation apparente et de raisonnement ne sont probablement pas indispensables dans tous les cas. Il est des situations simples pour lesquelles à l’exposé de données objectives (temps de travail dans l’entreprise) peut correspondre une réponse objective précise (durée des congés payés). Ce sont des cas dans lesquels deux ou trois questions simples et récurrentes peuvent permettre d’aboutir sans risque d’erreur à une solution chiffrée.

De tels cas reposant sur un syllogisme simple peuvent d’ailleurs se prêter à une modélisation mécaniste, qui n’est précisément pas celui généralement adopté par l’IA. Le code du travail numérique (§ 3) en fournit une illustration.

Quoi qu’il en soit, il résulte de ces différents constats qu’on ne peut pas penser que l’IA pourrait totalement remplacer le juge dans ses trois fonctions essentielles tenant au raisonnement et la motivation, à l’adaptabilité, et à la loyauté. En revanche, on peut imaginer un système efficace qui permette aux différents acteurs de la justice de disposer d’informations qui les aident, les éclairent et les sécurisent.

Pour cela, un certain nombre de prérequis sont indispensables.

22 - Les prérequis d’un outil d’aide à la décision : synthèse des observations précédentes.

221 - La transparence : démythifier les algorithmes (ouvrir un peu le capot)

Tout algorithme auquel on peut souhaiter confier une tâche repose sur une série de choix en matière de représentation des observations, de mesure de similarité ou encore de critère d’optimalité (§ 13). Si ces choix ne sont pas contrôlés par l’utilisateur mais semblent automatiques, c’est simplement qu’ils sont le fait du codeur qui possède ses propres critères de détermination.

La phase d’apprentissage vise à établir une formule de classification ou de prédiction optimale au sens d’un certain critère. Du point de vue du concepteur d’algorithme ou du codeur, il importe que le problème ainsi posé soit mathématiquement maniable. Le confort mathématique constitue une première règle de choix. Ainsi, s’il s’agit de comparer deux textes à partir de la fréquence d’apparition d’une série de mots en leur sein, il peut sembler naturel de se fonder sur les écarts (positifs ou négatifs) entre ces fréquences. Pour neutraliser le signe positif ou négatif qui importe peu pour vérifier les écarts, on peut utiliser le carré de l’écart, ou sa valeur absolue. La plupart des algorithmes se fondent sur le carré de l’écart, parce qu’il présente certaines propriétés mathématiques plus agréables que la valeur absolue. L’objectif du développeur n’est certainement pas de biaiser dans un sens quelconque la définition de la typologie d’affaires de divorce que son algorithme produira, mais, inévitablement, le choix d’un critère de similarité particulier l’oriente effectivement. Les résultats fournis par l’algorithme seront différents selon qu’il aura eu recours au carré ou à la valeur absolue.

De manière plus critique, le critère mesurant l’ajustement entre une prédiction et la réponse effectivement observée joue un rôle central car il régule, de fait, le poids accordé aux différentes erreurs possibles. Ainsi, dans le cadre d’une prédiction binaire (« responsable » contre « non responsable » ou « non récidive » contre « récidive »), ce critère peut supposer que les deux erreurs (prédire « responsable » dans une situation juridique où le justiciable ne devrait pas l’être ou « non responsable » alors qu’il se trouve dans un cas juridique de responsabilité) sont également dommageables, ou au contraire accorder un poids plus important à la première. Dans le cas de la prédiction du montant d’une indemnité, selon le critère choisi, une sur-prédiction de 10 % de la pension sera, ou non, considérée comme équivalente à une sous-prédiction de 10 %. Comme ce critère détermine aussi l’objectif de l’algorithme d’apprentissage − qui cherche précisément à le minimiser −, il doit se prêter à un processus d’optimisation et, là encore, le confort mathématique préside fréquemment à son choix. Un critère présentant des propriétés souhaitables pour un problème donné pourra être écarté s’il donne lieu à des calculs trop complexes. Des méthodes fournissant des distributions de valeurs plutôt que des valeurs ponctuelles existent. Il va sans dire qu’elles se fondent également sur des mesures d’ajustements et des critères d’optimalité certes plus complexes, mais qui posent des problèmes analogues.

Ainsi donc, la connaissance précise des données choisies pour alimenter la base et le choix de critère de similarité ou d’optimalité constituent des clés essentielles du dispositif. La mise en place de l’IA ne passe pas seulement par la détermination de grandes lignes fixant le résultat à atteindre. Elle nécessite, à toutes les étapes, de prendre un certain nombre d’options qui doivent être raisonnées dans un objectif juridique. Faute de quoi, ces options, en apparence bénignes et sans intérêt, décideront, de fait, des orientations des réponses et des prédictions, sans que quiconque en ait eu conscience ou les ait pensés. Il est donc de la responsabilité des juristes de veiller à ce que chaque action opérationnelle soit interrogée dans ses conséquences.

222 - Veiller à la fairness

L’approche mimétique adoptée par la plupart des algorithmes d’apprentissages fait que, par construction, les formules de prédictions qu’ils produisent tendent à entériner les biais présents dans les bases de données qui les ont initialement alimentées. D’un point de vue statistique, le biais désigne une erreur systématique par rapport à un objectif de prédiction. De ce point de vue, les formules de prédictions souffrent a priori de biais faibles dans la mesure où les prédictions fournies sont en moyenne très proches de l’objectif.

Le biais dont il est question ici est un biais de fairness (nous employons ici à dessein le mot anglais pour le distinguer de la loyauté telle qu’elle a été définie [§ 2122]) et désigne un écart systématique entre les décisions enregistrées dans la base de données et des décisions « justes » (fair). On a ainsi constaté des biais systématiques dans les décisions de justice en fonction de l’origine sociale ou ethnique des justiciables, que des algorithmes « entraînés » sur la base de ces décisions reproduisaient fidèlement22. Il s’agit là de biais systématiques (qu’on peut donc espérer corriger par une procédure statistique), contrairement à la loyauté juridique qui se réfère, par nature, à un cas unique.

De nombreux travaux de recherche actuels dans le domaine de l’apprentissage portent sur la possibilité de détecter de tels biais et de les corriger automatiquement23. Là encore, le caractère automatique est forcément illusoire. Notamment, la détection ou la correction d’un tel biais repose nécessairement sur une définition mathématique de la fairness24. Il s’agit par exemple de s’assurer que, si les dossiers de deux justiciables diffèrent uniquement par leur origine ethnique, la réponse (i.e. la peine ou le montant de l’indemnité) fournie par l’algorithme sera effectivement la même.

La notion de fairness utilisée en IA peut ainsi compléter la notion juridique de loyauté, la première visant à corriger de tels biais au sein même de l’algorithme (reste à décider qui aurait la responsabilité de cette intervention) alors que la seconde en autorise une correction externe par l’auteur même de la décision.

223 - La nécessité d’une approche pluridisciplinaire

Évident mais essentiel, les développements ci-dessus en font la preuve, le troisième prérequis est de mettre en place pour la conception de l’outil une équipe pluridisciplinaire constituée à la fois de juristes et des spécialistes de l’apprentissage (que nous appellerons ici de manière générique informaticiens, même s’ils sont aussi statisticiens et mathématiciens), pendant une durée suffisamment longue pour que les échanges au sein de l’équipe permettent à chacun de cerner et de comprendre ce que fait l’autre. Concrètement, il ne suffit pas que les juristes fassent part aux informaticiens de leurs souhaits et que ces derniers les mettent en œuvre par des méthodes adaptées. Il s’agit de travailler ensemble à l’élaboration de l’outil pour que les juristes sachent exactement les instructions qui ont été données et que les informaticiens puissent, dans les moindres détails, faire part des choix auxquels ils sont confrontés et auxquels ils peuvent avoir une tendance à répondre par défaut.

La difficulté, en termes de moyens, est qu’une telle équipe doit pouvoir se maintenir dans la durée, en raison des multiples mises à jour que l’outil requiert. À défaut, progressivement, la mémoire des informations qui ont permis de construire la base de données au démarrage risque de se perdre, et l’outil d’échapper aux concepteurs.

On le voit, l’IA doit, pour représenter une aide efficace en matière de justice, être soumise à des contraintes permanentes, tout au long de son processus de création et de mise en œuvre.

Sous cette condition, son apport peut être considérable. On peut à cet égard évoquer l’exemple parlant et efficace du code du travail numérique, dont le fonctionnement est opérationnel depuis le 1er janvier 2020.

 

 

Notes

20. W. Cherbonnier et al., La loyauté : de la règle morale au principe juridique, Rev. jur. Ouest 2012. 327.

21. V. sur ce point l’analyse de H. Motulsky sur le rôle du juge : la distinction du fait et du droit, mise en œuvre par le syllogisme judiciaire, est la pierre angulaire de l’intervention du juge dont la mission est d’identifier la norme juridique applicable, sans s’en tenir aux fondements juridiques ou aux qualifications proposées par les parties. « Le juge peut et doit rectifier les erreurs de droit commises par les parties, à la seule condition de ne point modifier l’objet ni la cause de la demande, autrement dit de ne pas introduire dans le débat de nouveaux éléments de fait », H. Motulsky, Le rôle respectif du juge et des parties dans l’allégation des faits, rapport au IVe Congrès international de droit comparé, 1954, in Écrits. Études et notes de procédure civile, 2e éd., Dalloz, coll. « Bibliothèque », 2010, p. 49 s.

22. J. Dressel et H. Farid, The accuracy, fairness, and limits of predicting recidivism, Science advances, 2018, 4(1), eaao5580 ; P. Besse, C. Castets-Renard et A. Garivier, Loyauté des décisions algorithmiques. Contribution au débat public initié par la CNIL, Éthique et numérique, 2017 ; P. Besse, C. Castets-Renard, A. Garivier et J.M. Loubes, L’IA du quotidien peut-elle être éthique ?, 2018.

23. S. Barocas, M. Hardt et A. Narayanan, Fairness in machine learning, NIPS Tutorial, 2017.

24. P. Gajane et M. Pechenizkiy, On formalizing fairness in prediction with machine learning, 2017.