Accueil
Le quotidien du droit en ligne
-A+A
Le droit en débats

Droit et intelligence artificielle

Par Thomas Cassuto le 14 Mars 2018

L’informatique et les techniques de communication sont au cœur de la mise en œuvre du droit. Récemment, l’ouverture des bases de données, l’appropriation du big data favorisant l’apprentissage profond et plus généralement le développement de l’intelligence artificielle conduisent, dans le domaine du droit, à l’émergence de nouvelles applications telles que la justice prédictive1. Après quelques évolutions, l’intelligence artificielle se définit actuellement de manière consensuelle comme « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence »2.

L’ensemble de ces innovations, qui alimente l’idée d’une humanité augmentée, ouvre de nouvelles perspectives pour les professionnels du droit tant dans le domaine de la rédaction des actes, y compris pour l’exercice de la défense, que dans l’aide à la décision. Nous voyons ainsi apparaître des outils professionnels qui bouleversent la notion de travail dans une activité considérée comme étant par principe humaine et à haute valeur ajoutée.

Ainsi, nous sommes témoins d’évolutions inéluctables qui interrogent sur la place de l’homme confronté à l’intégration de l’intelligence artificielle et qui inquiètent. Ces évolutions appellent des clarifications propres à la construction du droit mais également pour permettre aux droits d’encadrer de manière adéquate l’intégration de l’intelligence artificielle dans les activités humaines.

L’intelligence artificielle, une nouvelle révolution, source d’inquiétudes…

Le vocable révolution est désormais galvaudé par l’accélération des progrès observés à l’échelle d’une génération. Nous observons toutefois que des systèmes piloté par l’intelligence artificielle, désormais opérationnel, vont progressivement remplacer l’homme dans certaines tâches.

Une révolution qui en est à ses débuts…

Les évolutions technologiques de ces dernières années ont été le moteur de transformations qui se sont amplifiées et accélérées par le fait même que ces transformations se sont soutenues les unes les autres3.

Le développement de l’intelligence artificielle repose sur la conjonction de la puissance de calcul, l’accès à des bases de données toujours plus vastes et les moyens de communication permettant les échanges de ces données et leur traitement en réseau. Les nouvelles générations de processeurs, les réseaux neuronaux, l’intégration de la physique quantique ou encore les structures biologiques associées à l’électronique qui émergent peuvent se nourrir de bases de données gigantesques. Celles-ci sont alimentées notamment par les objets connectés dont le nombre augmente selon une courbe exponentielle et qui collecte un nombre considérable de données avec le consentement plus ou moins tacite de leurs utilisateurs4. Ces évolutions permettent déjà une analyse fine des comportements humains et tendent à prédire ou à suggérer leurs actes. Ces évolutions permettent de transformer le traitement des données en opérant un rapprochement avec le système cognitif humain.

En outre, les algorithmes vont poursuivre leur processus de sophistication sous l’effet conjugué de leur propre fonctionnement de type machine learning et deep learning, et par la capacité de l’homme à faire évoluer leur mode de conception, le niveau de modélisation notamment de la réalité humaine et contextuelle (environnement, économie, connaissances scientifiques, etc.), ainsi que dans leur capacité à évoluer.

Cette prédictibilité et cette analyse constamment affinées des activités humaines vont nécessairement impacter les rapports entre les individus notamment dans le domaine du droit. Avec cette particularité qu’à la différence de la robotisation pure qui permet de programmer un résultat, l’intelligence artificielle autonomise et singularise les résultats qu’elle élabore. Ainsi, la mise en œuvre de l’intelligence artificielle nous projette dans un avenir imprévisible, non pas du fait de l’homme mais de la machine.

Dans un tel environnement, l’intelligence artificielle deviendra elle-même indispensable pour analyser les différents aspects de ces rapports, notamment d’un point de vue juridique.

Ainsi, ce sont de nouveaux rapports humains qui voient le jour entre lesquels l’intelligence artificielle vient tantôt arbitrer tantôt se substituer à la décision humaine. Tel est le cas notamment dans l’automatisation des instruments, que ce soit dans le domaine des transports, de l’énergie, de la santé de la sécurité, de la défense5 et bien sûr du droit. La notion même d’interfaces homme-machine évolue pour remplacer les activités humaines non par une automatisation mais par une analyse décisionnelle découlant d’algorithmes.

… et qui inquiète

En moins de deux ans, l’intelligence artificielle est entrée dans les cabinets d’avocats. Elle suscite autant intérêt qu’inquiétudes de la part des professionnels. Ainsi, chez certains avocats, on observe la crainte de voir une partie plus ou moins importante de leur activité disparaître. Cette crainte se double d’une augmentation des charges que constituerait l’acquisition d’outils exploitant l’intelligence artificielle. Pour leur part, certains magistrats restent circonspects sur la pertinence et l’utilité de ces outils dans l’activité propre d’élaboration et de formalisation de la décision6.

L’avènement de l’intelligence artificielle dans un certain nombre de cabinets d’avocats, y compris en France, démontre le caractère inéluctable de cette évolution. Pourtant, il s’agit d’en mesurer la portée et les limites et ce, alors même que le potentiel de l’intelligence artificielle est difficilement sondable.

Actuellement, l’intelligence artificielle demeure un outil d’assistance. Il ne peut remplacer les capacités d’écoute, d’empathie et de conseil. Le développement de chatbots juridiques ne change pas encore la donne. S’agissant plus particulièrement du conseil, cette fonction centrale dans le rôle de l’avocat implique une responsabilité qui lui est propre et personnelle. Dans ses missions, l’avocat doit faire preuve d’imagination et d’une capacité de discernement que ce soit dans la confrontation et le contentieux que dans la déconflixion par la transaction et la médiation. À cette occasion, si le professionnel peut s’appuyer sur des outils statistiques, voire sur l’intelligence artificielle appliquée à de l’analyse comportementale7, il n’en demeure pas moins que c’est dans le rapport humain, le colloque singulier, que l’intervention de l’avocat conserve sa pertinence et sa légitimité.

Il en résulte que l’avocat, dans l’essence de sa mission, n’est pas exposé à être évincé par l’intelligence artificielle. En revanche, dans l’accomplissement de sa mission, il devra se confronter et s’adapter à une évolution des méthodes de travail, de la gestion des connaissances et de l’anticipation des décisions à venir. En ignorant ou en restant à l’écart de ces évolutions, l’avocat prend le risque d’engager sa responsabilité dans la délivrance d’un conseil ou d’une stratégie de défense faute pour lui d’avoir recherché une évaluation sur la prédictibilité, au même titre qu’il exposerait sa responsabilité en ignorant l’existence d’une jurisprudence essentielle de la solution d’un litige.

Pour leur part, les magistrats doivent s’approprier ces outils mais d’une manière différente. Au service du juge, l’intelligence artificielle ne doit pas fonctionner comme un outil prédictif de sa propre décision faute de quoi l’effet performatif8 de ces outils serait excessif. En revanche, ces outils peuvent permettre une meilleure lecture du contentieux, une meilleure extraction de la jurisprudence et concourir à l’élaboration d’une décision plus fiable conforme au principe de sécurité juridique sans pour autant remettre en cause la nécessaire adaptation de l’interprétation de la norme du fait de ces évolutions de l’évolution de la société. À cet égard, le revirement de jurisprudence, en particulier dans un système de droit continental, ne doit pas apparaître comme un accident ou une anomalie décisionnelle. Il doit s’inscrire dans le cadre d’une évolution raisonnée et raisonnable, sinon prévisible, du droit.

Il n’est pas étonnant que les expériences réalisées sur des outils de justice prédictive n’aient pas convaincu certains magistrats9. La finalité de la justice prédictive, telle qu’elle est actuellement conçue sous la forme de logiciels mettant en œuvre des algorithmes fonctionnant sur un mode principalement statistique, présente un intérêt pour l’avocat. Elle présente un intérêt bien plus faible pour le juge. En revanche, il appartient à l’institution judiciaire dans son ensemble de rechercher, au travers d’usages propres, la manière de s’approprier l’intelligence artificielle pour rendre l’application du droit plus juste et plus efficace. Cela signifie un investissement de recherche spécifique.

Sur le plan pénal, dès aujourd’hui, il devient nécessaire pour le juge de rechercher, à travers les outils d’intelligence artificielle, les moyens d’exploiter de la meilleure manière possible les éléments pertinents et en particulier les preuves nécessaires à la solution. Cela devient d’autant plus nécessaire que la « scène de crime » contiendra des outils d’intelligence artificielle. Ainsi, l’intelligence artificielle sera indispensable pour lutter contre ses mésusages criminels.

En toute hypothèse, il appartiendrait aux uns et aux autres de se former dès à présent à ces évolutions pour les connaître, les comprendre, et les intégrer dans leur pratique professionnelle. Bien plus encore, il relève de la responsabilité de l’autorité judiciaire dans son ensemble d’engager un dialogue afin de rechercher et de participer à l’élaboration d’outil adaptés et performant. Le potentiel est immense tout autant que le saut culturel.

… qui appelle des besoins spécifiques de régulation

Les développements récents de l’intelligence artificielle et les perspectives qui s’en dégagent invitent le droit à appréhender dès à présent les contours et les limites nécessaires à la régulation de leurs applications. Il est d’ores et déjà nécessaire d’élaborer de nouvelles règles de responsabilité et de réguler les usages de l’intelligence artificielle pour satisfaire au respect de principes fondamentaux.

La responsabilité

À la différence de l’automatisation par l’informatique et la robotisation, l’intelligence artificielle ouvre la voie à l’autonomisation. Or il ne peut être envisagé de décharger la mise en œuvre de l’intelligence artificielle de toute responsabilité au motif que celle-ci est autonome et résulte d’un processus d’apprentissage approfondi, propre et indépendant de la volonté humaine.

La mise en œuvre de l’intelligence artificielle ne doit pas tendre à une dilution de la responsabilité, voire à éluder les principes mêmes de la responsabilité selon les schémas classiques. Elle doit en revanche s’appuyer sur une extension de la responsabilité par son démembrement. Prenons l’exemple des transports automatisés. En présence d’un dommage causé par un système autonome piloté par l’intelligence artificielle, il sera nécessaire de distinguer entre celui qui a créé l’objet, celui qui aura intégré le système d’intelligence artificielle – par exemple un constructeur automobile, un concepteur de drone –, celui qui aura conçu et où mis à jour le système d’intelligence artificielle pilote de l’objet et enfin celui au service duquel l’objet fonctionne – par exemple le propriétaire ou l’utilisateur du véhicule –, outre celle, éventuellement distincte de l’usager qui disposerait d’une faculté de « reprendre la main sur le système ». On entre-aperçoit ici parfaitement les enjeux de la responsabilité susceptible au demeurant de se partager entre chacun de ces acteurs, y compris du fait du défaut de mise à jour ou de correction des systèmes mis en place.

Le Parlement européen a adopté le 27 janvier 2017 le rapport Delvaux qui identifie un certain nombre de défis à relever et qui formule diverses recommandations à cet égard10. Dans son prolongement, il a publié le 8 décembre 2017 les conclusions et résultats de la consultation publique sur l’avenir de la robotique et de l’intelligence artificielle. La prise de conscience est réelle. Il y a toutefois urgence à accélérer les travaux dans la mesure où les usages ne cessent de se développer, parfois de manière quelque peu désordonnée.

Transposées aux activités juridiques, les questions sont de même nature. Il convient de distinguer la responsabilité du concepteur d’un système expert, les programmeurs du pilote d’intelligence artificielle et celle de l’utilisateur final tel que l’avocat qui se fonde en tout ou partie sur le résultat produit par le système autonome pour délivrer un conseil ou engager un contentieux.

La difficulté présente s’illustre parfaitement avec l’obligation qui impose au demandeur en responsabilité d’établir la preuve du défaut du bien défectueux conformément à l’article 245-8 du code civil. Il appartiendra à chacun de s’assurer qu’il dispose de la capacité de garder le contrôle de systèmes fonctionnant sur l’apprentissage profond alors même que l’élaboration de la solution s’émancipe de la volonté humaine.

Ainsi, s’agissant plus particulièrement du programmeur, l’enjeu réside dans la nécessité ou non de maintenir un mécanisme de responsabilité résultant de la défaillance d’un système qui, ayant développé sa propre autonomie, apporte une réponse erronée ou indésirable susceptible d’engager la responsabilité de celui qui développe et met en œuvre le système. Ici réside l’un des principaux défis éthiques : en droit, le concepteur d’un algorithme qui dispose intrinsèquement de la capacité d’évoluer et de développer ses propres algorithmes est-il susceptible d’engager une responsabilité de type produit défectueux alors même que le système a été conçu pour évoluer par lui-même et pour son propre compte, élément essentiel de sa plus-value.

Dans son rapport du 15 décembre 2017, la Commission nationale de l’informatique et des libertés (CNIL) évoque déjà des applications dans la sphère de la justice11. Cette démarche démontre un peu plus que la justice ne pourra se passer de l’intelligence artificielle autant qu’elle sera appelée à en contrôler les usages.

Le contrôle des usages

Pour la première fois sans doute, une activité immatérielle devient indépendante de l’homme. Il ne s’agit plus de la mise en œuvre d’un programme par la volonté et sous le contrôle de l’homme mais du développement d’une forme de pensée qui, bien que conçue par l’homme, tend, dans une certaine mesure, à s’en émanciper.

Certaines limites juridiques existent notamment dans le domaine du droit avec l’interdiction formelle qu’une décision de justice soit rendue par un système autonome12. Néanmoins, il a été mis en évidence que ce principe était déjà remis en question et pas seulement aux États-Unis. Il y a naturellement le renvoi à la mise en œuvre du système qui implique qu’il s’inscrive dans une activité régulée, c’est-à-dire à une notion d’ordre public.

À la lumière de ces développements, d’un point de vue éthique, se pose la question de la limite au recours à un système d’intelligence artificielle dans une production de nature juridique, que ce soit la rédaction d’actes, une consultation ou encore d’une décision. Ceci d’autant plus que les usages de l’intelligence artificielle sont duaux et peuvent aisément être détournés.

Cette démarche doit conduire à définir les principes fondamentaux susceptibles d’encadrer la mise en œuvre de l’intelligence artificielle. En premier lieu figurent ceux de la responsabilité, de la transparence et du droit au respect de la vie privée. À cet égard, la mise en œuvre du Règlement européen sur la protection des données personnelles sera un élément essentiel13. Sa mise en œuvre dans les vingt-huit États membres va contraindre les grandes forces économiques du big data afin de ne pas interférer de manière excessive dans la vie privée des citoyens, y compris à leur insu. Pour sa part, la CNIL met en avant les principes de loyauté et de vigilance14.

Surtout, le défi majeur de l’intelligence artificielle réside dans la validation de sa substitution à l’intervention humaine. Cette question implique nécessairement l’élaboration d’un processus de contrôle fondé sur la certification des différentes composantes des systèmes pilotés par l’intelligence artificielle à savoir la conception d’un instrument piloté par intelligence artificielle et le cas échéant impliquant l’interaction entre plusieurs outils autonomes, celle de l’algorithme notamment, dans ses capacités d’adaptation et d’évolution ainsi que dans sa mise à jour ou sa modernisation, et enfin l’usage plus ou moins dirigé qui peut en être fait. Cette question n’est pas fondamentalement éloignée de la question de la protection de la vie privée. Ainsi, on estime qu’un véhicule autonome circulant pendant une heure et demie produit 4 000 Go de données. En cas d’accident, il sera alors nécessaire de pouvoir les retraiter pour déterminer au mieux les circonstances exactes.

Cette certification, qui inclut l’évaluation des risques, doit rester à la charge du promoteur, de l’intégrateur/concepteur et de l’exploitant de l’instrument, chacun à l’aune de son rôle et comme acteur essentiel de la mise ne œuvre d’un système piloté par intelligence artificielle. La certification doit être le résultat d’une démarche indépendante de ceux-ci. Elle doit s’organiser au sein du secteur privé mais dans le respect de normes établies et sanctionnées par l’État15. Elle doit s’assurer que les résultats ne sont pas déformés au profit d’intérêts économiques et au préjudice des intérêts particuliers.

La certification doit également permettre de déterminer la part propre de l’intervention humaine plus particulièrement au regard de la responsabilité vis-à-vis des tiers. Elle doit ainsi garantir que l’outil mis en œuvre n’est pas porteur d’un vice qui affecterait en l’orientant le processus destiné à atteindre la finalité assignée à l’objet piloté par intelligence artificielle.

Enfin, la certification doit être garante de la protection de la vie privée et notamment de la protection des données personnelles. En effet, si les données personnelles constituent l’or noir de la révolution numérique, elles bénéficient, tout particulièrement en Europe, de règles de protection qui limite leur accès et leur utilisation. Par conséquent, la mise en œuvre de l’intelligence artificielle doit s’accompagner d’une certification que les bases de données sur lesquels l’apprentissage approfondi se développe ne sont pas susceptibles de porter atteinte aux droits des tiers ou à des principes fondamentaux touchant aux libertés individuelles.

En toute hypothèse, le principe de responsabilité implique qu’en cas de dommage, l’imputabilité à une personne physique ou morale puisse être déterminée avec certitude nonobstant le transfert du pilotage et de la décision à l’intelligence artificielle.

Le défi est ici majeur puisque, par principe, l’intelligence artificielle a vocation à faire évoluer ses propres processus d’élaboration qui nécessitent un contrôle permanent et approfondi au point que l’on peut affirmer que seule l’intelligence artificielle sera susceptible de contrôler matériellement l’intelligence artificielle, l’homme pour sa part conservant le principe du contrôle de la mise en œuvre ou non, c’est-à-dire d’appuyer sur le bouton marche/arrêt.

Ainsi, dans le domaine du droit pénal, de nouvelles menaces apparaissent, au premier rang desquelles, l’interférence dans les processus électoraux, mais également l’usurpation d’identité ou encore les menaces physiques engendrées par les drones. Dans ce contexte, l’intelligence artificielle devra nécessairement être utilisée pour lutter contre des phénomènes criminels, y compris dans le cadre de l’usage de la force, et elle ne pourra le faire qu’à partir d’outils transparents et dont il peut être certifié qu’ils respectent les libertés fondamentales. S’il est possible d’assigner à des systèmes d’intelligence artificielle le traitement de certaines des informations, voire des « missions opérationnelles », il n’en demeure pas moins que c’est à l’humain que doit revenir la décision ultime et que celle-ci ne peut intervenir que si l’humain est à même de maîtriser l’outil mis à sa disposition. Plus globalement, il faut anticiper le fait que seule l’intelligence artificielle sera à même de lutter contre les mésusages criminels de l’intelligence artificielle16.

Dans ce contexte extraordinaire de transformation générale des activités humaines par intégration de l’intelligence artificielle, le droit se doit de s’inviter pour établir et garantir un cadre juridique approprié qui ne spolie pas l’humain de son rôle central, et, au premier chef, dans l’exercice de la démocratie lors des débats électoraux. L’exemple des États-Unis est suffisamment édifiant pour démontrer que la menace est réelle et majeure.

Conclusion

Dans le domaine du droit, l’immixtion de l’intelligence artificielle va nécessiter de reconsidérer le contour des activités humaines et leur capacité à exploiter utilement les systèmes autonomes pilotés par intelligence artificielle dont la conception et la mise en œuvre sont respectueuses des libertés fondamentales et sont soumises à des règles de responsabilité adaptées à leurs spécificités. Gageons que les métiers du droit ne disparaîtront pas17 mais que leurs modes d’exercice vont se transformer. Ces évolutions participent de ce que l’on désigne comme l’humanité augmentée.

Il est indispensable que les juristes, à l’occasion d’un dialogue constant avec les chercheurs et les ingénieurs, s’approprient ces technologies afin qu’elles restent asservies à une activité humaine et qu’elles ne prennent pas l’ascendant sur la capacité d’autodétermination. De la sorte, l’humanité augmentée restera… humaine.

 

 

 

 

1.  V. T. Cassuto, La justice à l’épreuve de sa prédictibilité, AJ pénal 2017. 334 .
2.  Encyclopédie Larousse, qui reprend une des définitions communément admises.
3.  V. not. O. Ezratty, qui propose une présentation didactique régulièrement actualisée.
4.  Nous comptons désormais en « yottaoctets » soit 10 puissance 24 octets.
5.  Le rapport du SGDSN, Étude prospective à l’horizon 2030 : impacts des transformations et ruptures technologiques sur notre environnement stratégique et de sécurité, publié en avr. 2017, laisse entrevoir de nouvelles perspectives de neutralisation de l’adversaire.
6.  Réponse parlementaire de la garde des Sceaux (JO Sénat, 28 déc. 2017, p. 4694).
7.  Y compris celle des magistrats.
8.  V. T. Cassuto, art. préc. ; v. égal., A. Garapon, Les enjeux de la justice prédictive, JCP janv. 2017.
9.  Selon X. Ronsin, premier président de la cour d’appel de Rennes : « l’absence de plus-value de ce logiciel qui n’apporte rien au juge […]. La justice dispose déjà d’une base de données extrêmement importante et performante. Ce logiciel qui est sans doute perfectible, ne donne pas de chiffres pertinents », cité par France Inter, 13 oct. 2017.
10.  Rapport contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique 2015/2103(INL), 27 janv. 2017.
11.  Comment permettre à l’homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, 15 déc. 2017.
12.  V. T. Cassuto, art. préc.
13.  Règl. (UE) 2016/679, 27 avr. 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données. La transposition de ce règlement est en cours en vue notamment d’amender la loi du 10 janvier 1978 dite « Informatique et Libertés ».
14.  Rapport du 15 déc. 2017, préc.
15.  La CNIL propose la mise en place d’une plate-forme nationale qui, compte tenu des développements à venir, ne pourra remplir une mission de contrôle au quotidien.
16.  V. le rapport co-établi par les universités d’Oxford et de Cambridge, The Malicious Use of Artificial Intelligence : Forecastng, Prevention, ans Mitigation, févr. 2018.
17.  Sauf à remplacer un juriste par un ingénieur.