Accueil
Le quotidien du droit en ligne
Envoyer à un ami-A+A
Article

Union européenne et intelligence artificielle : état des propositions

La commission du marché intérieur et de la protection des consommateurs du Parlement européen vient d’adopter son projet de résolution relatif à l’intelligence artificielle. En parallèle a été dévoilé le projet de livre blanc sur l’intelligence artificielle par la Commission ; l’occasion de revenir sur l’état des débats actuels à l’échelle de l’Union.

par Cécile Crichtonle 5 février 2020

Le 23 janvier dernier, le Parlement européen, réuni en commission, a adopté par trente-neuf voix pour, aucune voix contre et quatre abstentions son projet de résolution relatif aux procédés de prise de décision automatisée : protection du consommateur et libre circulation des biens et des services. La résolution fera prochainement l’objet d’un vote en plénière avant d’être transmise aux États membres et à la Commission. Concomitamment, cette dernière élabore son livre blanc sur l’intelligence artificielle dont une première mouture a été rendue publique le 17 janvier 2020 par le site web Euractiv.com (v. S. Stolton, LEAK : Commission considers facial recognition ban in AI “white paper”, euractiv.com, 17 janv. 2020), tandis qu’une réunion au sein de la Commission est prévue le 19 février 2020 aux fins de développer une approche européenne sur ce sujet. Manifestations de l’état des débats à l’échelle de l’Union, ces projets permettent d’entrevoir les éventuelles propositions de régulation qui pourraient être soumises aux États membres.

Entre la prise de décision automatisée et l’intelligence artificielle

Avant même toute lecture du projet, il est intéressant de relever que la résolution du Parlement porte sur la « prise de décision automatisée » (automated decision-making processes), non sur « l’intelligence artificielle », là où le communiqué de presse y afférent évoque les « technologies de l’intelligence artificielle (IA) et de la prise de décision automatisée (ADM) ». Qu’il figure dans son acception anglaise ou française, le terme automated decision-making renvoie à l’article 22 du règlement général sur la protection des données (UE) 2016/679 du 27 avril 2016 (RGPD), ce qui soulève deux difficultés.

D’une part, ce même article 22 porte plus généralement sur les algorithmes (J. Rochefeld, L’encadrement des décisions prises par algorithme, Dalloz IP/IT 2018. 474  ; T. Douville, Parcoursup à l’épreuve de la transparence des algorithmes, Dalloz IP/IT 2019. 390  ; A. Sée, La régulation des algorithmes : un nouveau modèle de globalisation ?, RFDA 2019. 830 ). Or les algorithmes, considérés comme « l’étude de la résolution de problèmes par la mise en œuvre de suites d’opérations élémentaires selon un processus défini aboutissant à une solution » (arr. 27 juin 1989 relatif à l’enrichissement du vocabulaire de l’informatique, annexe I), recouvrent un spectre de technologies plus large que l’intelligence artificielle, à l’instar des systèmes experts.

D’autre part, si le projet de résolution porte sur la seule prise de décision automatisée, elle exclurait en toute hypothèse les cas majoritaires d’aide à la décision, dans lesquels un humain, assisté dans son raisonnement par une intelligence artificielle, décide in fine seul. Effectivement, au sens de l’article 22 du RGPD, la prise de décision automatisée est une « décision fondée exclusivement sur un traitement automatisé » qui, de plus, doit produire à l’égard de la personne objet du traitement des « effets juridiques la concernant ou l’affectant de manière significative de façon similaire ». En utilisant la même acception que celle du RGPD, il est malaisé de déterminer si le Parlement souhaite restreindre le champ d’application de son projet aux seules prises de décisions automatisées, ou s’en affranchir en visant d’autres technologies.

La lecture du projet de résolution en lui-même rajoute d’autant plus de confusions en évoquant dans son premier paragraphe à la fois le champ de l’intelligence artificielle, de l’apprentissage automatique, des systèmes fondés sur des algorithmes complexes et des prises de décisions automatisées (pt A), tandis que le contenu qui suit cite le plus souvent de simples prises de décision automatisées et, à de rares occasions, l’intelligence artificielle et la prise de décision automatisée (pts C, D, 4 et 7), démontrant que les deux termes n’auraient pas la même signification. La précédente résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique (2018/2088 [INI], v. Dalloz actualité, 20 févr. 2019, obs. T. de Ravel d’Esclapon) n’éclaire pas davantage sur la signification à retenir en exposant que la notion d’intelligence artificielle « englobe un large éventail de produits et d’applications, à commencer par l’automatisation, les algorithmes, l’intelligence artificielle étroite et l’intelligence artificielle générale » (pt 116). Les algorithmes recouvrant un domaine plus large que l’intelligence artificielle, qui elle-même recouvre un domaine plus large que l’apprentissage automatique, une délimitation claire du projet de résolution, à tout le moins une définition des termes utilisés, aurait été souhaitable.

Concernant le projet de livre blanc de la Commission européenne, celui-ci évite cet écueil en reconnaissant un manque de consensus international sur la définition de l’intelligence artificielle. Il reprend ainsi les termes proposés par le groupe d’experts indépendants de haut niveau sur l’intelligence artificielle qui considère les systèmes d’intelligence artificielle comme « des systèmes logiciels (et éventuellement matériels) conçus par des êtres humains et qui, ayant reçu un objectif complexe, agissent dans le monde réel ou numérique en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations, dérivées de ces données et en décidant de la (des) meilleure(s) action(s) à prendre pour atteindre l’objectif donné » (Lignes directrices en matière d’éthique pour une IA digne de confiance, 8 avr. 2019, § 143).

Cette définition a l’avantage d’englober en une conception unitaire :

• une indifférence de forme, incluant les choses corporelles : robots, hardware, « agissant dans un monde réel » et les choses incorporelles : bots, logiciels, « agissant dans un monde numérique » (v. déjà Communication de la Commission, L’intelligence artificielle pour l’Europe, 24 avr. 2018, COM (2018) 237 final, p. 1) ;

• une finalité : « ayant reçu un objectif complexe » ;

• avec des moyens déterminés : « en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations, dérivées de ces données » ;

• des moyens qui reposent sur une logique probabiliste : « en décidant de la (des) meilleure(s) action(s) à prendre pour atteindre l’objectif donné ».

Plus encore, la Commission propose de qualifier l’intelligence artificielle de logiciel au sens de la directive 2009/24/CE du 23 avril 2009 concernant la protection juridique des programmes d’ordinateur (p. 12). Est ajoutée à cette qualification une définition fonctionnelle qui regrouperait par exemple la capacité à effectuer une tâche complexe spécifique à l’aide de procédés automatisés tels que l’apprentissage machine (p. 12).

L’exclusion de l’attribution d’une personnalité-robot qu’avait précédemment envisagée le Parlement (v. Résolution du 16 févr. 2017 « contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique », 2015/2103 (INL) ; A. Bensamoun et G. Loiseau, L’intelligence artificielle : faut-il légiférer ?, D. 2017. 581 ; N. Maximin, Vers des règles européennes de droit civil applicables aux robots, Dalloz actualité, 1er mars 2017 ; X. Delpech, Vers un droit civil des robots, AJ Contrat 2017. 148 ) est bienvenue (v. not., contre cette qualification, G. Loiseau, Des robots et des hommes, D. 2015. 2369 ; A. Mendoza-Caminade, Le droit confronté à l’intelligence artificielle des robots : vers l’émergence de nouveaux concepts juridiques ?, D. 2016. 445 ; A. Bensamoun et G. Loiseau, L’intégration de l’intelligence artificielle dans l’ordre juridique en droit commun : questions de temps, Dalloz IP/IT 2017. 239 ; M. Bouteille-Brigant, Intelligence artificielle et droit : entre tentation d’une personne juridique du troisième type et avènement d’un « transjuridisme », LPA 2018, n° 62, p. 7 ; G. Loiseau, La personnalité juridique des robots : une monstruosité juridique, JCP 2018. 597). Le fait de trancher en faveur d’une qualification unitaire et préexistante emporte également l’avantage de simplifier en apparence le régime de l’intelligence artificielle… En apparence toutefois, puisque de cette qualification découlent de nouvelles interrogations (v. pour les hypothèses de qualifications de l’IA : A. Bensamoun, Intelligence artificielle et propriété intellectuelle, nos 397 s., in Droit de l’intelligence artificielle, 1re éd., LGDJ, coll. «Les Intégrales », 2019). En effet, quelle serait la frontière entre l’algorithme constitutif d’une idée de libre parcours et le logiciel ? Les données d’entraînement et de production, qui ont une influence déterminante sur le résultat donné par l’intelligence artificielle, seront-elles exclues de la qualification de logiciel ? Eu égard à la pluralité d’intervenants sur la conception d’une intelligence artificielle, comment s’organiserait la répartition de la titularité des droits ? En l’absence de développements détaillés sur les conséquences qu’emporterait la qualification de logiciel, des réflexions en la matière demeurent encore nécessaires.

Propositions de régulation des députés européens

Les députés européens regroupent leurs propositions en quatre thèmes.

Choix, confiance et bien-être du consommateur

Conformément à une doctrine majoritaire, les députés proposent de renforcer les obligations d’information, notamment sur le fonctionnement de l’intelligence artificielle (v. not. CNIL, Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, déc. 2017, p. 48 s. ; Rapport Villani, Donner un sens à l’intelligence artificielle, 28 mars 2018, p.  140 s. ; Lignes directrices en matière d’éthique pour une IA digne de confiance, préc., pt 53 ; Communication de la Commission, L’intelligence artificielle pour l’Europe, préc., p. 19). À ce titre, la Commission s’aligne sur cette position en précisant davantage qui pourraient être les débiteurs de cette obligation et quel en serait son contenu (v. par ex., p. 13 : « Accountability and transparency requirements for developers […] to disclose the design parameters of the artificial intelligence system »). Il est également intéressant de relever qu’est demandé à ce que soit surveillée l’application du Règlement (UE) 2018/302 du 28 février 2018 visant à contrer le blocage géographique injustifié et d’autres formes de discrimination fondée sur la nationalité, le lieu de résidence ou le lieu d’établissement des clients dans le marché intérieur.

Sécurité et responsabilité en matière de produits

Afin de prévenir les dommages subis par les consommateurs, les députés proposent de modifier un certain nombre de directives (dir. 2006/42/CE ; 2009/48/CE ; 2014/53/UE ; 2014/35/UE ; 2001/95/CE) après analyse de risques par la Commission vis-à-vis de ce changement global de réglementation. Les députés insistent par ailleurs sur l’adaptation, le cas échéant, de la directive « produits défectueux » 85/374/CEE du 25 juillet 1985, notamment les concepts de produit, dommage ou défaut qui ne sont pas toujours adaptés à l’intelligence artificielle (v. not. A. Bensamoun, Stratégie européenne sur l’intelligence artificielle : toujours à la mode éthique…, D. 2018. 1022  ; contra G. Courtois, Robots intelligents et responsabilité : quels régimes, quelles perspectives ? Dalloz IP/IT 2016. 287 ). Toutes ces propositions sont reprises par la Commission dans son projet de livre blanc (p. 17, option 4 : Safety and Liability).

Cadre réglementaire en matière de services

Après avoir rappelé l’existence de dispositions, à l’instar du RGPD, qui encadrent déjà certains pans de l’intelligence artificielle, les députés suggèrent que l’humain devrait toujours être responsable en dernier ressort et capable de passer outre les décisions qui sont prises par une intelligence artificielle dans l’exercice de son activité, ce qui doit se matérialiser par une formation professionnelle. Cette proposition s’inscrit dans la droite ligne de leur résolution du 12 février 2019 (2018/2088 [INI], préc., pt 123). L’autonomie décisionnelle du professionnel faisant appel à l’intelligence artificielle dans le cadre d’une aide à la décision est effectivement majeure. Il est à noter que dans les cas d’actes de soin, l’article 11 du projet de loi relatif à la bioéthique en cours de discussion propose de consacrer la garantie d’une intervention humaine, préconisée par le comité consultatif national d’éthique (CCNE, avis n° 129, p. 102 s. ; Étude d’impact du projet de loi relatif à la bioéthique, 23 juill. 2019, p. 282 s.).

Qualité et transparence dans la gouvernance des données

Les députés soulignent l’importance d’employer des données de haute qualité et non biaisées lors de l’entraînement de l’intelligence artificielle, à l’instar de la Commission qui ajoute l’exigence de données diversifiées, ce qui peut dans une certaine mesure limiter les biais (v. Lignes directrices en matière d’éthique pour une IA digne de confiance, préc., pt 44, expliquant que les données devraient « être aussi inclusives que possible et représenter différents groupes de populations »). Par extension, selon le projet des députés, ces données devraient être utilisées sur des algorithmes eux-mêmes non biaisés et explicables. Ils ajoutent qu’il devrait exister au sein de l’entreprise développant une intelligence artificielle un service capable de corriger les erreurs, ainsi que le droit pour les consommateurs d’obtenir une intervention humaine pour les décisions automatisées qui seraient définitives et permanentes. Afin de garantir la transparence et l’explicabilité des systèmes d’intelligence artificielle, les députés proposent d’habiliter la Commission à contrôler l’effectivité de ces mesures. La Commission, pour sa part, privilégie une délégation aux autorités nationales en laissant liberté aux États membres de décider sur quelle(s) autorité(s) pèsera un contrôle.

Propositions de régulation de la Commission

Le projet de livre blanc sur l’intelligence artificielle de la Commission, plus développé que le projet de résolution, contient des sujets clefs qui n’ont pas été abordés par le Parlement, notamment deux approches fondées sur le risque : l’une, en vue de la détermination des débiteurs d’une obligation, l’autre, en vue d’instituer un cadre réglementaire.

L’une des difficultés premières générées par l’intelligence artificielle est la traçabilité d’une erreur à l’origine d’un dommage, eu égard notamment à la diversité d’acteurs économiques impliqués dans la vie d’une intelligence artificielle. Afin de déterminer sur qui pèsera la responsabilité du fait d’une intelligence artificielle, la Commission propose une approche fondée sur la désignation de la personne la plus à même d’y répondre (p. 12). Ainsi, le développeur, selon la Commission, serait le plus à même de répondre des risques générés lors de la phase de développement. En revanche, sa capacité à contrôler les risques lors de la phase d’utilisation serait plus limitée. Cette approche fondée sur le risque est transposée aux débiteurs d’obligations afférentes à l’intelligence artificielle : alors que les obligations du développeur seront concentrées lors de la phase de développement, les obligations de l’utilisateur seront concentrées lors de la phase d’utilisation (p. 12-13).

Pour autre proposition notable de la Commission, il est intéressant de citer sa troisième option de régulation, consistant à différencier le seuil de réglementation en fonction des risques (p. 16-17). Ces risques tiendraient compte du secteur (par ex. le secteur médical), des applications (par ex. la police prédictive), du niveau de risque déterminé par étude d’impact, ou du contexte. De ces critères et analyses, la Commission propose d’élaborer une définition et une liste des applications à haut risque qui feraient l’objet d’une réglementation renforcée.

Vers un droit de l’intelligence artificielle ?

À la lecture des textes successifs de la Commission et du Parlement européens, constat est fait que les réflexions en matière d’intelligence artificielle se précisent progressivement. Elles sont passées par la détermination de grands principes, matérialisés par une volonté de prévenir les risques tout en évitant de freiner l’innovation (résolution du Parlement, 16 févr. 2017, préc. ; Communication de la Commission, 24 avr. 2018, préc.). Partant, ces réflexions se sont ensuite précisées sur des aspects plus techniques, tout en conservant quelques réserves (résolution du Parlement, 12 févr. 2019, préc. ; Lignes directrices en matière d’éthique pour une IA digne de confiance, 8 avr. 2019, préc.). Désormais, elles se fondent sur des dispositions précises à réguler (Parlement, projet de motion pour une résolution, 21 janv. 2020, préc. ; Commission, projet de livre blanc, 12 déc. 2019, préc.).

Il résulte de ce qui précède que les deux projets suivent la vision de leurs prédécesseurs et resserrent encore plus l’étau d’une future réglementation. S’ils sont adoptés en l’état, toutefois, des questions restent encore en suspens, en premier lieu vis-à-vis de la qualification juridique de l’intelligence artificielle, mais aussi sur la manière dont certaines réglementations seront modifiées, notamment la directive « produits défectueux » du 25 juillet 1985. En somme, les projets rendent compte des domaines à réglementer, sans pour autant adopter de mesures claires réformant ces domaines. La régulation concrète de l’intelligence artificielle est donc en substance loin d’être ancrée dans le marbre.

 

Commentaires

BONNE ANALYSE ET TRÈS DENSE MERCI

EXTRA

Réagissez à cet article

Le contenu de ce champ sera maintenu privé et ne sera pas affiché publiquement.