Accueil
Le quotidien du droit en ligne
-A+A
Article

Les dynamiques actuelles de la future régulation de l’IA, aux niveaux européen et français : entre complexité et angle mort

L’IA générative, en tant que substitut au langage humain, peut-elle être régulée comme un simple « outil » ?

La massification des usages de l’IA générative découlant du déploiement auprès d’un large public de l’application ChatGPT en décembre 2022, entraînant à sa suite le déploiement à large échelle de plusieurs autres IA génératives (générant des contenus textuels, des sons, des images, du code informatique…), aurait pu appeler la résolution d’une question préliminaire à toute réglementation de celle-ci : l’IA générative doit-elle être considérée comme un outil de même nature que les autres systèmes d’IA, alors qu’elle se positionne comme étant un substitut automatisé au langage et à l’art humains ?

La non-résolution de cette question préliminaire rend, ce faisant, plus complexe l’élaboration d’une régulation des IA génératives, telle qu’elle ressort des trilogues actuellement en cours relatifs à l’AI Act au niveau européen, ainsi que des initiatives au niveau français du Comité national pilote d’éthique du numérique (CNPEN), en qualité de comité d’éthique, et de la Commission nationale de l’informatique et des libertés (CNIL), en qualité d’autorité de régulation.

La prise en compte de l’IA générative par les trilogues européens sur l’AI Act et par les initiatives françaises du CNPEN et de la CNIL

Les trilogues en cours au niveau européen relatifs à l’AI Act

Le déploiement à grande échelle de plusieurs IA génératives depuis la fin de l’année 2022 a rendu plus complexe la négociation du règlement sur l’intelligence artificielle actuellement en cours depuis le 22 avril 20211.

Les trilogues politiques et techniques entre les trois institutions européennes en vue de trouver un compromis sur l’IA Act, débutés le 14 juin 2023 à l’issue du vote par le Parlement européen des amendements sur ce texte2, sont certes envisagés comme devant se clore le 25 octobre, ou peut-être le 6 décembre 2023. Les négociations sont cependant ardues et rendent les dates envisagées pour un compromis final incertaines, car les différentes versions du futur l’AI Act reposent sur des logiques différentes.

La première logique, davantage centrée sur l’auto-régulation et la responsabilisation éthique des acteurs du secteur de l’IA, est portée par la proposition initiale de la Commission3 et par l’orientation générale du Conseil4, intervenues l’une et l’autre avant le déploiement massif des IA génératives.

La seconde logique, davantage centrée sur la co-régulation des acteurs du secteur de l’IA, est portée par le Parlement européen5 : elle explicite de manière plus précise à ces acteurs les objectifs à atteindre en matière de respect des droits fondamentaux, de bien-être social et de préoccupation environnementale, elle impose des obligations plus contraignantes à ces acteurs en vue d’évaluer les risques découlant du développement et du déploiement des IA et offre une place plus importante à la gouvernance et aux autorités de régulation de l’IA.

Les versions du futur AI Act, sous-tendues par une logique plus souple, sont envisagées comme des gages d’un développement facilité des starts-ups européennes en matière d’intelligence artificielle, dans l’espoir qu’apparaissent des acteurs européens de premier plan, concurrençant les acteurs extra-européens d’ores et déjà implantés dans ce secteur.

La version de l’AI Act la plus contraignante à l’égard des acteurs du secteur de l’IA, portée par le Parlement européen, véhicule pour sa part l’idée que le développement des systèmes d’IA ne doit pas se traduire par une réduction de la prise en compte des droits fondamentaux des humains interagissant avec ou affectés par des systèmes d’IA, ce qui suppose un corpus juridique contraignant en matière d’obligations à l’égard des acteurs du secteur et en matière de gouvernance de l’IA.

Parmi les points de contradiction entre les différentes versions de l’AI Act, que les institutions européennes ont à régler au stade des trilogues, en lien avec la massification des usages des IA génératives, se trouve en particulier la question de savoir si doit apparaître ou non dans le futur AI Act une réglementation spécifique des modèles de fondations6, aux rangs desquels les large langage models (LLM), modèles sur la base desquels sont ensuite développées les IA génératives7, et dans l’affirmative, si la future réglementation doit imposer un régime identique aux modèles de fondation, quelque soit leur taille8 ou si, à l’instar de ce qui a été consacré dans le Digital Services Act9, doit être imposé aux fournisseurs de modèles de fondation, des obligations asymétriques et variables selon la taille de ceux-ci, afin de ne pas pénaliser les petits acteurs du secteur, tout en réglementant les acteurs ayant d’ores et déjà acquis une taille plus conséquente10.

Seul l’avenir permettra de nous éclairer sur le point d’équilibre qui aura finalement été trouvé par les trois institutions européennes sur la réglementation des IA en général et des IA génératives en particulier.

Les initiatives du CNPEN et de la CNIL sur l’IA générative au niveau français

La complexification des négociations européennes, liée à la massification de l’usage des IA génératives, n’empêche pas les comités d’éthique et les autorités de régulation de commencer à se positionner sur la régulation des IA génératives, au niveau national.

L’on se concentrera, parmi les nombreuses initiatives récentes11, sur deux initiatives en particulier. La première, dans une logique de responsabilisation éthique des acteurs, émanant du CNPEN, sous l’égide du Comité consultatif national d’éthique pour les sciences de la vie et de la santé, s’est penchée, sous la forme d’un avis n° 7 en date du 30 juin 2023, sur les enjeux éthiques des systèmes d’intelligence artificielle générative12.

Cet avis propose une nouvelle définition des IA génératives13 et des modèles de fondations14, ainsi que dix préconisations sur la conception des IA génératives et douze préconisations sur la gouvernance de ces IA. Parmi ces préconisations, seront soulignés ici un encouragement au comportement éthique des développeurs dès la conception des IA, une attitude vigilante à l’égard des effets de bords non encore décelés des IA génératives, une préservation du multilinguisme comme gage de la préservation de la variété culturelle des contenus produits, le maintien d’un caractère raisonnable et proportionnel au risque avéré des limitations des modèles mises en œuvre par les concepteurs, un usage prudent des IA génératives en matière d’éducation ou encore la mise en place « par les concepteurs d’un modèle de fondation d’une solution technique (watermark – code en filigrane) permettant d’assurer que l’utilisateur sera en mesure de distinguer – autant...

Il vous reste 75% à lire.

Vous êtes abonné(e) ou disposez de codes d'accès :