- Administratif
- Toute la matière
- > Acte
- > Bien
- > Collectivité territoriale
- > Compétence
- > Contrat et marché
- > Droit économique
- > Droit fondamental et liberté publique
- > Election
- > Environnement
- > Finance et fiscalité
- > Fonction publique
- > Police
- > Pouvoir public
- > Procédure contentieuse
- > Responsabilité
- > Service public
- > Urbanisme
- Affaires
- Civil
- Toute la matière
- > Arbitrage - Médiation - Conciliation
- > Bien - Propriété
- > Contrat et obligations
- > Droit et liberté fondamentaux
- > Droit international et communautaire
- > Famille - Personne
- > Filiation
- > Mariage - Divorce - Couple
- > Procédure civile
- > Responsabilité
- > Succession - Libéralité
- > Sûretés
- > Voie d'exécution
- Européen
- Immobilier
- IP/IT et Communication
- Pénal
- Toute la matière
- > Atteinte à l'autorité de l'état
- > Atteinte à la personne
- > Atteinte aux biens
- > Circulation et transport
- > Criminalité organisée et terrorisme
- > Droit pénal des affaires
- > Droit pénal général
- > Droit pénal international
- > Droit social
- > Enquête
- > Environnement et urbanisme
- > Etranger
- > Informatique
- > Instruction
- > Jugement
- > Mineur
- > Peine et exécution des peines
- > Presse et communication
- > Santé publique
- Social
- Toute la matière
- > Accident, maladie et maternité
- > Contrat de travail
- > Contrôle et contentieux
- > Droit de la sécurité sociale
- > Grève
- > Hygiène - Sécurité - Conditions de travail
- > IRP et syndicat professionnel
- > Négociation collective
- > Protection sociale
- > Rémunération
- > Rupture du contrat de travail
- > Santé publique
- > Travailleurs handicapés
- Avocat
Article

Les dynamiques actuelles de la future régulation de l’IA, aux niveaux européen et français : entre complexité et angle mort
Les dynamiques actuelles de la future régulation de l’IA, aux niveaux européen et français : entre complexité et angle mort
L’IA générative, en tant que substitut au langage humain, peut-elle être régulée comme un simple « outil » ?
par Juliette Sénéchal, Professeure de droit privé à l'Université de Lillele 19 octobre 2023

La massification des usages de l’IA générative découlant du déploiement auprès d’un large public de l’application ChatGPT en décembre 2022, entraînant à sa suite le déploiement à large échelle de plusieurs autres IA génératives (générant des contenus textuels, des sons, des images, du code informatique…), aurait pu appeler la résolution d’une question préliminaire à toute réglementation de celle-ci : l’IA générative doit-elle être considérée comme un outil de même nature que les autres systèmes d’IA, alors qu’elle se positionne comme étant un substitut automatisé au langage et à l’art humains ?
La non-résolution de cette question préliminaire rend, ce faisant, plus complexe l’élaboration d’une régulation des IA génératives, telle qu’elle ressort des trilogues actuellement en cours relatifs à l’AI Act au niveau européen, ainsi que des initiatives au niveau français du Comité national pilote d’éthique du numérique (CNPEN), en qualité de comité d’éthique, et de la Commission nationale de l’informatique et des libertés (CNIL), en qualité d’autorité de régulation.
La prise en compte de l’IA générative par les trilogues européens sur l’AI Act et par les initiatives françaises du CNPEN et de la CNIL
Les trilogues en cours au niveau européen relatifs à l’AI Act
Le déploiement à grande échelle de plusieurs IA génératives depuis la fin de l’année 2022 a rendu plus complexe la négociation du règlement sur l’intelligence artificielle actuellement en cours depuis le 22 avril 20211.
Les trilogues politiques et techniques entre les trois institutions européennes en vue de trouver un compromis sur l’IA Act, débutés le 14 juin 2023 à l’issue du vote par le Parlement européen des amendements sur ce texte2, sont certes envisagés comme devant se clore le 25 octobre, ou peut-être le 6 décembre 2023. Les négociations sont cependant ardues et rendent les dates envisagées pour un compromis final incertaines, car les différentes versions du futur l’AI Act reposent sur des logiques différentes.
La première logique, davantage centrée sur l’auto-régulation et la responsabilisation éthique des acteurs du secteur de l’IA, est portée par la proposition initiale de la Commission3 et par l’orientation générale du Conseil4, intervenues l’une et l’autre avant le déploiement massif des IA génératives.
La seconde logique, davantage centrée sur la co-régulation des acteurs du secteur de l’IA, est portée par le Parlement européen5 : elle explicite de manière plus précise à ces acteurs les objectifs à atteindre en matière de respect des droits fondamentaux, de bien-être social et de préoccupation environnementale, elle impose des obligations plus contraignantes à ces acteurs en vue d’évaluer les risques découlant du développement et du déploiement des IA et offre une place plus importante à la gouvernance et aux autorités de régulation de l’IA.
Les versions du futur AI Act, sous-tendues par une logique plus souple, sont envisagées comme des gages d’un développement facilité des starts-ups européennes en matière d’intelligence artificielle, dans l’espoir qu’apparaissent des acteurs européens de premier plan, concurrençant les acteurs extra-européens d’ores et déjà implantés dans ce secteur.
La version de l’AI Act la plus contraignante à l’égard des acteurs du secteur de l’IA, portée par le Parlement européen, véhicule pour sa part l’idée que le développement des systèmes d’IA ne doit pas se traduire par une réduction de la prise en compte des droits fondamentaux des humains interagissant avec ou affectés par des systèmes d’IA, ce qui suppose un corpus juridique contraignant en matière d’obligations à l’égard des acteurs du secteur et en matière de gouvernance de l’IA.
Parmi les points de contradiction entre les différentes versions de l’AI Act, que les institutions européennes ont à régler au stade des trilogues, en lien avec la massification des usages des IA génératives, se trouve en particulier la question de savoir si doit apparaître ou non dans le futur AI Act une réglementation spécifique des modèles de fondations6, aux rangs desquels les large langage models (LLM), modèles sur la base desquels sont ensuite développées les IA génératives7, et dans l’affirmative, si la future réglementation doit imposer un régime identique aux modèles de fondation, quelque soit leur taille8 ou si, à l’instar de ce qui a été consacré dans le Digital Services Act9, doit être imposé aux fournisseurs de modèles de fondation, des obligations asymétriques et variables selon la taille de ceux-ci, afin de ne pas pénaliser les petits acteurs du secteur, tout en réglementant les acteurs ayant d’ores et déjà acquis une taille plus conséquente10.
Seul l’avenir permettra de nous éclairer sur le point d’équilibre qui aura finalement été trouvé par les trois institutions européennes sur la réglementation des IA en général et des IA génératives en particulier.
Les initiatives du CNPEN et de la CNIL sur l’IA générative au niveau français
La complexification des négociations européennes, liée à la massification de l’usage des IA génératives, n’empêche pas les comités d’éthique et les autorités de régulation de commencer à se positionner sur la régulation des IA génératives, au niveau national.
L’on se concentrera, parmi les nombreuses initiatives récentes11, sur deux initiatives en particulier. La première, dans une logique de responsabilisation éthique des acteurs, émanant du CNPEN, sous l’égide du Comité consultatif national d’éthique pour les sciences de la vie et de la santé, s’est penchée, sous la forme d’un avis n° 7 en date du 30 juin 2023, sur les enjeux éthiques des systèmes d’intelligence artificielle générative12.
Cet avis propose une nouvelle définition des IA génératives13 et des modèles de fondations14, ainsi que dix préconisations sur la conception des IA génératives et douze préconisations sur la gouvernance de ces IA. Parmi ces préconisations, seront soulignés ici un encouragement au comportement éthique des développeurs dès la conception des IA, une attitude vigilante à l’égard des effets de bords non encore décelés des IA génératives, une préservation du multilinguisme comme gage de la préservation de la variété culturelle des contenus produits, le maintien d’un caractère raisonnable et proportionnel au risque avéré des limitations des modèles mises en œuvre par les concepteurs, un usage prudent des IA génératives en matière d’éducation ou encore la mise en place « par les concepteurs d’un modèle de fondation d’une solution technique (watermark – code en filigrane) permettant d’assurer que l’utilisateur sera en mesure de distinguer – autant...
Sur le même thème
-
Brevet : mais qui est la personne du métier, Dupond ou Dupont ?
-
Résiliation fautive d’un contrat de cession de contrat d’édition même en l’absence de remise du manuscrit
-
Panorama rapide de l’actualité « Technologies de l’information » des semaines du 14 et 21 avril 2025
-
[PODCAST] Le mensonge à l’ère numérique : nouveau rapport du droit à la vérité ?
-
Atteinte aux marques et signes distinctifs de Facebook par Fuckbook : un cumul de responsabilité mais une indemnisation sous contrôle
-
Réparation du préjudice subi à l’étranger du fait de la contrefaçon : quelle compétence du juge français ?
-
Voyage au bout du livre : de l’usage fautif de la mise au pilon
-
Petite pause printanière
-
Panorama rapide de l’actualité « Technologies de l’information » de la semaine du 7 avril 2025
-
Arrêt Lidl, quelques précisions sur l’objet de la divulgation durant la période de grâce
Sur la boutique Dalloz
Code de la cybersécurité 2024 annoté et commenté
10/2023 -
2e édition
Auteur(s) : Michel Séjean, Marc Watin-Augouard, Brunessen Bertrand, Nicolas Catelan, Thibault Douville, Valère Ndior, Emmanuel Netter, Anne-Thida Norodom, Matthieu Audibert, Warren Azoulay, Thibaut Heckmann