Accueil
Le quotidien du droit en ligne
Envoyer à un ami-A+A
Article

Projet de règlement sur l’IA (II) : une approche fondée sur les risques

Le 21 avril 2021, la Commission européenne a publié sa proposition de règlement établissant des règles harmonisées sur l’intelligence artificielle (IA). Alors que la première partie de cette étude s’est concentrée sur la définition de l’IA et leurs acteurs, cette seconde partie s’attardera sur le régime retenu.

par Cécile Crichtonle 4 mai 2021

Réguler une technologie dont les applications sont hétérogènes suscite une difficulté fondamentale, qui réside dans l’approche à retenir. Alors que cette approche aurait pu être sectorielle (en fonction du secteur industriel concerné) ou juridique (en fonction de la branche de droit concernée), la Commission a privilégié une troisième option déjà pressentie par ses précédents écrits : une approche fondée sur les risques. La proposition « Artificial Intelligence Act » distingue selon que le risque est inacceptable, élevé ou faible. Les concepts étant désormais détaillés (v. Projet de règlement sur l’IA (I) : des concepts larges retenus par la Commission, Dalloz actualité, 3 mai 2021), il conviendra de s’attarder sur leur régime. Ainsi, les pratiques présentant un risque inacceptable sont prohibées (art. 5), les pratiques à haut risque soumises à un régime de compliance détaillé (art. 6 à 51) et quelques pratiques à faible risque font l’objet d’obligations de transparence (art. 52).

Utilisations prohibées

L’article 5, § 1, de la proposition de règlement interdit quatre pratiques :

  • a) systèmes d’IA qui influencent de manière subliminale le comportement d’une personne en vue de lui causer ou de causer à un tiers un dommage ;
     
  • b) systèmes d’IA qui exploitent la vulnérabilité d’un groupe de personnes en vue de fausser le comportement de l’une de ces personnes et de causer un dommage ;
     
  • c) systèmes d’IA de notation sociale mis sur le marché, mis en service ou utilisés par les autorités publiques ou en leur nom ;
     
  • d) systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public, sauf exception.

Pour ces derniers, qui incluent par exemple la reconnaissance faciale, il est intéressant de constater que seule l’identification biométrique en temps réel est visée, la proposition de règlement prenant le soin de définir la seule identification biométrique à distance (art. 3, 36), puis distinguant l’analyse en temps réel (art. 3, 37) du temps différé (art. 3, 38). Autrement dit, l’identification biométrique à distance en temps différé n’est pas soumise à l’article ni d’ailleurs l’identification biométrique effectuée par une personne privée en son nom, quoique ces deux systèmes demeurent à haut risque (annexe III, § 1).

Les exceptions à cette reconnaissance biométrique en temps réel demeurent ouvertes. Il s’agit de la recherche ciblée de victimes d’actes criminels, incluant les enfants disparus (i) ; la prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique des personnes physiques ou d’une attaque terroriste (ii) ; la détection, localisation, identification ou poursuite d’un auteur ou suspect d’une infraction pénale passible d’une peine privative de liberté d’au moins trois ans (iii). Ces motifs doivent tenir compte de critères d’appréciation définis (§ 2) et l’utilisation de tels systèmes doit être autorisée par une autorité judiciaire ou administrative (§ 3), encadrée au préalable par une loi (§ 4).

Le non-respect de l’entier article 5, soit toutes les pratiques prohibées, entraîne le prononcé d’une amende administrative pouvant aller jusqu’à 30 millions d’euros ou, si l’auteur est une entreprise, jusqu’à 6 % de son chiffre d’affaires annuel mondial total, le montant le plus élevé étant retenu (art. 71, § 3, a). Si l’auteur de l’infraction est une institution, agence ou organe de l’Union, le montant peut atteindre 500 000 €.

Utilisations d’un système d’IA à haut risque

Présentation

L’Artificial Intelligence Act porte pour l’essentiel sur la mise en conformité des systèmes d’IA à haut risque. Les obligations étant denses, le présent billet n’en effleurera que les principaux aspects, en premier lieu l’étendue des systèmes pouvant être qualifiés comme étant à haut risque.

IA à haut risque sous conditions

L’annexe II énumère un certain nombre de législations harmonisées de l’Union (section A), portant sur les machines ; les jouets ; les navires de plaisance ; les ascenseurs ; les équipements et systèmes de protection destinés à être utilisés dans des atmosphères potentiellement explosives ; les équipements radio ; les équipements sous pression ; les installations à câbles ; les équipements de protection individuelle ; les appareils brûlant des combustibles gazeux ; les dispositifs médicaux ; et les dispositifs médicaux de diagnostic in vitro. D’autres législations sont citées (section B), portant sur l’aviation civile ; les véhicules à deux ou trois roues et quadricycles ; les véhicules agricoles et forestiers ; les équipements marins ; le système ferroviaire ; les véhicules à moteur et leurs remorques, ainsi que des systèmes, composants et entités techniques distinctes destinés à ces véhicules. L’article 6, § 1, considère ainsi comme étant à haut risque tout système d’IA qui est destiné à être utilisé en tant que composant de sécurité d’un produit, ou est lui-même un produit régi par ces réglementations listées (a), ou si le produit dont le composant de sécurité est le système d’IA, ou le système d’IA lui-même en tant que produit est soumis à une évaluation de conformité couverte par ces réglementations (b).

IA automatiquement à haut risque

L’article 6, § 2, poursuit en considérant comme à haut risque tout système d’IA visé à l’annexe III, modifiée le cas échéant par acte délégué de la Commission (art. 7), qui catégorise ces systèmes selon les paragraphes suivants, eux-mêmes détaillés : identification biométrique et catégorisation des personnes physiques (1) ; gestion et exploitation des infrastructures essentielles (2) ; éducation et formation professionnelle (3) ; emploi, gestion des salariés et accès au travail indépendant (4) ; accès aux services privés essentiels et aux services publics (5) ; application de la loi (6) ; gestion des flux migratoires, de l’asile et des contrôles aux frontières (7) ; administration de la justice et processus démocratique (8). Il est à noter que, pour ces systèmes d’IA en particulier, une base de données de recensement est créée (art. 60) et chaque fournisseur, ou le cas échéant le mandataire, doit s’y enregistrer (art. 51).

IA à faible risque ?

Il va sans dire que cette liste est complète, à tel point qu’il est légitime de se demander quels sont les systèmes d’IA n’y figurant pas, hormis les applications destinées aux produits de consommation courante, notamment les algorithmes de recommandation.

Mise en conformité

Les articles 8 et suivants imposent une mise en conformité ex ante, évaluée avant la mise sur le marché ou la mise en service du système d’IA en cause (art. 8, § 2). Ainsi l’article 9 impose-t-il la mise en place avant et tout au long de la vie du système d’IA d’un processus de gestion des risques ; l’article 10, une surveillance, détection et correction des biais par une politique contraignante de gouvernance des données d’entraînement, de validation et de test (v., sur les définitions relatives aux données, art. 3, 29 à 33) ; l’article 11, l’établissement d’une documentation technique conforme à l’annexe IV ; l’article 12, une journalisation ; l’article 13, des obligations d’information à destination des utilisateurs ; l’article 14, la surveillance humaine ; l’article 15, des obligations de robustesse, d’exactitude et de sécurité.

Obligations des fournisseurs

Les fournisseurs sont les acteurs clés de la proposition de règlement, sur qui pèse la mise en conformité (v., pour la définition des acteurs, Projet de règlement sur l’IA (I) : des concepts larges retenus par la Commission, Dalloz actualité, 3 mai 2021). Ils ont la charge de s’assurer que les obligations énumérées ci-dessus sont respectées (art. 16, a). Un certain nombre d’obligations listées à l’article 16 pèsent également sur eux, dont l’établissement d’un système de gestion documenté de la qualité de leur système qui garantit le respect du règlement (art. 17). Autrement, les fournisseurs sont soumis à l’obligation d’établir eux-mêmes la documentation technique prévue à l’article 11 (art. 18) ; à la procédure d’évaluation de la conformité prévue à l’article 43 (art. 19) ; à l’obligation de conserver les fichiers de journalisation (art. 20) ; de mener des actions correctives en cas de risque de non-conformité (art. 21) ou en cas d’incident grave ou de dysfonctionnement (art. 62) ; d’en informer les autorités compétentes (art. 22 ; art. 62) ; et de coopérer avec elles (art. 23). Un certain nombre de documents doivent être conservés et mis à la disposition des autorités nationales durant dix ans après la mise sur le marché ou la mise en service du système d’IA (art. 50). Les fournisseurs doivent enfin établir un système de surveillance post-commercialisation documenté, destiné à évaluer la performance du système d’IA tout au long de sa vie (art. 61).

Transfert de la qualité de fournisseur

L’article 28 précise qu’est considérée comme fournisseur toute personne qui met sur le marché ou met en service un système d’IA à haut risque sous son nom ou sa marque (§ 1, a), qui en modifie la destination (§ 1, b), ou qui en apporte une modification substantielle (§ 1, c). Si tel est le cas, le fournisseur initial est évincé et les obligations énoncées précédemment pèsent sur ce nouveau fournisseur (§ 2). Là encore se retrouve l’idée selon laquelle celui qui appose son nom ou sa marque sur un système d’IA doit en assumer les conséquences.

Fournisseur établi hors Union européenne

Si le fournisseur n’est pas établi dans un territoire de l’Union et que l’importateur n’est pas identifiable, un mandataire désigné doit pouvoir justifier que les exigences de conformité sont bien respectées (art. 25). Si l’importateur est connu, énonce l’article 26, il doit préalablement veiller à ce que la procédure d’évaluation de conformité a bien été faite, que la documentation technique est établie, et que le marquage de conformité est effectué (§ 1). Il lui est en outre défendu d’importer un système d’IA non conforme (§ 2). Il doit enfin apposer ses coordonnées sur l’emballage ou la documentation technique du système d’IA (§ 3), veiller à ce que les conditions de stockage ou de transport ne compromettent pas sa conformité (§ 4) et fournir aux autorités tout document nécessaire à prouver la conformité (§ 5). Les distributeurs ont peu ou prou les mêmes obligations listées à l’article 27.

Obligations des utilisateurs

L’article 29 énumère un certain nombre d’obligations à la charge des utilisateurs qui, pour rappel, agissent à titre professionnel. Ils doivent notamment, lorsqu’ils exercent un contrôle sur les données d’entrées, veiller à leur pertinence. Ils doivent également utiliser le système conformément aux instructions d’utilisation et suspendre l’utilisation en cas de doute sur sa conformité. Notons également l’obligation de conserver les journaux générés automatiquement par le système.

Gouvernance

En parallèle de la création d’un comité (art. 56 à 58), chaque État membre doit désigner une autorité nationale compétente (art. 59). Afin d’évaluer la bonne conformité du règlement, des organismes notifiés sont désignés par une autorité choisie par les États membres (art. 30) selon une procédure et des exigences définies (art. 31 à 39). Lorsqu’ils ont reçu la notification, ces organismes sont chargés de vérifier la conformité des systèmes d’IA à haut risque (art. 33, § 1). En fonction du type de système d’IA à haut risque visé, les fournisseurs doivent suivre soit la procédure d’évaluation de la conformité décrite à l’annexe VII et à laquelle participe un organisme notifié qui conduit à la délivrance d’une certification (art. 44), soit la procédure d’évaluation de la conformité fondée sur un contrôle interne décrit à l’annexe VI auquel la présence d’un organisme notifié n’est pas requise (art. 43). Cette procédure peut se renouveler autant de fois que les systèmes d’IA sont substantiellement modifiés (art. 43, § 4). Des standards harmonisés (art. 40) ou spécifications communes (art. 41) peuvent le cas échéant présumer la bonne conformité du système. Quelle que soit la procédure adoptée, le fournisseur doit établir une déclaration UE de conformité tenue à la disposition des autorités nationales compétentes (art. 48). La procédure de marquage CE de conformité est prévue à l’article 49.

Sanctions

Tout manquement aux dispositions qui précèdent est passible d’une amende administrative pouvant aller jusqu’à 20 millions d’euros ou, si le contrevenant est une entreprise, jusqu’à 4 % de son chiffre d’affaires annuel total, le montant le plus élevé étant retenu (art. 71, § 4). Ce montant est réduit à 250 000 € pour les institutions, agences et organes de l’Union (art. 72, § 3). Le manquement à l’article 10, imposant au fournisseur de surveiller, détecter et corriger les biais par sa politique de gouvernance des données est porté à 30 millions d’euros ou 4 % du chiffre d’affaires (art. 71, § 4, b), ou 500 000 € pour les institutions, agences et organes de l’Union (art. 72, § 2, b). Enfin, le manquement aux obligations d’information à délivrer aux organismes notifiés et aux autorités nationales compétentes en réponse à une demande est passible d’une amende de 10 millions d’euros ou 2 % du chiffre d’affaires (art. 71, § 5).

Contraintes

Le règlement offre un panel complet d’obligations de mise en conformité et de préconstitution de preuve destinée à faciliter les procédures de vérification. La désignation d’un seul responsable en la personne du fournisseur permet d’éviter une dispersion et donc une dilution de la responsabilité. Toutefois, les obligations précédemment énoncées semblent lourdes, voire difficiles à mettre en œuvre. L’article 10 de la proposition de règlement relative aux données et à la gouvernance des données en est une bonne illustration : pèse sur le fournisseur un ensemble de pratiques à adopter concernant les données d’entraînement, de validation et de test, tant notamment sur leur choix, sur leur collecte, sur les opérations y afférent (annotation, étiquetage, enrichissement, annotation, etc.), ou sur l’examen de leurs éventuels biais (art. 10, § 2). De la même manière, un ensemble d’obligations pesant sur les données est énoncé aux paragraphes suivants, ce afin de prévenir les biais. Quoique la volonté de réguler les biais soit louable, ces obligations paraissent lourdes, d’autant plus qu’une IA biaisée sera bien souvent retirée du marché car non efficace. Ce fait soulève la question du sort des micro et petites entreprises. Il n’existe en l’état aucune disposition dérogatoire les concernant. Seul l’article 55 de la proposition leur apporte une aide à la mise en conformité, en leur permettant d’accéder prioritairement aux sandboxes dédiés à l’IA (art. 53 et 54), d’être mieux sensibilisées et de bénéficier d’un canal de communication leur fournissant des orientations et répondant à leurs questions. Une aide ponctuelle ne remplace néanmoins pas les moyens humains et matériels qu’un fournisseur de système d’IA doit investir ; moyens dont disposent aisément les géants du secteur. Il est donc à craindre qu’en l’absence de dérogation autre qu’une aide pour les plus petits opérateurs, la réglementation proposée par la Commission soit constitutive de barrières à l’entrée, laissant aux grands acteurs internationaux une marge de manœuvre plus importante pour s’accroître.

Utilisations de certains autres systèmes d’IA

L’article 52 de l’Intelligence Artificial Act régule trois types de systèmes d’IA, qu’ils soient à haut risque ou non : les systèmes destinés à interagir avec des personnes physiques (§ 1), les systèmes de reconnaissance des émotions de catégorisation biométrique (§ 2) et les systèmes dits de deep fake qui manipulent une image, un son ou une vidéo qui ressemblent à des personnes, choses ou autres entités ou événements existants afin d’en générer un contenu apparaissant à tort comme étant la réalité (§ 3).

Pour ces premiers, les fournisseurs doivent s’assurer que leurs systèmes sont conçus de manière que les personnes aient conscience qu’elles communiquent avec une entité artificielle.

Pour ces deuxièmes, le recueil du consentement est nécessaire.

Pour ces troisièmes, les personnes doivent être informées que le contenu a été généré ou manipulé artificiellement, sauf et sous réserve d’en offrir les garanties appropriées pour les droits et libertés des personnes, si l’usage du deep fake est nécessaire à l’exercice du droit à la liberté d’expression ou du droit à la liberté des arts et des sciences.

Ces obligations ne s’appliquent pas aux systèmes d’IA autorisés par la loi et destinés à détecter, prévenir, enquêter et poursuivre des infractions pénales.

Il est prévu que le non-respect de toute exigence ou obligation autre que celles prévues aux articles 5 et 10 – incluant donc l’article 52 – est passible d’amendes administratives pouvant aller jusqu’à 20 millions d’euros ou, si le contrevenant est une entreprise, 4 % de son chiffre d’affaires annuel mondial total de l’exercice précédent, le montant le plus élevé étant retenu (art. 71, § 4). Ce montant est réduit à 250 000 € pour les institutions, agences et organes de l’Union (art. 72, § 3).

Il est enfin nécessaire de rappeler que ce n’est pas parce que la proposition de règlement ne couvre pas l’intégralité des applications d’intelligence artificielle qu’il n’existe pas de règles qui leur sont applicables. Des obligations de transparences sont par exemple déjà imposées aux plateformes tant entre professionnels (règl. [UE] 2019/1150, 20 juin 2019, P2B) qu’entre professionnel et consommateur (dir. [UE] 2019/2161, 27 nov. 2019, Omnibus). Plus généralement, le règlement général sur la protection des données (RGPD) reste applicable dès lors que le système d’IA effectue un traitement de données à caractère personnel (règl. [UE] 2016/679, 27 avr. 2016). Enfin et pour ne citer qu’une dernière salve d’obligations, l’existence des pratiques commerciales déloyales ne doit pas être oubliée (C. consom., art. L. 121-1 à L. 121-7 ; C. com., art. L. 442-1 à L. 442-11), tout autant que le droit commun des contrats et le droit de la responsabilité civile.

 

Réagissez à cet article

Le contenu de ce champ sera maintenu privé et ne sera pas affiché publiquement.