Accueil
Le quotidien du droit en ligne
Envoyer à un ami-A+A
Article

Publication par la Commission de son Livre blanc sur l’intelligence artificielle

Dans le cadre de sa stratégie pour un marché unique numérique, la Commission européenne présente ses orientations en matière d’intelligence artificielle par la parution de son Livre blanc.

par Cécile Crichtonle 28 février 2020

Le Livre blanc « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance », publié le 19 février 2020 et soumis à consultation publique jusqu’au 19 mai 2020, rend compte des axes prioritaires retenus pour l’encadrement à venir de l’intelligence artificielle (IA).

Définition de l’intelligence artificielle

Il importe prioritairement de définir précisément le champ d’application de cette stratégie eu égard aux nombreux mythes planant sur le concept même d’intelligence artificielle et à l’absence de consensus scientifique sur la notion. En cela, la Commission reprend la conception qu’elle avait adoptée lors de sa communication L’intelligence artificielle pour l’Europe du 25 avril 2018 et celle adoptée dans les Lignes directrices en matière d’éthique pour une IA digne de confiance du 8 avril 2019 (Livre blanc, p. 19) ; conception ayant fait l’objet d’une précédente analyse (v. Dalloz actualité, 5 févr. 2020, obs. C. Crichton).

À ce titre, la Commission insiste sur l’exigence d’une définition « suffisamment souple pour tenir compte des progrès techniques tout en étant suffisamment précise pour garantir la sécurité juridique nécessaire » (Livre blanc, p. 19). Or elle poursuit en évoquant les « cas des techniques d’apprentissage automatique », laissant entendre que le machine learning ne serait pas l’unique technique incluse dans le champ de l’intelligence artificielle. Serait-ce une manifestation de volonté d’inclure les systèmes symboliques en sus des systèmes connexionnistes ? Ou serait-ce une anticipation des progrès futurs, par lesquels il n’est pas exclu de découvrir de nouveaux systèmes ? La combinaison de ces deux hypothèses semble privilégiée, mais il convient de rester prudent en l’absence de motivation donnée par la Commission.

Approche fondée sur le risque

Dans son Livre blanc, la Commission européenne présente son plan pour une politique industrielle. Outre cette stratégie, elle définit ses orientations globales en matière de régulation de l’intelligence artificielle. Elle rappelle que le cadre réglementaire préexistant – protection des données à caractère personnel ou du consommateur, notamment – est applicable à l’intelligence artificielle. Toutefois, certaines problématiques inhérentes à ces technologies génèrent de nouveaux risques, qui, selon la Commission, portent sur l’atteinte aux droits fondamentaux, d’une part, et sur la sécurité et le bon fonctionnement du régime de responsabilité, d’autre part (p. 12-15). Afin de s’en prémunir est prévue l’adaptation d’un certain nombre de règles (p. 15-16), mais aussi et surtout la création de nouvelles mesures (p. 21-26).

Ces nouvelles mesures seront uniquement imputables aux applications d’intelligence artificielle « à haut risque » (p. 20-21), étant précisé que le haut risque est déterminé en fonction de deux critères cumulatifs : d’une part, en fonction du secteur (par ex. « les soins de santé, les transports, l’énergie et certains pans du secteur public ») et, d’autre part, en fonction de l’utilisation en elle-même. En effet, précise la Commission, un secteur à haut risque peut recevoir des applications ne portant pas de risque, à l’instar d’un « système de planification des rendez-vous dans un hôpital ».

À titre exceptionnel, certains usages n’entrant pas dans ces catégories peuvent être considérés à risque et donc être soumis à la même réglementation. La Commission prend les exemples de « l’utilisation d’applications d’IA dans les procédures de recrutement et dans des situations ayant une incidence sur les droits des travailleurs » et de « l’utilisation d’applications d’IA à des fins d’identification biométrique à distance et pour d’autres technologies de surveillance intrusive » (p. 21).

Orientations juridiques

Sans toutefois énoncer précisément quelles seraient les mesures imputables aux applications d’intelligence artificielle à haut risque, le Livre blanc en présente les exigences générales, qui constitueront le socle d’une future réglementation. Eu égard à la pluralité d’intervenants sur une intelligence artificielle, la Commission estime que « chaque obligation devrait s’appliquer à l’acteur ou aux acteurs qui sont le mieux placés pour éliminer tout risque potentiel » (p. 26), en prenant l’exemple du développeur mieux à même d’éliminer les risques liés à la phase de développement et le déployeur qui serait en mesure de maîtriser les risques au cours de la phase d’utilisation. Les obligations seraient applicables à toute intelligence artificielle développée dans l’Union européenne, que les acteurs économiques concernés soient ou non établis sur le territoire (p. 26).

Les exigences imputables aux applications d’intelligence artificielle à haut risque sont regroupées sous six thèmes (p. 21-26) :

Données d’entraînement, notamment afin de s’assurer du respect des exigences en matière de sécurité et de protection des droits fondamentaux ;

Conservation des dossiers et des données, plus précisément, des « dossiers de programmation de l’algorithme et des données utilisées pour entraîner les systèmes d’IA à haut risque, et, dans certains cas, […] des données elles-mêmes » en vue de pouvoir correctement vérifier la conformité des systèmes d’intelligence artificielle ;

Fourniture d’information, afin de satisfaire aux exigences de transparence et de renforcer la confiance envers les systèmes d’intelligence artificielle ;

Robustesse et précision, notamment en termes de fiabilité et de sécurité afin de « réduire autant que possible le risque de préjudice » ;

Contrôle humain, qui « contribue à éviter qu’un système d’IA ne mette en péril l’autonomie humaine ou ne provoque d’autres effets néfastes » et dont l’intensité doit dépendre de l’utilisation prévue de l’intelligence artificielle et de ses incidences potentielles ;

Exigences spécifiques pour l’identification biométrique à distance, qui « comportent des risques particuliers en termes de droits fondamentaux » et dont l’utilisation doit être « dûment justifiée, proportionnée et assortie de garanties adéquates ».

Concernant les applications d’intelligence artificielle qui ne sont pas considérées comme étant à haut risque, la Commission envisage la création d’un label non obligatoire, dont les exigences deviendraient contraignantes dès lors que les opérateurs concernés choisissent d’y souscrire (p. 28).

 

Réagissez à cet article

Le contenu de ce champ sera maintenu privé et ne sera pas affiché publiquement.