Accueil
Le quotidien du droit en ligne
-A+A
Le droit en débats

Quelle protection pour les outils d’intelligence artificielle ?

Le développement des outils de l’intelligence artificielle (IA) et celui de l’activité économique qui y est liée connaît une importante croissance. Or, la protection de ces outils par le droit français de la propriété intellectuelle est parfois considérée comme peu satisfaisante. Dans ce contexte, nombre de praticiens favorisent le recours à d’autres outils juridiques comme le secret des affaires ou les contrats. Ce décalage du droit de la propriété intellectuelle vers le droit économique permet-il de garantir le même équilibre entre encouragement de l’innovation et accès à l’innovation ? Vous trouverez ci-après quelques éléments de définitions puis de réflexion sur ce vaste sujet.

Le sujet portant sur la protection des outils de l’IA nous ne traiterons ni de la manière selon laquelle les données d’entraînement sont acquises ni des résultats de leur usage.

Par Nathalie de Quatrebarbes le 14 Décembre 2023

Éléments de définition

Avant d’étudier l’application du droit à un objet, il convient de le définir. La tâche n’est pas aisée pour l’IA, les définitions varient. Elles s’attachent notamment au caractère évolutif de l’IA1, aux techniques utilisées2, à son autonomie et aux résultats recherchés3.

Algorithme, logiciel, données, un certain nombre d’éléments liés à l’IA peuvent présenter une valeur économique substantielle. Je comprends de ma pratique, qu’en matière d’apprentissage automatique (machine learning), il existe (dans les grandes lignes) un algorithme d’apprentissage incorporé dans un logiciel qui est ensuite entrainé sur des données dites d’entrainement. Cet entraînement permettra la création d’un modèle mathématique dit d’inférence4. Une fois entraîné et testé sur des données dites de validation, le logiciel pourra remplir la fonction qui est la sienne : donner une recommandation, reconnaître un visage, créer un tableau, etc. Pour ce faire, le logiciel appréhendera certaines données dites d’entrée (ex : la situation à diagnostiquer, le visage à reconnaître, les paramètres du dessin à réaliser) et communiquera des données dites de sortie (ex : la recommandation, l’identité d’une personne, le dessin). C’est aux outils de l’IA de cette technique d’apprentissage automatique que cet article s’intéressera.

Éléments de réflexion sur la protection par le droit de la propriété intellectuelle

La protection du logiciel ne me semble pas poser en soi de difficultés spécifiques à l’IA. Qu’en est-il de celle de l’algorithme, des données d’entraînement et du modèle d’inférence ?

L’algorithme

La CNIL définit l’algorithme comme « la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. ». De prime abord, sa protection semble pouvoir être recherchée dans le droit d’auteur spécial au logiciel. La directive (CE) 2009/24 du 23 avril 2009 fait d’ailleurs référence à l’algorithme pour en exclure la protection des idées et principes se trouvant à sa base. Elle ne précise toutefois pas comment différencier ces idées et principes de l’algorithme lui-même. Concernent-ils les règles mathématiques et logiques sur lequel l’algorithme repose ou la suite d’étapes qui le constitue, sachant que celle-ci peut être formalisée par des mots, des dessins, voire par un pseudo code ? Les juridictions françaises semblent exclure la protection de l’algorithme lui-même, c’est-à-dire la suite d’étapes sans toutefois préciser clairement le détail de leur raisonnement5. La doctrine semble considérer cette suite d’étapes comme une abstraction assimilée aux idées par essence non protégeables, ainsi qu’aux fonctionnalités6 que la Cour de justice de l’Union européenne (CJUE) exclut du champ des objets protégeables sans toutefois clairement les définir7. Seront éligibles à la protection les formes d’expression du programme ainsi que les travaux préparatoires de conception susceptibles d’aboutir respectivement, à la reproduction ou à la réalisation ultérieure du programme8, sous réserve bien sûr de leur originalité. Il s’agit par exemple, des codes source et objet mettant l’algorithme en œuvre, le dossier d’analyse, les spécifications techniques9 ainsi que des schémas décrivant les traitements à effectuer. Considérer l’algorithme comme une idée rend la protection offerte par le droit d’auteur peu efficace. Il entrerait alors dans les exceptions de rétroingénierie prévues par les articles L.122-6.1 du code de la propriété intellectuelle et 5.3 de la directive10.

Les chances que le droit d’auteur commun permette la protection de l’algorithme sont tout aussi minces si celui-ci reste assimilé aux idées, ces dernières étant elles aussi exclues de cette protection. En outre, même si l’algorithme était considéré comme un objet protégeable, encore faudrait-il que celui-ci remplisse le critère de protection : l’originalité. Les possibilités que ce critère puisse être rempli sont minces lorsque la réalisation de l’objet concerné a été déterminée par des considérations techniques, par des règles ou par d’autres contraintes, comme on imagine que cela puisse être le cas de l’algorithme. En effet, la CJUE a jugé qu’il n’y a pas originalité si lesdites contraintes n’ont pas laissé de place à l’exercice d’une liberté créative11. Elle considère en effet, que dans ces cas les différentes manières de mettre en œuvre une idée sont si limitées que « l’idée et l’expression se confondent »12. La CJUE précise toutefois dans une décision plus récente, qu’un objet est protégeable même si sa réalisation a été dictée par des considérations techniques, pour autant « qu’une telle détermination n’a pas empêché l’auteur de refléter sa personnalité dans cet objet, en manifestant des choix libres et créatifs »13. De tels choix libres et créatifs peuvent-ils vraiment exister en matière d’algorithmes ?

Pour les mêmes raisons attachées à la non-protection des idées, la protection des algorithmes en tant que tels par le brevet n’est pas possible14. Cette protection n’est accessible qu’aux inventions15 c’est-à-dire aux solutions techniques apportées à un problème technique. Les directives de l’Office européen des brevets précisent que les orientations relatives aux méthodes mathématiques s’appliquent de manière générale aux algorithmes16. Passé l’écueil de l’existence d’une invention, l’objet de la protection recherchée devra encore être considéré nouveau, inventif et susceptible d’application industrielle. Le sujet peut être délicat. Toutefois, malgré les difficultés, des brevets peuvent être obtenus.
La question se pose toutefois de savoir si le brevet constitue une protection efficace. En effet, malgré l’augmentation du nombre de dépôts relatifs à l’IA, les contentieux judiciaires y étant relatifs sont pour le moins limités en France. Cela peut s’expliquer par de nombreuses raisons (ex : le temps et la difficulté d’obtention de brevets délivrés, les moyens de certains déposants, la culture de l’industrie). Les difficultés d’identification de la contrefaçon semblent pouvoir aussi y jouer un rôle. Selon la rédaction de la revendication, la détection de la contrefaçon peut s’avérer difficile. Dans ce cas, l’invention est alors divulguée à tous par la publication du brevet sans que ses éventuels contrefacteurs puissent être facilement identifiés.

Les données d’entraînement

Le logiciel d’IA doit être entraîné sur des jeux de données d’entraînement afin d’apprendre à accomplir la fonction à laquelle il est destiné. Selon les techniques utilisées, ces données devront avoir été préalablement préparées (ex : étiquetées, nettoyées, etc.) ou non et l’entraînement guidé ou non par un humain.

Le droit d’auteur peut protéger des reproductions ou représentations non autorisées, les données (ex : des images, des photographies) ainsi que la structure de la base qui les recueille17, c’est-à-dire le choix ou la disposition des matières18 à condition que celles-ci soient originales. En matière d’IA, la protection de la structure peut être fortement impactée par le caractère fonctionnel des choix opérés (v. supra). Elle le sera tout autant par la qualité de « l’auteur » de ces choix. Différents auteurs considèrent en effet, que l’originalité permettant la protection par le droit d’auteur est attachée à une personne physique et ne saurait donc résulter d’une machine. La CJUE a jugé qu’une œuvre originale s’entend d’une œuvre qui est « la création intellectuelle propre de son auteur »19. Cette originalité requiert le reflet de « la personnalité » de l’auteur. « Tel est le cas si l’auteur a pu exprimer ses capacités créatives lors de la réalisation de l’œuvre en effectuant des choix libres et créatifs »20. Or tant cette personnalité que la liberté créative qui la sous-tend, semblent attachées à l’humain et étrangères à la machine.
Le droit sui generis des bases de données permet de protéger le contenu de la base contre l’extraction et/ou la réutilisation non autorisée d’une partie substantielle de celui-ci, indépendamment de son originalité21. Il requiert la réalisation d’investissements financiers, matériels et/ou humains substantiels22 liés à l’obtention23, la vérification24 ou à la présentation du contenu de la base25. À mon sens ce critère requiert une attention particulière. Bien qu’ils ne soient pas les seuls réalisés quant à la constitution de jeux d’entraînement, la CJUE a jugé que les investissements mis en œuvre pour la création du contenu ne permettront pas l’obtention de la protection du droit sui generis26.
À noter que le projet de règlement européen Data Act précise que le droit sui generis sur les bases de données ne s’applique pas aux bases de données obtenues ou générées au moyen de composants physiques tels que des capteurs, des produits connectés et/ou des services qui leurs sont liés ou d’autres données générées par les machines27.

En matière d’IA et de données, de nombreuses questions se posent quant à la manière dont les jeux de données sont constitués. Différentes voix se font entendre notamment quant à l’application de l’exception de fouille de textes et de données prévue par la directive (UE) 2019/790 du 17 avril 2019 et au web scrapping.
Toutefois, ce pan du sujet ne concernant pas la protection des outils de l’IA en tant que tels, il ne sera pas approfondi dans cet article. Il en va de même pour la protection des données de sortie.

La protection du modèle d’inférence

D’après un article de M. Deltorn, « Le "modèle" est en pratique constitué d’une combinaison de plusieurs éléments, dont, en particulier, une structure de données (par exemple, une arborescence, dans le cas d’arbres de décision, une paire [vecteur, scalaire] dans le cas d’une régression logistique, un ensemble d’unités et de liens, pour un réseau de neurones, etc.), et des paramètres peuplant ces structures, déterminés lors d’une phase d’apprentissage »28.

La protection du modèle d’inférence par le droit d’auteur, se heurtera donc probablement à des difficultés similaires à celles évoquées au sujet de l’algorithme.
La protection du modèle d’inférence par le droit sui generis des bases de données est avancée par certains auteurs. Le modèle serait alors considéré comme une base dont les paramètres seraient les données. Même si la notion de base de données bénéficie d’une portée large, cela me semble toutefois discutable. En effet, l’obtention de cette protection me semble pouvoir être limitée par l’exclusion des investissements mis en œuvre pour la création de la donnée29. Quant à la prise en compte des investissements liés à l’optimisation des paramètres, elle semble tout aussi discutable, ceux-ci ne semblant ni réellement liés à la vérification de la fiabilité des données au cours de la vie de la base, ni à la présentation de celle-ci30 (v. supra). Enfin, se pose la question de savoir si les paramètres du modèle constituent effectivement des éléments indépendants individuellement accessibles comme le requiert la directive31.
La protection des modèles d’IA peut aussi être recherchée par le brevet. Les conditions d’obtention de ces brevets semblent toutefois aussi difficiles que celles de ceux liés à un algorithme.

À noter que certains auteurs se posent la question de savoir si l’IA peut constituer une œuvre complexe32.

Éléments de réflexion sur l’équilibre existant

La protection des outils d’IA par les droits de propriété intellectuelle traditionnels interroge depuis plusieurs années33. Les limites et incertitudes de cette protection poussent les praticiens à recourir à des restrictions physiques d’accès, au secret des affaires, au droit des obligations ou encore à celui de la responsabilité civile délictuelle. Ces moyens de protection permettent-il toutefois d’offrir un équilibre satisfaisant entre encouragement de l’innovation et de la créativité et accès à la connaissance et à l’information ? Les monopoles accordés en matière de propriété intellectuelle sont limités dans le temps. Ils connaissent aussi des exceptions.

Certaines sont destinées à permettre la circulation des idées34, la recherche35, ou encore à éviter la création d’un monopole trop important. Protéger les outils de l’IA par d’autres moyens que les droits de la propriété intellectuelle peut impacter les limites du droit qui peut être obtenu sur un outil d’innovation36. D’autres fondements juridiques pourront entrer en jeu pour limiter ce droit, notamment le droit économique (ex : droit de la concurrence), celui des obligations et les libertés fondamentales. La question est de savoir si cette situation est équilibrée pour la société. Le sujet est d’importance à l’heure où les contrats sur ces nouveaux objets se multiplient.

 

1. La proposition de loi constitutionnelle n° 2585 du 15 janv. 2020, relative à la charte de l’intelligence artificielle et des algorithmes, entendait la notion d’intelligence artificielle « comme un algorithme évolutif dans sa structure, apprenant, au regard de sa rédaction initiale ».
2. La proposition de « Règlement du Parlement européen et du conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union » 2021/0106 (COD) du 21 avr. 2021 définissait le « système d’intelligence artificielle » comme « un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches (…) » spécifiques « et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ». Les techniques suivantes étaient énumérées : l’apprentissage automatique, les approches fondées sur la logique et les connaissances ainsi que les approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation.
3. Amendements au règl. « Loi IA » cité dans la note 2, supra, et proposés par le Parlement européen le 14 juin 2023 : « a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions, that influence physical or virtual environments ».
4. J.-M. Deltorn, Quelle(s) protection(s) pour les modèles d’inférence, Cahiers droit, sciences et technologies.  
5. En ce sens, Caen, ch. des appels corr., 18 mars 2015 ; Paris, 24 nov. 2015, n° 13/24577 ; Civ. 1re, 14 nov. 2013, n° 12-20.687, D. 2014. 2078, obs. P. Sirinelli ; ibid. 2317, obs. J. Larrieu, C. Le Stanc et P. Tréfigny ; RTD com. 2013. 708, obs. F. Pollaud-Dulian ; Montpellier, 20 mars 2012, n° 11/01472, la non protection de l’algorithme n’était pas contestée eu égard à une question d’originalité.
6. A. Bensamoun et G. Loiseau (dir.), Droit de l’intelligence artificielle, 2e éd., LGDJ, pts 455 s. ; R. Duprez, L’application du droit d’auteur au protocole de communication, CCE n° 9, sept. 2020. Étude 16 ; J.-Cl. PLA, fasc. 1160, Objet du droit d’auteur – Œuvres protégées. Logiciels (CPI, art. L. 112-2), par A. Lucas, pt 13
7. F. Macrez, Le droit d’auteur, le programme d’ordinateur et la Cour de justice, RIDA  2012. 234, p. 191-287.
8. CJUE 22 déc. 2010, Bezpečnostní softwarová asociace, aff. C-393/09, pts 35 s., D. 2011. 2164, obs. P. Sirinelli ; ibid. 2363, obs. J. Larrieu, C. Le Stanc et P. Tréfigny-Goy ; RTD com. 2011. 333, obs. F. Pollaud-Dulian
9. La spécification ne fait pas partie de l’algorithme (elle décrit le « quoi », pas le « comment »).
10. V. aussi, CJUE 2 mai 2012, SAS Institute c/ WPL, aff. C-406/10, pt 40, D. 2012. 1186, et les obs. ; ibid. 2343, obs. J. Larrieu, C. Le Stanc et P. Tréfigny ; ibid. 2836, obs. P. Sirinelli ; RTD com. 2012. 536, obs. F. Pollaud-Dulian .
11. CJUE 1er mars 2012, Football Dataco, aff. C-604/10, pts 39 et 42, D. 2012. 735 ; ibid. 2836, obs. P. Sirinelli ; Légipresse 2012. 207 et les obs. ; RTD com. 2013. 739, chron. P. Gaudrat ; 12 sept. 2019, COFEMEL, aff. C-683/17, pt 31, D. 2019. 1759 ; ibid. 2020. 1588, obs. J.-C. Galloux et P. Kamina ; RTD com. 2020. 54, obs. F. Pollaud-Dulian ; RTD eur. 2019. 930, obs. E. Treppoz .
12. CJUE 22 déc. 2010, Bezpečnostní softwarová asociace, préc., pts 48 à 50.
13. CJUE 11 juin 2020, Brompton Bicycle Ltd, aff. C-833/18, pt 26, D. 2020. 1293 ; ibid. 1588, obs. J.-C. Galloux et P. Kamina ; Dalloz IP/IT 2020. 626, obs. Y. Gaubiac ; RTD com. 2020. 621, obs. F. Pollaud-Dulian .
14. Les algorithmes sur lesquels reposent l’IA « sont, en tant que tels, de nature mathématiquement abstraite, indépendamment de la question de savoir s’ils peuvent être « entraînés » à partir de données d’entraînement ».
15. CBE, art. 52 ; CPI, art. L. 611-10.
16. V. Directives relatives à l’examen pratiqué à l’Office européen des brevets ; La délivrance des brevets et des certificats d’utilité–Directives brevets et certificats d’utilité (C-VII-1.3.2).
17. On entend par base de données « un recueil d’œuvres, de données ou d’autres éléments indépendants, disposés de manière systématique ou méthodique et individuellement accessibles par des moyens électroniques ou d’une autre manière », Dir. 96/9/CE, art. 1.
18. Dir. 96/9/CE, art. 3.
19. CJCE 16 juill. 2009, Infopaq International A/S, aff. C-5/08, pt 37, D. 2011. 2164, obs. P. Sirinelli ; RTD com. 2009. 715, obs. F. Pollaud-Dulian ; RTD eur. 2010. 939, chron. E. Treppoz .
20. CJUE 1er déc. 2011, Painer, aff. C-145/10, pts 88-89, 94, 99, D. 2012. 471, obs. J. Daleau , note N. Martial-Braz ; ibid. 1228, obs. H. Gaudemet-Tallon et F. Jault-Seseke ; ibid. 2836, obs. P. Sirinelli ; Légipresse 2012. 12 et les obs. ; ibid. 161, comm. J. Antippas ; RTD com. 2012. 109, obs. F. Pollaud-Dulian ; ibid. 118, obs. F. Pollaud-Dulian ; ibid. 120, obs. F. Pollaud-Dulian .
21. Dans le sens de la distinction des données et œuvres de l’esprit, Dir. 96/4/CE, préambules 17 et 45.
22. Dir. 96/9/CE, art. 7. 
23. « Les moyens consacrés à la recherche d’éléments existants et à leur rassemblement dans ladite base, à l’exclusion des moyens mis en œuvre pour la création même d’éléments », CJUE aff. C-203/02, préc. § 31 ; Com. 10 févr. 2015, n° 12-26.023 ; 5 mars 2009, n° 07-19.734, D. 2009. 948, obs. J. Daleau ; RTD com. 2009. 724, obs. F. Pollaud-Dulian ; Paris, 2 févr. 2021, n° 17/17688, D. 2021. 2152, obs. J. Larrieu, C. Le Stanc et P. Tréfigny .
24. « Les moyens consacrés, en vue d’assurer la fiabilité́ de l’information contenue dans ladite base, au contrôle de l’exactitude des éléments recherchés, lors de la constitution de cette base ainsi que pendant la période de fonctionnement de celle-ci. Les moyens consacrés à des opérations de vérification au cours de la phase de création de données ou d’autres éléments par la suite rassemblés dans une base constituent, en revanche, des moyens relatifs à cette création et ne peuvent dès lors être pris en compte ».
25. « Les moyens visant à conférer à ladite base sa fonction de traitement de l’information, à savoir ceux consacrés à la disposition systématique ou méthodique des éléments contenus dans cette base ainsi qu’à l’organisation de leur accessibilité́ individuelle ».
26. V. note, ss pt 22.
27. Consid. 112, art. 43 ; European Parliament legislative resolution of November 9, 2023 on the proposal for a regulation of the European Parliament and the Council on harmonised rules on fair access to and use of data (Data Act) (COM [2022]0068 - C9-0051/2022-2022/004[COD]).
28. J.-M Deltorn, Quelle(s) protection(s) pour les modèles d’inférence ?, préc.
29. V. la partie supra, sur les données d’entrainement.
30. En ce sens, J.-M. Brugière, Intelligence artificielle et droit d’auteur – Sortir de la science-fiction des « machines/auteurs », entrer dans la réalité du droit des données, CCE n° 6, juin 2020. Étude 11.
31. CJCE 9 nov. 2004, Fixtures Marketing, aff. C-444/02, pts 29 à 32, RTD com. 2005. 90, obs. F. Pollaud-Dulian ; CJUE 29 oct. 2015, Freistaat Bayern, aff. C-490/14, §§ 22-27, D. 2016. 2141, obs. J. Larrieu, C. Le Stanc et P. Tréfigny ; Dalloz IP/IT 2016. 89, obs. V.-L. Benabou ; RTD com. 2016. 125, obs. F. Pollaud-Dulian .
32. Droit de l’intelligence artificielle, op. cit., pts 467 s.
33. Rapport sur les droits de propriété intellectuelle pour le développement des technologies liées à l’intelligence artificielle (2020/2015[INI]), 2 oct. 2020.
34. CPI, art. L. 122-6-1, III.
35. CPI, art. L. 613-5, b).
36. V. sur ce point, CJUE 15 janv. 2015, Ryanair Ltd. PR Aviation BV, aff. C-30/14, D. 2015. 2214, obs. J. Larrieu, C. Le Stanc et P. Tréfigny ; RTD com. 2015. 294, obs. F. Pollaud-Dulian ; Paris, 20 mai 2022 n° 18/07621 ; J. Larrieu, Base de données : le droit sui generis en peril ?, Propr. ind. 2022. Comm. 5 ; Propriété intellectuelle – L’influence de la jurisprudence de la Cour de justice de l’Union européenne sur le droit d’auteur français des logiciels et des bases de données, CCE, n° 1, janv. 2019, étude Y. Bismuth.