Accueil
Le quotidien du droit en ligne
-A+A
Article

Analyse du projet de loi américain sur la divulgation des données d’entraînement des IA génératives

En plein cœur de débats judiciaires toujours plus nombreux aux États-Unis, intervient la proposition de loi « Generative AI Copyright Disclosure Act of 2024 » qui pourrait fortement impacter la régulation des modèles d’intelligence artificielle générative. Cette proposition de loi obligerait les entreprises à divulguer les données d’entraînement de leurs modèles d’intelligence artificielle générative, y compris ceux déjà mis sur le marché. Certaines de ses dispositions ambitieuses pourraient résonner au-delà des frontières américaines. L’analyse ci-dessous explore les dispositions de cette proposition de loi, son impact potentiel sur les pratiques industrielles et les enjeux concurrentiels mondiaux.

Au beau milieu d’affaires judiciaires toujours plus nombreuses outre-Atlantique, qui mettent en cause les modalités d’entraînement des modèles d’intelligence artificielle générative (IAG), une proposition de loi intitulée « Generative AI Copyright Disclosure Act of 2024 » a été introduite le 9 avril dernier devant le Congrès américain.

En 2024, l’étau se resserre autour des entreprises qui développent des systèmes d’IAG concernant la violation des droits sur les contenus peuplant les bases de données d’entraînement des IA. En décembre dernier, la plainte du New York Times à l’encontre d’OpenAI et Microsoft pour violation du copyright a marqué un point de bascule qui a été suivi de réactions en chaîne.

Quelques semaines après la plainte du New York Times, OpenAI a conclu plusieurs partenariats avec de grands groupes de presse dans plusieurs pays (not. avec Axel Springer en Allemagne, Financial Times en Angleterre et Le Monde en France) afin de pouvoir puiser licitement dans leurs ressources et ainsi améliorer la qualité des réponses de son modèle d’IAG, ChatGPT.

L’entreprise OpenAI vient même d’annoncer qu’elle travaille sur le développement d’un outil appelé « Media Manager », en collaboration avec « les ayants droit et les régulateurs » et dont l’ambition est d’établir une norme de transparence et de respect des droits des créateurs dans l’industrie des IAG d’ici 2025.

Dans la sphère judiciaire, plusieurs affaires en cours pourraient, à l’instar de la plainte du New York Times à l’encontre d’OpenAI et de Microsoft, impacter les lois actuelles et futures sur la propriété intellectuelle à l’ère des IAG. Parmi ces affaires, celle qui oppose plusieurs artistes à Midjourney, Stability AI et DeviantArt vient de connaître un rebondissement, puisque le juge californien a donné son aval le 7 mai dernier pour entamer la procédure de divulgation (discovery en anglais). Cette procédure permettra notamment d’investiguer les modalités techniques de l’entraînement des IAG et de déterminer si des actes contrefaisants peuvent être caractérisés.

Il convient néanmoins de noter que si la querelle judiciaire au sujet des données d’entraînement des IAG agite particulièrement les États-Unis en ce moment, l’actualité judiciaire à ce sujet au sein de l’Union européenne est beaucoup plus calme. La directive DSM de 2019 qui a instauré une exception pour fouille de textes et de données en faveur des systèmes d’IA n’y est pas pour rien. Le débat concernant l’application de cette exception pour fouilles de textes et de données dans le contexte de l’entraînement des IAG pourrait néanmoins s’animer prochainement, en réaction aux solutions légales et jurisprudentielles qui seront adoptées outre-Atlantique.

La proposition de loi américaine dont nous vous soumettons l’analyse pourrait susciter des réactions au sein de l’Union européenne, dans la mesure où ses ambitions concernant la transparence des bases de données d’entraînement des IAG semblent, a priori, plus abouties que celles récemment adoptées à l’échelle européenne.

Analyse des dispositions de la proposition de loi

L’ambition du projet de loi « Generative AI Copyright...

Il vous reste 75% à lire.

Vous êtes abonné(e) ou disposez de codes d'accès :