Accueil
Le quotidien du droit en ligne
-A+A
Article

Les futures lignes directrices du AI Office sur les modèles d’IA, un filet aux mailles trop lâches, reprisé… par un rapport commandé par l’EDPB

Dans le prolongement de ces précédentes lignes directrices sur la notion de système d’IA et sur les pratiques d’IA interdites, l’AI Office soumet actuellement à consultation une proposition de lignes directrices sur les modèles d’IA à usage général, qui envisage principalement des seuils techniques et des listes énumératives pour cerner lesdits modèles, laissant les clarifications conceptuelles attendues sur la notion de modèle d’IA, sur les notions de mise sur le marché et de mise en service et sur la notion de risque, s’opérer dans un rapport commandé parallèlement par l’EDPB sur les risques attachés aux « Grands modèles de langage – Large Langage Models (LLMs) ».

Le contenu de la proposition de lignes directrices sur les modèles d’IA à usage général, assorti d’une consultation publique pendante jusqu’au 22 mai 2025, émis par le Bureau de l’IA prés la Commission européenne (AI Office), prolonge le triple écueil de l’AI Act, consistant non seulement à saisir le modèle et le système d’IA au travers du seul prisme du concept de « produit » au détriment de leur facette de « service », mais également à ne pas opérer de distinction suffisamment précise entre le système (art. 3.1 de l’AI Act) et le modèle d’IA (art. 3.63 de l’AI Act), ni de distinction suffisamment claire entre la mise sur le marché (art. 3.9 de l’AI Act) et la mise en service (art. 3.11 de l’AI Act) du modèle et du système.

Ces futures lignes directrices de l’AI Office ont pourtant pour objectif à contribuer à la bonne compréhension et mise en œuvre du code des bonnes pratiques sur les modèles d’IA à usage général que l’article 56 de l’AI Act imposait à l’AI Office d’établir pour le 2 mai 2025, dans l’optique d’aider les fournisseurs de ces modèles à respecter leurs obligations au titre de l’AI Act  – il sera rappelé, à cet égard, que l’élaboration dudit code est toujours pendante, bien que la date du 2 mai soit dépassée. Ces lignes directrices ne proposent, cependant, principalement que des seuils techniques très généraux, qui n’éclairent que d’une très faible lumière les incertitudes notionnelles existant autour des modèles d’IA à usage général. Ce faisant, de manière paradoxale, c’est un rapport à visée technique commandé par l’European data protection board (EDPB) et remis à celui-ci, le 12 avril dernier, qui souligne l’important constat selon lequel le modèle d’IA, en sa qualité de brique principale du système d’IA, n’est que très rarement proposé sous la forme d’un produit accessible « sur étagère » et qu’il est bien plus souvent mis en service, non pas directement, mais en tant que composant d’un système d’IA proposé sous forme d’un « software as a Service – SaaS », important constat qui pourrait nourrir les futures lignes directrices sur les modèles d’IA de l’AI Office.

Le modèle d’IA appréhendé principalement par l’AI Office au moyen de seuils techniques

Le Bureau de l’IA, le 22 avril 2025, a ainsi publié une proposition de lignes directrices, complétée d’une consultation publique afin de clarifier le sens et la portée, non seulement, des articles 51 et suivants de l’AI Act applicables à compter du 2 août 2025 aux fournisseurs de modèles d’IA à usage général, mais également, du futur code des bonnes pratiques prévu par l’article 56 de l’AI Act, auxquels lesdits fournisseurs pourront adhérer en vue de respecter les articles 51 et suivants.

Précisément, le code des bonnes pratiques a vocation à détailler comment ces fournisseurs peuvent garantir le respect des obligations en matière de documentation et de droits d’auteur qui s’appliquent à tous les fournisseurs de modèles d’IA à usage général en vertu de l’article 53 de l’AI Act. Pour les modèles susceptibles, en outre, de présenter un risque systémique, le code a vocation à décrire de quelle manière les fournisseurs de ces modèles peuvent garantir le respect des obligations en matière d’évaluation et d’atténuation des risques systémiques tout au long du cycle de vie du modèle, conformément à l’article 55 de l’AI Act.

Pour contribuer à la clarification du contenu du code des bonnes pratiques, la Commission européenne, dans le prolongement de ses précédentes lignes directrices, entend précisément s’attaquer, par cette nouvelle proposition, aux questions suivantes relatives aux modèles d’IA : Qu’est-ce qu’un modèle d’IA à usage général ? ; Qui est le fournisseur d’un modèle d’IA à usage général, et quand un modificateur du modèle d’IA « en aval » est-il considéré comme un fournisseur de modèle d’IA ? En quoi consiste la mise sur le marché d’un modèle d’IA à usage général, et quand les exemptions relatives à l’open source s’appliquent-elles ? Quelle estimation des ressources informatiques nécessaires pour l’apprentissage et la modification d’un modèle ?…

Et, pour vérifier l’accueil de ses propositions de réponses auxdites questions, l’AI Office opte pour une consultation principalement ciblée...

Il vous reste 75% à lire.

Vous êtes abonné(e) ou disposez de codes d'accès :