Accueil
Le quotidien du droit en ligne
-A+A
Article

Panorama rapide de l’actualité « Technologies de l’information » de la semaine du 16 juin 2025

Sélecton de l’actualité « Technologies de l’information » marquante de la semaine du 16 juin.

Données personnelles

OpenAI sommée par la justice américaine de conserver ses données de conversation générées

  • Dans le cadre du litige en cours pour contrefaçon de droits d’auteur, une juge fédérale américaine (SDNY) a ordonné à OpenAI par une ordonnance rendue le 13 mai 2025, de préserver et de segmenter les journaux de sortie (output log data) qui seraient autrement supprimés — y compris ceux effacés à la demande des utilisateurs ou pour se conformer à des lois sur la vie privée.
    Les journaux de sortie désignent les enregistrements des réponses générées par les modèles d’intelligence artificielle dans le cadre des interactions avec les utilisateurs.
    Cette mesure conservatoire a été ordonnée dans le cadre du litige opposant The New York Times à OpenAI et Microsoft, au titre duquel il est allégué que des millions d’articles publiés par le New York Times auraient été incorporés, sans autorisation, dans les ensembles de données utilisés pour l’entraînement des modèles de langage d’OpenAI, constituant ainsi des actes de contrefaçon de droits d’auteur. La décision a pour finalité d’assurer la conservation de preuves susceptibles de présenter un intérêt au soutien des prétentions respectives des parties, en particulier s’agissant des données qui, selon les pratiques habituelles d’OpenAI, sont détruites à la demande des utilisateurs.
    La question de la préservation des journaux de sortie avait été abordée dès janvier 2025, à l’occasion d’une conférence judiciaire. À cette date, la magistrate avait rejeté une demande tendant à la conservation générale de l’ensemble des données générées par les systèmes d’OpenAI. Elle avait toutefois interrogé les parties sur la possibilité de segmenter les journaux de sortie relatifs aux utilisateurs ayant expressément demandé leur suppression, ou de les anonymiser de manière à concilier la préservation des preuves avec les préoccupations légitimes tenant au respect de la vie privée. La position exprimée par OpenAI au cours de cette audience consistait à refuser une injonction générale à la conservation, en invoquant à la fois les préférences exprimées par les utilisateurs et la nécessité de se conformer aux législations nationales et internationales en matière de protection des données et de confidentialité.
    L’ordonnance du 13 mai 2025 intervient à la suite du renouvellement par les demandeurs de leur requête tendant à voir ordonner la conservation de l’ensemble des journaux de sortie générés à l’avenir. La juridiction fédérale relève qu’OpenAI, dans ses observations écrites les plus récentes, n’a pas indiqué de manière claire si elle avait pris les mesures nécessaires pour préserver et segmenter ces données en l’absence d’une décision judiciaire contraignante. Il en ressort que, sans injonction expresse du tribunal, ces journaux continueraient à être supprimés, y compris lorsqu’ils sont visés par des demandes spécifiques des utilisateurs ou par des obligations légales invoquées au titre de la protection de la confidentialité. Le tribunal a ainsi jugé que la préservation de ces données était nécessaire afin de garantir l’intégrité de la procédure, sans préjudice des droits des utilisateurs ou des obligations réglementaires, sous réserve d’une décision ultérieure. En conséquence, l’ordonnance enjoint à OpenAI de conserver et de segmenter, jusqu’à nouvel ordre du tribunal, l’ensemble des journaux de sortie générés qui seraient autrement supprimés.  (US District Court southern of New York, Order, 12 mai 2025, OpenIA inc., Copyright Infringement Litigation)

La CNIL précise les conditions de l’intérêt légitime face au développement des systèmes d’intelligence artificielle

  • Par une publication du 19 juin 2025, la CNIL a adopté des recommandations visant à encadrer le recours à l’intérêt légitime comme base légale du traitement des données à caractère personnel dans le cadre du développement des systèmes d’IA.
    Ces recommandations s’inscrivent dans le cadre du plan d’action sur l’IA initié par la CNIL en mai 2023 et ont pour finalité de clarifier l’articulation entre les exigences issues du RGPD et pratiques des responsables de traitement impliqués dans la conception et le développement des systèmes d’IA.
    La CNIL rappelle, dans le prolongement de l’avis adopté par le Comité européen de la protection des données (CEPD) en décembre 2024, que le développement des systèmes d’IA ne requiert pas nécessairement le consentement des personnes concernées, l’intérêt légitime pouvant constituer une base légale appropriée sous réserve de la mise en œuvre de garanties renforcées. Les recommandations précisent les conditions dans lesquelles l’intérêt légitime peut être valablement invoqué. À cet égard, trois conditions cumulatives sont rappelées pour que les acteurs privés puissent se fonder sur l’intérêt légitime : (i) l’intérêt poursuivi doit être légitime, c’est-à-dire licite et défini de manière précise et réelle, (ii) le recours aux données à caractère personnel doit être nécessaire à la réalisation de l’objectif poursuivi, en ce qu’il n’est pas possible d’y parvenir au moyen de données anonymisées ou non personnelles et (iii) le traitement ne doit pas porter une atteinte disproportionnée aux droits et libertés des personnes concernées, ce qui suppose une analyse tenant compte de la nature des données traitées, la finalité poursuivie ainsi que les garanties mises en œuvre.
    Les recommandations de la CNIL proposent des exemples de garanties concrètes que les responsables de traitement doivent adopter afin de respecter ce cadre. Il s’agit notamment de la mise en œuvre de mesures de pseudonymisation ou d’anonymisation, de la limitation des accès aux données, de l’exclusion de certaines catégories de données de la collecte, de l’information renforcée des personnes concernées, de la facilitation de l’exercice des droits, de la mise en œuvre d’un droit d’opposition effectif, ainsi que de la réalisation d’analyses d’impact sur la protection des données lorsque les traitements présentent des risques élevés pour les droits et libertés des personnes.
    La CNIL annonce la poursuite de ses travaux avec la publication à venir de recommandations complémentaires portant notamment sur le statut des modèles d’IA au regard du RGPD. Elle précise enfin que ces recommandations s’inscrivent dans un cadre de coopération européenne, en lien avec les travaux conduits au sein du CEPD sur l’articulation entre le RGPD et le règlement sur l’intelligence artificielle (RIA), ainsi qu’avec les initiatives du Bureau de l’IA de la Commission européenne relatives à l’élaboration d’un code de bonnes pratiques applicable aux systèmes d’IA à usage général. (CNIL, Développement des systèmes d’IA : la CNIL publie ses recommandations sur l’intérêt légitime, 19 juin 2025)

Tous les moyens techniques ne sont pas valables pour lutter contre le narcotrafic

  • Par une décision du 12 juin 2025, le Conseil constitutionnel a censuré partiellement la loi du 13 juin 2025 visant à sortir la France du piège du narcotrafic, en rappelant que l’efficacité de la lutte contre la criminalité, si légitime, ne peut justifier l’usage de moyens techniques portant une atteinte disproportionnée aux droits et libertés constitutionnellement protégés.
    Ce texte entendait renforcer les outils de lutte contre le narcotrafic à travers plusieurs dispositifs, notamment l’accès des services de renseignement à des fichiers administratifs, la mise en œuvre de traitements algorithmiques de données de connexion à des fins de détection, ainsi que des mesures de fermeture administrative de locaux ou de gel des avoirs.
    Le Conseil a ainsi censuré l’article 15 de la loi, qui autorisait un traitement automatisé de données de nature algorithmique à la détection des connexions susceptibles de révéler des menaces relatives à la criminalité et à la délinquance organisée. Tout en reconnaissant que ces dispositions poursuivent un objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la prévention des infractions, il a considéré que le dispositif permettait une surveillance généralisée et indifférenciée des connexions, portant ainsi une atteinte disproportionnée au droit au respect de la vie privée.
    Le Conseil a également déclaré contraire à la Constitution l’article 5 de la loi, qui permettait aux services de renseignement d’accéder à plusieurs fichiers administratifs contenant des données fiscales, patrimoniales et bancaires. Bien que le législateur ait poursuivi un objectif d’intérêt général en renforçant les capacités opérationnelles de ces services dans la sauvegarde des intérêts fondamentaux de la Nation, le Conseil a relevé que le dispositif ne prévoyait ni modalités de traçabilité des accès ni garanties quant à la suppression des données devenues inutiles. En permettant un accès direct à l’ensemble des informations contenues dans ces fichiers, sans encadrement suffisant, le législateur a méconnu les exigences de proportionnalité et de protection de la vie privée, ce qui a conduit à la censure de la disposition.
    Enfin, si d’autres mesures ont été validées, comme la fermeture administrative de locaux ou le gel des avoirs, le Conseil a rappelé que ces mesures doivent s’exercer dans le respect des principes de nécessité, de proportionnalité et de contrôle juridictionnel effectif. (Cons. const. 12 juin 2025, n° 2025-885 DC)

Le nouveau cadre juridique de protection des données personnelles adopté par le parlement britannique

  • Le 19 juin 2025, le Data (Use and Access) Act, instaurant un nouveau cadre législatif en matière de protection des données personnelles au Royaume-Uni a reçu l’assentiment royal.
    Cette réforme vise à concilier la promotion de l’exploitation des données à des fins économiques avec le maintien d’un niveau élevé de protection des données, conforme aux standards européens. Le DUAA modifie, sans les remplacer, le Règlement général sur la protection des données du Royaume-Uni (UK GDPR), la Data Protection Act 2018 (DPA) et le Privacy and Electronic Communications Regulations (PECR).
    Le texte introduit notamment des mesures destinées à favoriser l’innovation, telles que la clarification des conditions de traitement des données à des fins de recherche scientifique, y compris commerciale. Il prévoit également des assouplissements en matière de notification aux personnes concernées, lorsque la fourniture d’un avis de confidentialité représenterait un effort disproportionné, sous réserve de garanties alternatives et de transparence. En matière de prise de décision automatisée, la loi élargit les bases juridiques autorisant le recours à ces traitements, en particulier en autorisant, sous conditions, leur fondement sur l’intérêt légitime. Toutefois, cette ouverture ne s’applique pas aux données dites « de catégorie spéciale », soumises à une protection renforcée.
    Le DUAA introduit en outre des facilités pratiques pour les organisations, telles que l’instauration d’une nouvelle base légale d’« intérêts légitimes reconnus » pour certains traitements, l’allègement des conditions de divulgation de données à d’autres entités publiques, ou encore la possibilité d’utiliser certains cookies sans consentement préalable. La loi précise par ailleurs que les organismes caritatifs peuvent adresser des messages de prospection directe à des personnes ayant exprimé un intérêt pour leur action, sauf opposition de leur part (« soft opt-in »). Elle encadre également plus clairement les obligations en matière de demandes d’accès, en limitant les demandes à ce qui est raisonnable et proportionné.
    Enfin, la loi réforme « l’Information Commissioner’s Office » (ICO), l’autorité de contrôle, en lui conférant de nouveaux pouvoirs d’enquête, une structure révisée et des obligations accrues en matière de transparence et de responsabilité.

Les plateformes

Constitutionnalité de la « taxe sur les services numériques » : le Conseil d’État transmet la QPC au Conseil constitutionnel

  • Par une décision du 17 juin 2025, le Conseil d’État a renvoyé au Conseil constitutionnel une QPC portant sur la conformité à la Constitution des articles 299 à 300 du code général des impôts, dans leur rédaction issue de l’article 1er de la loi n° 2019-759 du 24 juillet 2019 instituant une taxe sur les services numériques (TSN).
    La question a été soulevée par la société Digital Classifieds France à l’appui d’une demande en restitution de la taxe acquittée au titre de l’année 2019. Le Conseil d’État a jugé que les dispositions contestées, applicables au litige et n’ayant pas déjà été déclarées conformes à la Constitution, soulèvent une question présentant un caractère sérieux au regard des principes d’égalité devant la loi fiscale et d’égalité devant les charges publiques garantis par les articles 6 et 13 de la Déclaration des droits de l’homme et du citoyen de 1789.
    La société requérante soutenait que les dispositions instituant la TSN portent atteinte au principe d’égalité sous plusieurs aspects. La TSN est due sur les sommes encaissées par les entreprises du secteur numérique en échange de certains services fournis en France au cours d’une année civile. Elle faisait valoir l’existence d’une rupture d’égalité entre redevables selon qu’ils sont ou non assujettis à l’impôt sur les sociétés en France, ainsi qu’une différence de traitement injustifiée entre deux entreprises fournissant un même service selon que ce service est rendu sur un support numérique ou sur un support non numérique. Elle contestait également les règles relatives à l’appréciation des seuils d’assujettissement au niveau du groupe consolidé, en ce qu’elles instaureraient une présomption irréfragable de fraude et créeraient une inégalité entre opérateurs selon leur appartenance ou non à un groupe. Elle mettait en cause le caractère objectif et rationnel des règles de territorialité fondées sur un coefficient de présence nationale, ainsi que les différences de traitement résultant des modalités de calcul de ce coefficient selon que les services sont exploités par une ou plusieurs entités d’un même groupe. Elle dénonçait enfin un effet de seuil excessif et une atteinte au principe d’égalité devant les charges publiques en raison des difficultés de contrôle des opérateurs non établis en France.
    Le Conseil d’État a rappelé qu’en application de l’article 23-4 de l’ordonnance n° 58-1067 du 7 novembre 1958 portant loi organique sur le Conseil constitutionnel, il lui appartient de vérifier que la disposition contestée est applicable au litige, qu’elle n’a pas déjà été déclarée conforme à la Constitution sauf changement de circonstances, et que la question est nouvelle ou présente un caractère sérieux. Après avoir constaté que ces conditions étaient remplies, il a jugé que le moyen tiré de la méconnaissance des principes d’égalité devant la loi fiscale et devant les charges publiques soulève une question présentant un caractère sérieux. Il a en conséquence ordonné le renvoi de la question au Conseil constitutionnel afin que celui-ci se prononce sur la conformité des dispositions contestées aux exigences constitutionnelles. (CE 17 juin 2025, n° 502728, C)

Intelligence artificielle

Le groupe de travail sur l’intelligence artificielle au service de la Justice a remis son au garde des sceaux

  • Ce rapport présente une stratégie pragmatique pour intégrer l’intelligence artificielle (IA) dans le système judiciaire français.
    Il a été coordonné par Haffide Boulakras, directeur adjoint de l’École nationale de la magistrature (ENM), à la demande du Garde des Sceaux. Il a été rédigé avec la participation d’un groupe de travail pluridisciplinaire composé de magistrats, experts du numérique, représentants de différentes directions du ministère de la Justice, ainsi que de membres de la direction interministérielle de la transformation publique (DITP)
    Le groupe de travail insiste sur une mise en œuvre rapide, concrète et sécurisée, en écartant la justice prédictive au profit d’usages opérationnels. Trois axes structurent cette stratégie : démocratiser l’IA pour tous les métiers de la justice, garantir la souveraineté technologique, et accompagner les professionnels avec des outils éthiques et des formations adaptées. Dès 2025, un assistant IA souverain sera déployé pour aider les magistrats et agents à effectuer des tâches de recherche, rédaction et synthèse. À partir de 2026, des outils spécifiques seront développés pour 12 cas d’usage prioritaires (recherche juridique, retranscription d’audiences, orientation de procédures, etc.). Un Observatoire de l’IA pilotera la stratégie, tandis qu’une direction de programme dédiée assurera son exécution. Le rapport prévoit aussi un hébergement des données conforme aux normes SecNumCloud. La stratégie repose sur une montée en compétences progressive grâce à un campus du numérique et des formations accessibles. L’encadrement "éthique" et "juridique" est central, avec la création d’un label « IA digne de confiance ». Enfin, la qualité des données et l’interopérabilité des systèmes sont identifiées comme des prérequis essentiels à la réussite de cette transformation. (Rapport, L’intelligence artificielle au service de la justice : stratégie et solutions opérationnelles, juin 2025)

Enquête ouverte contre le modèle d’IA générative DeepSeek pour pratique commerciale déloyale

  • Par une communication du 16 juin 2025, l’Autorité italienne de la concurrence (AGCM) a annoncé l’ouverture d’une enquête à l’encontre des sociétés Hangzhou DeepSeek Artificial Intelligence Co., Ltd. et Beijing DeepSeek Artificial Intelligence Co., Ltd., exploitantes du modèle d’intelligence artificielle générative DeepSeek, au titre de pratiques commerciales déloyales supposées, en application des articles 20, 21 et 22 du code de la consommation italien.
    L’enquête porte sur l’absence alléguée d’information claire, immédiate et intelligible à destination des utilisateurs italiens concernant les risques inhérents à l’utilisation du modèle d’IA, notamment les risques d’« hallucinations », définies comme la génération d’informations inexactes, inventées ou trompeuses à partir d’un input donné. L’AGCM agit également sur le fondement du règlement sur les procédures en matière de protection du consommateur et de publicité déloyale et comparative, adopté par délibération n° 31356 du 5 novembre 2024.
    L’Autorité estime que le modèle d’IA n’a pas donné aux utilisateurs d’avertissements suffisants. Elle a relevé que la mention « AI-generated, for reference only » constituait l’unique avertissement affiché lors de l’utilisation du service, apparaissant exclusivement en langue anglaise, y compris lorsque l’interaction se déroule en italien. Cette mention, jugée trop générique, ne permettrait pas d’alerter de façon suffisante le consommateur moyen sur la possibilité de recevoir des informations erronées. De surcroît, l’absence de mise en garde sur la page d’accueil, les pages d’enregistrement et de connexion, ainsi que l’absence d’avertissement explicite accessible avant l’utilisation des services, ont conduit l’Autorité à estimer que DeepSeek manquait à son obligation d’information essentielle. L’AGCM a souligné que cette carence pouvait affecter la capacité des utilisateurs à prendre une décision commerciale en toute connaissance de cause, en les induisant en erreur sur la fiabilité des résultats générés et en impactant potentiellement des décisions prises dans des domaines sensibles, tels que la santé, les finances ou le droit.
    L’enquête vise à vérifier si l’omission ou l’insuffisance des informations fournies constitue une pratique commerciale déloyale au sens des dispositions précitées du code de la consommation, lesquelles interdisent les pratiques susceptibles d’induire le consommateur en erreur de manière à altérer son comportement économique. L’AGCM a, à cette fin, sollicité des informations détaillées de la part de DeepSeek sur les services proposés en Italie, les modalités de leur diffusion, la date de leur mise à disposition, le volume d’utilisateurs italiens, ainsi que les actions entreprises pour informer ces derniers des limites de leur modèle. L’Autorité a rappelé à DeepSeek son obligation de coopération sous peine de sanctions administratives, conformément aux articles 27, §§ 4 et 9, du code de la consommation.
    Enfin, l’AGCM a indiqué que l’instruction devait se conclure dans un délai de 270 jours et qu’elle saisirait pour avis l’Autorité pour les garanties dans les communications (AGCOM) conformément aux dispositions légales applicables. L’enquête pourrait aboutir, en cas de confirmation des manquements allégués, à l’imposition de sanctions pécuniaires, voire à des mesures correctives visant à garantir une information adéquate des consommateurs. (Autorità Garante della concorrenza e del Mercato, Enquête, 16 juin 2025)

Contenus en ligne

Le retrait des contenus terroristes en ligne sous 1 heure validé par le Conseil d’État

  • Par une décision du 16 juin 2025, le Conseil d’État a rejeté le recours en annulation pour excès de pouvoir formé par plusieurs associations contre le décret n° 2023-432 du 3 juin 2023 pris pour l’application du règlement (UE) 2021/784 du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne. Ce dernier a plus précisément jugé que les moyens tirés de l’illégalité du décret, notamment au regard des droits garantis par la Charte des droits fondamentaux de l’Union européenne et la Convention européenne des droits de l’homme, devaient être écartés, faute de difficulté sérieuse.
    Le décret n° 2023-432 du 3 juin 2023 pris pour l’application du règlement (UE) 2021/784 du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne désigne l’autorité administrative compétente pour émettre les injonctions de retrait de contenus à caractère terroriste, précise les modalités d’échange d’informations entre les autorités concernées et fixe les règles de procédure relatives aux recours contre les injonctions de retrait de contenus à caractère terroriste.
    Les requérants soutenaient que ce dernier méconnaissait les principes constitutionnels et européens, en ce qu’il serait intervenu à la suite d’une procédure irrégulière, faute de réalisation d’une analyse préalable de son impact sur la protection des données personnelles et de consultation de la CNIL. Le Conseil d’État a relevé que le décret ne créait pas, en lui-même, de traitement automatisé de données personnelles, de sorte qu’aucune de ces formalités n’était requise.
    Sur le fond, les associations contestaient notamment le délai d’une heure laissé aux fournisseurs de services d’hébergement pour exécuter les injonctions de retrait, qu’elles estimaient incompatible avec le droit à un recours effectif et la liberté d’expression.
    Le Conseil d’État a rappelé que les dispositions en cause s’inscrivent dans un cadre normatif de l’Union européenne visant à prévenir la diffusion de contenus incitant à la commission d’actes terroristes, lesquels constituent des abus de la liberté d’expression susceptibles de porter gravement atteinte à la sûreté publique. Il a donc estimé que le délai d’une heure était justifié par l’objectif d’intérêt général de prévention des actes terroristes et que ce délai n’excluait pas la possibilité d’un recours effectif a posteriori, garanti par l’article 9 du règlement. Par ailleurs, le règlement encadre strictement la notion de contenu terroriste et exige une motivation détaillée des injonctions, permettant un contrôle juridictionnel effectif.
    Le Conseil d’État a également écarté les griefs relatifs aux mesures spécifiques imposées par l’article 5 du règlement pour prévenir la diffusion ultérieure de contenus à caractère terroriste, jugeant qu’elles sont définies de manière suffisamment précise, ciblée et proportionnée, sans imposer une obligation générale de surveillance des contenus.
    Enfin, le Conseil d’État a rejeté les moyens tirés d’une atteinte au droit à un recours effectif. Il a relevé que le caractère non suspensif des recours contre les injonctions de retrait ne méconnaît pas les exigences de l’article 47 de la Charte des droits fondamentaux, dès lors que les États membres conservent la compétence pour fixer les modalités des procédures assurant la sauvegarde des droits des justiciables. Il a précisé que les recours prévus par le droit interne, y compris devant le juge administratif dans des délais contraints, répondaient aux exigences du droit de l’Union. (CE, 10e-9e ch. réun., 16 juin 2025, n° 478441, C)

L’obligation de contrôle de l’âge à la charge des sites pornographiques

  • Par une ordonnance du 16 juin 2025, le juge des référés du Tribunal administratif de Paris a suspendu l’exécution de l’arrêté du 26 février 2025 désignant dix-sept services de communication au public en ligne et de plateforme de partage de vidéos dont le fournisseur est établi dans un autre État membre de l’Union européenne, notamment la société Hammy Media LTD, exploitante du site xHamster.
    Plus précisément, cet arrêté imposait à ces services de se conformer aux obligations prévues aux articles 10 et 10-1 de la loi n° 2004-575 du 21 juin 2004, lesquelles consistent à mettre en œuvre un système efficace de vérification de l’âge des utilisateurs des sites diffusant des contenus à caractère pornographique, sous peine de sanctions pécuniaires et de mesures de blocage ou de déréférencement prononcées par l’ARCOM.
    La société requérante contestait l’arrêté sur le fondement de l’article L. 521-1 du code de justice administrative, invoquant l’urgence à suspendre son exécution et l’existence d’un doute sérieux quant à sa légalité. Elle soutenait en particulier que l’arrêté méconnaissait la directive 2000/31/CE du 8 juin 2000 sur le commerce électronique, en raison du non-respect de la procédure prévue au b du paragraphe 4 de l’article 3 de cette directive, laquelle impose à l’État membre qui entend restreindre un service fourni depuis un autre État membre d’en notifier préalablement l’intention à l’État d’établissement et à la Commission européenne. Elle faisait également valoir que l’arrêté portait une atteinte disproportionnée à la liberté d’entreprendre, à la liberté d’expression et au principe d’égalité, et qu’il créait une incertitude juridique contraire au principe de sécurité juridique. Elle soulignait en outre les conséquences économiques immédiates de l’exécution de l’arrêté, en termes de pertes d’activité et d’atteinte à sa réputation.
    Le juge des référés a rappelé que les obligations prévues aux articles 10 et 10-1 de la loi n° 2004-575 du 21 juin 2004 s’appliquent aussi aux sites établis dans un autre État membre de l’Union européenne, après leur désignation par arrêté ministériel et l’expiration d’un délai de trois mois.
    Le juge des référés a toutefois estimé que l’existence d’un renvoi préjudiciel en cours devant la Cour de justice de l’Union européenne, portant sur la compatibilité des dispositions nationales avec le droit de l’Union, faisait naître un doute sérieux quant à la légalité de l’arrêté, caractérisant l’urgence justifiant la suspension.
    En conséquence, le juge des référés a ordonné la suspension de l’exécution de l’arrêté du 26 février 2025. Il a également condamné l’État au paiement d’une somme de 1 500 euros à la société Hammy Media LTD sur le fondement de l’article L. 761-1 du code de justice administrative. (TA Paris, 16 juin 2025, n° 2514377/5)

Liberté de communications commerciales en ligne : l’interdiction de publicité pour des pharmacies en vigueur en Pologne est contraire au droit de l’Union

  • Par un arrêt du 19 juin 2025, la Cour de justice de l’Union européenne a constaté que la loi polonaise interdisant de manière générale et absolue toute publicité pour les pharmacies, les points de vente pharmaceutiques et leurs activités, méconnaissait les obligations mises à la charge des États membres au titre de l’article 8, § 1er, de la directive 2000/31/CE relative au commerce électronique, ainsi que des articles 49 et 56 du TFUE relatifs à la liberté d’établissement et à la libre prestation des services.
    La Cour était saisie d’un recours en manquement introduit par la Commission européenne, reprochant à la Pologne l’adoption et le maintien de l’article 94a, § 1er, de la loi polonaise relative au droit pharmaceutique, qui interdit de manière générale et absolue toute publicité pour les pharmacies, les points de vente pharmaceutiques et leurs activités, sous peine de sanctions administratives.
    La Cour a jugé que cette interdiction constitue une restriction disproportionnée à la liberté des communications commerciales des membres d’une profession réglementée au sens de l’article 8, § 1er, de la directive 2000/31/CE. Si cette disposition permet aux États membres de soumettre les communications commerciales des professions réglementées au respect de règles professionnelles visant notamment la dignité, l’indépendance ou l’honneur de la profession, elle ne saurait justifier une interdiction générale et absolue de toute publicité en ligne. La Cour a relevé que la législation polonaise, en prohibant toute forme de communication commerciale, y compris par voie électronique, prive les pharmaciens de la possibilité de promouvoir leurs activités via des services de la société de l’information, en méconnaissance des exigences de la directive. Elle a écarté l’argumentation fondée sur la distinction entre les pharmaciens et les établissements où ils exercent, rappelant que cette directive s’applique à tous les membres d’une profession réglementée, indépendamment du cadre d’exercice.
    La Cour a également retenu que l’interdiction litigieuse porte atteinte aux libertés fondamentales consacrées aux articles 49 et 56 du TFUE. Elle a considéré qu’une interdiction générale de publicité pour les pharmacies restreint l’accès au marché pour les opérateurs établis dans d’autres États membres et complique la possibilité de faire connaître leurs services aux clients potentiels en Pologne, créant ainsi un obstacle supplémentaire à l’établissement d’une activité sur ce marché. Elle a jugé que la Pologne n’avait pas démontré que cette restriction était propre à garantir la réalisation des objectifs invoqués, à savoir la protection de la santé publique par la lutte contre la surconsommation de médicaments et la préservation de l’indépendance professionnelle des pharmaciens, ni qu’elle était nécessaire à cette fin. La Cour a relevé que des mesures moins restrictives, telles qu’un encadrement des contenus publicitaires ou l’adoption de codes de conduite, auraient permis d’atteindre ces objectifs sans porter une atteinte excessive aux libertés économiques garanties par le droit de l’Union.
    Enfin, la Cour a précisé que, conformément à l’article 260 TFUE, il incombe désormais à la Pologne de prendre les mesures nécessaires pour se conformer à l’arrêt dans les meilleurs délais. À défaut, la Commission pourrait engager un nouveau recours tendant à l’infliction de sanctions pécuniaires. (CJUE 19 juin 2025, aff. C-200-24, Commission c/ Pologne)