Accueil
Le quotidien du droit en ligne
-A+A
Le droit en débats

Projet de loi renforçant les principes de la République et modération des contenus en ligne : anticipation partielle du Digital Services Act et véritable régime transitoire et expérimental

Par Thibault Douville le 19 Février 2021

Alors que les incitations à la haine, à la violence ou les propos injurieux se multiplient sur les réseaux sociaux, les politiques de modération des contenus demeurent assez opaques et le degré de coopération des opérateurs avec les autorités judiciaires est très variable. L’inadaptation de la directive Commerce électronique concernant la haine en ligne a conduit la Commission européenne à présenter, le 15 décembre 2020 la proposition de règlement Digital Services Act (DSA) qui comporte un ensemble de dispositions relatives à la modération des contenus publiés en ligne et cherche à assurer un équilibre entre la liberté d’expression et d’information, la liberté d’entreprendre et les droits et libertés des personnes (dignité humaine, vie privée, non-discrimination, droit à un recours effectif, etc.). Ces dispositions sont bien plus ambitieuses que celles qui ont d’ores et déjà été consacrées par la directive 2018/1808 du 14 novembre 2018 concernant les services de plateformes de partage de vidéos (ord. n° 2020-1642, 21 déc. 2020 portant transposition de la directive 2018/1808/UE). S’appuyant sur cette proposition de règlement, le gouvernement français, après la censure de la loi visant à lutter contre les contenus haineux (L. n° 2020-766, 24 juin 2020) par le Conseil constitutionnel (18 juin 2020, décis. n° 2020-801 DC, Dalloz actualité, 29 juin 2020, obs. J.-S. Mariez et L. Godfrin), a déposé un amendement introduisant un mécanisme de contrôle des contenus illicites publiés sur les plateformes à l’occasion de l’examen par la Commission spéciale de l’Assemblée nationale du projet de loi confortant le respect des principes de la République. Il figure à l’article 19 bis du projet de loi après son adoption le 16 février 2021 en première lecture par l’Assemblée nationale.

En quoi consiste le régime proposé de modération des contenus en ligne ?

Le projet de loi confortant le respect des principes de la République impose aux plateformes en ligne un ensemble d’obligations concernant le contrôle des contenus illicites. Elles sont regroupées dans un article 6-5 qui complétera la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN). L’objectif est de lutter contre l’inertie des plateformes et d’encadrer les dispositifs de modération des contenus. Des obligations substantielles sont mises à leur charge, elles doivent mettre en place des procédures de traitement des injonctions des autorités judiciaires ou publiques concernant les contenus diffusés et les demandes de communications des données d’identification des utilisateurs et un dispositif de notification des contenus par les tiers. Elles sont également tenues d’informer l’utilisateur en cas de retrait de contenus publiés en lui transmettant les motifs de la décision et en lui indiquant si la décision a été prise de manière automatisée, d’instituer un mécanisme de recours interne à la suite d’une notification ou du retrait d’un contenu (qui ne peut pas reposer sur un procédé exclusivement automatisé), de désigner un représentant en France et un point de contact unique.

Des obligations de transparence, qui ont incidemment une portée substantielle, pèsent également sur les plateformes : mise à disposition du public des conditions générales d’utilisation qui doivent comporter des informations sur le dispositif de modération (notamment les moyens automatisés utilisés, sur les éventuelles procédures relatives à la suspension ou à la suppression des comptes utilisateurs et au blocage de la procédure de notification), communication périodique des moyens et des mesures adoptées pour lutter contre la diffusion de contenus illicites et pour assurer le traitement des notifications et injonctions reçues (le Conseil supérieur de l’audiovisuel étant chargé de préciser les informations et indicateurs chiffrés devant être publiés) et, pour les plus grosses plateformes, présentation d’une évaluation annuelle des risques systémiques en matière de diffusion des contenus et d’atteinte aux droits fondamentaux et mise en œuvre de mesures (notamment algorithmiques) visant à atténuer les risques de diffusion de ces contenus (une obligation de surveillance généralisée n’est pas mise à leur charge, ce qui serait contraire à la directive Commerce électronique et à la proposition de règlement DSA).

Une mission de contrôle des plateformes en ligne est par ailleurs confiée au Conseil supérieur de l’audiovisuel (la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication est complété sur ce point). Celui-ci est chargé de veiller au respect des obligations précédemment exposées. Pour cela, il devra tenir compte des « caractéristiques [des] service[s] et [de] l’adéquation des moyens mis en œuvre par l’opérateur pour lutter contre la diffusion […] des contenus mentionnés » en évitant les retraits injustifiés. Est reconnu au Conseil supérieur de l’audiovisuel un droit d’obtenir des plus grosses plateformes communication des « principes de fonctionnement des outils automatisés auxquels ils ont recours » et des « données utilisées pour l’évaluation et l’amélioration de leur performance ainsi qu’à toute autre information ou donnée lui permettant d’évaluer leur efficacité, dans le respect des dispositions relatives à la protection des données personnelles ». Cette exigence de transparence des algorithmes permettra leur analyse. Enfin, un pouvoir de sanction est confié au Conseil supérieur de l’audiovisuel qui pourra prononcer des amendes administratives (jusqu’à 20 millions d’euros ou 6 % du chiffre d’affaires annuel mondial total de l’exercice précédent) après une mise en demeure préalable.

Notons que le dispositif proposé ne contient pas de dispositions similaires à celles de la loi Avia ayant entraîné sa censure par le Conseil constitutionnel en raison de l’atteinte portée à l’exercice de la liberté d’expression. Il oblige seulement les opérateurs à mettre en place des moyens et des procédures pour la lutter contre les contenus illicites. Ainsi, les plateformes ne sont pas tenues d’une obligation de diligence dans le retrait des contenus illicites (une heure à la suite d’une demande de l’autorité administrative et vingt-quatre heures après la notification faite par une personne). Du reste, la LCEN prévoit que les hébergeurs doivent agir promptement dès qu’ils ont connaissance des contenus (art. 6, II-2).

En quoi le projet de loi renforçant les principes de la République « anticipe » le futur règlement Digital Services Act ?

Au fond, le projet de loi s’inspire des dispositions contenues dans la proposition de règlement DSA (injonction d’agir, de fournir des informations, point de contact, transparence des dispositifs de modération, rapport sur les activités de modération des contenus, mécanisme de notification et motivation des décisions, système interne de traitement des réclamations, évaluation des risques pour les très grandes plateformes). Toutefois, il existe des différences de forme et de fond. De manière générale, le règlement DSA est beaucoup plus ample puisqu’il reprend les acquis de la directive Commerce électronique par exemple sur la responsabilité des prestataires de services intermédiaires.

Surtout, le champ d’application des propositions française et européenne diverge et, avec lui, leur philosophie. D’abord, la proposition de règlement DSA s’attache aux « prestataires de services intermédiaires », catégorie qui regroupe notamment les hébergeurs et, parmi eux, les plateformes en ligne définies comme des hébergeurs ayant une activité principale de stockage et de diffusion d’informations au public. Cette stratification permet, à l’image de poupées russes, de faire varier la densité du régime de modération des contenus selon la qualité de l’opérateur (fournisseur de services intermédiaires et, dans cette catégorie, les hébergeurs, hébergeurs ayant la qualité de « plateforme en ligne » ou « très grandes plateformes en ligne »). Par comparaison, le projet de loi renforçant les principes de la République vise, en reprenant le choix fait à l’occasion de la loi Avia, les plateformes en ligne au sens de l’article L. 111-7 du code de la consommation reposant sur « le classement, le référencement ou le partage des contenus ». Ainsi, à côté des services proposant le partage de contenus, les dispositions du projet de loi embrasseront les moteurs de recherche. Cette approche est à certains égards plus large que celle de la proposition de règlement DSA – les moteurs de recherche n’étant pas des plateformes en ligne mais simplement des hébergeurs (CJUE 23 mars 2010, aff. C-236/08 à C-238/08, Google France SARL c. Louis Vuitton, Dalloz actualité, 30 mars 2010, obs. C. Manara) et échapperont pour cette raison à l’obligation de mettre en place un système de recours interne – et en même temps plus étroite puisqu’elle ne vise pas l’ensemble des « prestataires de services intermédiaires » au sens de la proposition de règlement DSA mais seulement certains d’entre eux, les plateformes en ligne. Il est vrai que concrètement le régime proposé par la Commission concerne principalement ces dernières.

Ensuite, les dispositions prévues par le projet de loi s’attachent aux contenus illicites définis par référence à différentes infractions pénales (comme l’apologie et la contestation de crimes de guerre, de crimes contre l’humanité, de crime de réduction en esclavage, de provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un ensemble de personnes à raison notamment de leur origine […], des injures dans les mêmes hypothèses, de la pédopornographie ou de la diffusion d’un message à caractère violent, incitant au terrorisme, pornographique ou portant gravement atteinte à la dignité humaine). Par comparaison, la proposition de règlement DSA embrasse à la fois les contenus illicites en tant qu’ils sont contraires au droit de l’Union ou d’un État membre et les informations incompatibles avec les conditions générales d’utilisation des prestataires de services intermédiaires (ce qui justifie pour les plateformes en ligne la mise en place d’un système interne de traitement des réclamations – pensons à cet égard à la « Cour » mise en place par Facebook – et d’une procédure de règlement extrajudiciaire des litiges). Corrélativement, elle n’a pas seulement pour objet la lutte contre les contenus illicites mais aussi de garantir la liberté d’expression à la fois des utilisateurs et le droit du public à l’information. De manière notable, obligation est d’ailleurs faite aux prestataires de prendre en compte les droits garantis par la Charte des droits fondamentaux dans leur politique de modération, ce qui implique la protection de la liberté d’expression. Mais quelle conception de celle-ci et des autres droits fondamentaux les prestataires de services intermédiaires retiendront-ils alors qu’ils prétendent agir à une échelle mondiale ?

Le régime de la modération des contenus prévu par le projet de loi renforçant les principes de la République est-il compatible avec le droit de l’Union ?

Rappelons d’abord que ce n’est pas la première fois que le législateur français cherche à introduire en droit français de manière anticipée les dispositions d’un instrument européen à venir. La loi pour une République numérique du 7 octobre 2016 introduisit par exemple en droit interne le droit à la portabilité des données consacré par le règlement général sur la protection des données du 27 avril 2016. Cette disposition fut balayée quelque temps plus tard à l’occasion de l’adaptation du droit français au droit de l’Union. S’agissant de la proposition de règlement DSA, le législateur français a assorti ses dispositions d’une date de péremption (31 décembre 2023). À cette date, différentes hypothèses pourront se présenter : le règlement DSA aura peut-être été adopté, ou non, et sera entré en application, ou non. Le régime introduit a donc une vocation transitoire et aura peut-être vocation à être prorogé.

Ensuite, et en l’état du droit positif, la question de la compatibilité des dispositions du projet de loi avec le droit de l’Union européenne se pose. C’est le cas, de manière générale, avec la directive du 8 juin 2000 relative au commerce électronique. En effet, le régime de modération des contenus illicites bénéficie d’une application extraterritoriale : il importe peu que les opérateurs de plateforme « soient établis ou non sur le territoire français ». Une restriction à la libre circulation des services de la société de l’information en provenance d’un autre État membre est donc créée, ce qui est en principe prohibé. Toutefois, un État membre peut en édicter une si elle est nécessaire pour garantir l’ordre public, la protection de la santé publique, la sécurité publique ou la protection des consommateurs. À cet égard, la Cour de justice des communautés européennes a considéré, à propos de la libre prestation de services, qu’un État membre peut en adopter une pour des motifs de protection de l’ordre public au titre de la sauvegarde de la dignité humaine (CJCE 18 mars 2004, aff. C-36/02, Omega Spielhallen c. Oberbürgermeisterin der Bundesstadt Bonn, pt 34). De plus, ces mesures doivent concerner un service de la société de l’information portant atteinte à l’un des objectifs précités et être proportionnées à celui-ci, ce qui signifie qu’il ne peut pas être atteint par des mesures moins restrictives. Il est indiscutable que le projet de loi vise à protéger l’ordre public et la dignité humaine à la lumière des contenus illicites visés. Néanmoins, les services de la société de l’information concernés par ces dispositions sont définis de manière vague, même si les plateformes visées doivent dépasser certains seuils fixés par décret. Cela peut faire douter de la compatibilité du projet de loi avec le droit de l’Union. Cela dit, les dispositions prévues apparaissent proportionnées à l’objectif poursuivi. Toujours sur le terrain de la directive Commerce électronique, la compatibilité du régime de modération des contenus avec son article 14 ne soulève pas de difficulté, ce texte ne faisant que consacrer l’irresponsabilité de principe des hébergeurs sauf s’ils ont connaissance du caractère manifestement illicite du contenu.

D’autres interrogations ponctuelles existent. Ainsi, le projet de loi prévoit que la décision prise dans le cadre d’un recours interne ne doit pas être « uniquement fondé[e] sur l’utilisation de moyens automatisés ». En réalité, si le recours interne fait suite à un retrait résultant d’une décision exclusivement automatisée, le RGPD ouvre le droit à l’utilisateur de bénéficier d’une intervention humaine, d’exprimer son point de vue et de contester la décision (RGPD, art. 22, § 3) ce qui devrait donc être prévu (v. DSA, art. 12, § 1). De même, le projet de loi renforçant le respect des principes de la République devra faire l’objet d’une notification à la Commission européenne – non intervenue à ce jour – tant au titre de la directive Commerce électronique qu’au titre de la directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 qui prévoit une procédure d’information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l’information. Une période de statu quo de trois mois s’ouvrira à compter de la notification, le délai sera prorogé d’un mois (quatre mois en tout) si la Commission ou un État membre émet un avis circonstancié sur les obstacles créés à la libre circulation des services dans l’Union. Notons que l’Allemagne a d’ores et déjà adopté un dispositif national concernant les propos haineux qui est plus léger que le projet français (loi du 1er septembre 2017 visant à améliorer l’application de la législation sur les réseaux sociaux) mais sa révision est engagée. C’est aussi le cas de l’Autriche (151e loi fédérale établissant une loi sur les plateformes de communication et portant modification de la loi KommAustria, 23 déc. 2020). En définitive, la voie semble ouverte à l’instauration et à l’expérimentation d’un régime enrichi de contrôle de la modération des contenus publiés sur les plateformes en ligne. Le bilan de son application pourra alimenter la négociation de la proposition de règlement DSA.