Logo Assembly Logo Hemicycle

Vers une institution d'Ombudsman de l’internet

Rapport | Doc. 15085 | 21 février 2020

Commission
Commission de la culture, de la science, de l'éducation et des médias
Rapporteur :
M. Frédéric REISS, France, PPE/DC
Origine
Renvoi en commission: Doc. 14243, Renvoi 4278 du 10 mars 2017. 2020 - Commission permanente de septembre

Résumé

Tous les utilisateurs d’internet sont de plus en plus exposés à des contenus préjudiciables et illicites. Les plateformes des médias sociaux sont appelées à assumer davantage de responsabilité pour les contenus qu’elles publient. Néanmoins, le contrôle des contenus publiés en ligne ne saurait s’effectuer au détriment de la liberté d’expression. Pour préserver cette liberté et éviter qu’elle soit limitée de façon discriminatoire, tout en s’attachant à combattre les contenus illicites en ligne, il conviendrait de créer une institution d’Ombudsman chargée des questions liées à l’internet.

Les États membres devraient identifier les mécanismes, procédures et mesures pouvant garantir l’indépendance politique et économique de cette institution, et veiller à ce que celle-ci ait les ressources nécessaires pour son fonctionnement efficace. Ils devraient aussi étudier les mécanismes de coordination qu’il conviendrait de mettre en place pour assurer une collaboration suivie et un fonctionnement en réseaux des institutions d’Ombudsman nationales.

L’institution d’Ombudsman de l’internet serait non seulement au service du public mais aussi des médias sociaux; par conséquent, les grandes plateformes technologiques de l’internet devraient la soutenir financièrement.

L’Union européenne devrait examiner l’opportunité de créer une institution d’Ombudsman de l’internet au niveau de l’Union et favoriser l’harmonisation de la législation en matière de contenu publié sur internet.

A Projet de résolutionNote

1. Avec l’émergence des plateformes des médias sociaux, on trouve sur internet de plus en plus souvent des contenus préjudiciables. Dans certains cas, ceux-ci sont manifestement illicites comme l’incitation au terrorisme, le discours de haine, le harcèlement, ou les vexations. Dans d'autres cas, il est plus difficile de qualifier la nature légale ou illégale des contenus sur internet. D’une part, les médias sociaux sont légitimement invités à assumer davantage la responsabilité des contenus qu’ils publient et la décision sur «le droit à l’oubli» par la Cour de Justice de l’Union européenne est un parfait exemple des pressions croissantes exercées sur les intermédiaires internet. D’autre part, l’idée de contrôler les contenus publiés sur les médias sociaux soulève un grave problème face à la nécessité de préserver la liberté d’expression, notamment parce que le web est un média mondial reliant des personnes avec des histoires, des traditions et des cultures juridiques différentes.
2. Pour éviter que la liberté d’expression soit limitée de façon discriminatoire, tout en s’attachant à combattre les contenus illicites sur internet, l’Assemblée parlementaire propose de réfléchir à l’établissement d’une institution d’Ombudsman (ou similaire) ayant l’indépendance, les compétences et l’autorité nécessaires à l’évaluation de la nature légale ou illégale des contenus publiés sur internet. Les intermédiaires internet pourraient soumettre les cas douteux à cette institution pour recevoir ses recommandations sur la manière de les traiter.
3. Les préjudices causés par la diffusion sur internet de contenus dommageables peuvent vite devenir irréversibles. La création d’une institution de l’Ombudsman chargée des questions liées à l’internet devrait permettre d’en accélérer le retrait. Par ailleurs, en se conformant à l’avis de l’Ombudsman, les intermédiaires internet pourraient se soustraire à d’éventuelles sanctions pénales. Ils auraient, ainsi, une bonne raison de soutenir financièrement l’institution de l’Ombudsman.
4. Compte tenu du caractère transnational du web, les institutions d’Ombudsman établies dans les États membres devraient coopérer et travailler en réseau. Malgré la diversité des cadres juridiques et des traditions socio-culturelles parmi les États membres, la Convention européenne des droits de l'homme, notamment son article 10 sur la liberté d'expression, et la jurisprudence de la Cour européenne des droits de l’homme offrent une base solide pour une coopération utile entre les institutions d’Ombudsman de différents pays et pour des approches harmonisées, sinon uniformes, dans la résolution des cas litigieux.
5. L’Assemblée, tout en étant consciente des difficultés que la mise en place d’une telle institution soulève, estime que celle-ci pourrait jouer un rôle important dans le processus de communication en ligne, en sauvegardant l’équilibre entre la liberté d’expression et d’autres droits fondamentaux.
6. Par conséquent, l’Assemblée appelle les États membres à réfléchir à l’établissement, dans leurs ordres juridiques nationaux d’une institution d’Ombudsman de l’internet, soit en tant qu’institution autonome, soit en élargissant le mandat d’une instance préexistante, telle qu’un bureau de la protection des données, une institution de régulation des médias, ou encore une instance d’Ombudsman classique chargée de la protection des droits de l’homme.
7. Les États membres devraient, entre autres, identifier les mécanismes, procédures et mesures pouvant garantir:
7.1 l’indépendance politique de l’institution d’Ombudsman de l’internet;
7.2 des interactions constructives entre cette institution et le Législatif, l’Exécutif et le système judiciaire, ainsi que l’autorité nationale chargée de la protection des données;
7.3 l’indépendance économique de l’institution, en examinant diverses modalités de financement et, dans ce contexte, la discussion avec des représentants des grandes plateformes des médias sociaux sur la question du soutien financier que ces opérateurs pourraient offrir afin d’assurer la viabilité de l’institution de l’Ombudsman;
7.4 la transparence des avis de l’Ombudsman et des décisions que prennent les intermédiaires sur la base de ces avis;
7.5 les compétences spécifiques – juridiques, techniques ou autres – requises pour un fonctionnement efficace de l’institution de l’Ombudsman et de son administration;
7.6 des formes de collaboration entre cette institution et les agences de pré-filtrage, qui pourraient contribuer à identifier rapidement les cas de contenus manifestement illicites.
8. Par ailleurs, dans le contexte de cette réflexion, l’Assemblée invite les États membres à étudier:
8.1 les mécanismes et mesures de coordination qu’il conviendrait de mettre en place pour assurer une collaboration suivie et si possible un fonctionnement en réseaux des institutions d’Ombudsman nationales;
8.2 la création d’un mécanisme de compensation de type assurance permettant aux utilisateurs de l’internet lésés par des décisions illégales d’être dédommagés et aux intermédiaires internet d’éviter des procédures judiciaires inutiles.
9. L’Assemblée invite l’Union européenne, suite à sa Recommandation (UE) 2018/334, à examiner l’opportunité de créer une institution d’Ombudsman de l’internet au niveau de l’Union et, dans le respect des compétences de ses États membres, à favoriser l’harmonisation de la législation en matière de contenu publié sur internet.
10. L’Assemblée invite les grandes plateformes technologiques de l’internet et les autres intermédiaires internet concernés à:
10.1 manifester leur appui à l’idée de la création de l’institution d’Ombudsman de l’internet et leur disponibilité à soutenir financièrement cette institution, au vu des avantages que celle-ci présenterait;
10.2 développer une coopération pour amplifier une communication en ligne à la fois libre et exempte de contenus illicites;
10.3 procéder à une mutualisation des ressources en termes d’équipes de modérateurs et de chercheurs scientifiques;
10.4 coopérer dans le domaine du développement des algorithmes capables d’assister efficacement les modérateurs dans leur travail de détection des contenus illicites.

B Exposé des motifs par M. Reiss, rapporteur

1 Introduction

1. Avec l’émergence de sites et d’applications web qui mettent en ligne des contenus générés par de nombreux utilisateurs (blogs, plates-formes de médias sociaux tels que Facebook et Twitter), la nécessité de préserver l’équilibre entre le droit à la liberté d’expression et la protection d’autres droits est revenue au premier plan, notamment à cause du caractère global et instantané des publications sur l’internet et aux dommages graves et irréversibles que des contenus illicites peuvent engendrer. Dans ce contexte, deux questions se présentent comme essentielles: 1) Qui devrait effectuer la qualification d’un contenu comme licite ou illicite? et 2) Quelle est la portée de la responsabilité des intermédiaires internetNote (ci-après, «les intermédiaires») pour les contenus publiés en ligne?
2. Ces questions ne sont pas nouvelles. En 2011, les Nations Unies avaient déjà appelé à un certain degré de responsabilité des intermédiaires quant aux contenus diffusésNote. En 2015, l’UNESCO a présenté une publication sur le rôle des intermédiaires internet. L'OSCE et l'OCDE (Privacy Framework 2013, article 14) ont adopté des positions similaires sur la responsabilité des intermédiaires.
3. Au niveau européen, pour remédier à la prolifération des discours de haine illégaux à caractère raciste et xénophobe en ligne, la Commission européenne et quatre grandes entreprises des technologies de l'information (Facebook, Microsoft, Twitter et YouTube) ont présenté en mai 2016 un «Code de conduite visant à combattre les discours de haine illégaux en ligne».
4. Le 28 septembre 2017, la Commission européenne a adopté une communication fournissant des orientations aux plateformes concernant les procédures de notification et action visant à lutter contre les contenus illicites en ligne. L'importance du combat contre les discours de haine illégaux en ligne et la nécessité de poursuivre sur la voie de la mise en œuvre du code de conduite sont largement mises en évidence dans ce document d'orientation.
5. Le 9 janvier 2018, plusieurs commissaires européens se sont réunis avec des représentants des plateformes en ligne afin de discuter des progrès réalisés dans la lutte contre la propagation de contenus illicites en ligne, notamment la propagande terroriste et les discours haineux illégaux à caractère raciste et xénophobe en ligne, ainsi que des infractions aux droits de propriété intellectuelle (voir déclaration commune). Le 1er mars 2018, la Commission de l’Union européenne a adopté la Recommandation (UE) 2018/334 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne.
6. Quant au Conseil de l’Europe, les dernières initiatives du Comité des Ministres vont dans le même sens, notamment dans la Recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires internet; plus récemment, l’Assemblée parlementaire a adopté la Résolution 2281 (2019) «Médias sociaux: créateurs de liens sociaux ou menaces pour les droits humains?», où elle invite les intermédiaires à «prendre activement part non seulement à l’identification des contenus inexacts ou faux qui circulent par leur biais, mais aussi d’avertir leurs utilisateurs de tels contenus, même lorsqu’ils ne sauraient être qualifiés d’illégaux ou de préjudiciables et qu’ils ne sont pas retirés».
7. Parallèlement, nous constatons d'importantes évolutions dans la jurisprudence de la Cour européenne des droits de l'homme. Ainsi, l'affaire Delfi AS c. Estonie autorise en principe la responsabilité des plateformes pour du contenu tiers (Cour européenne des droits de l'homme, Grande Chambre, 16 juin 2015, Delfi AS c. Estonie, requête no 64569/09). Les législations nationales témoignent de cette approche de plus en plus restrictive et réglementaire adoptée à l’égard des intermédiaires en général, et de la responsabilité du contenu en particulier.
8. Cela étant, certains éléments de la réglementation des contenus sont flous. Le «droit à l’oubli», codifié dans l’article 17 du Règlement général sur la protection des données (RGPD), en est un exemple. D’autres raisons invoquées pour justifier des demandes de suppression ou de déréférencement peuvent aussi être sources d’incertitude et donner lieu à de difficiles questions de jugement; c’est notamment le cas du discours de haine et du contenu diffamatoire. Par ailleurs, des critères comme la «nécessité» et la «proportionnalité» peuvent être appréciés différemment par les différents acteurs concernés.
9. Dans ce contexte, les intermédiaires utilisent divers moyens d’autorégulation: ils recrutent des modérateurs pour dépister d’éventuels contenus illicites et établissent leurs propres normes communautaires internes. Toutefois, même s’ils sont de bonne foi, les intermédiaires peuvent avoir des difficultés à déterminer si le contenu incriminé est illicite ou non. En conséquence, par prudence, sur plainte des utilisateurs ou d’office, ils peuvent choisir d’effacer des contenus «dérangeants» ou «provocateurs». Dans ces cas, le risque de léser le droit à la liberté d’expression des usagers est bien réel.
10. Quelques questions cruciales demeurent sur lesquelles il n'y a pas encore d'accord général: Quels sortes de règlements et de procédures devraient être élaborés pour protéger les droits fondamentaux dans l’espace internet et comment garder l’équilibre fragile entre le droit à la liberté d’expression et la protection d’autres droits? Dans quelle mesure la responsabilité pour les contenus publiés en ligne incombe aux intermédiaires et qui aurait l’autorité et les compétences nécessaires pour qualifier les divers contenus sur le web comme licites ou illicites?
11. Pour remédier au problème des contenus illicites en ligne, les géants d’internet proposent des normes communautaires qui peuvent différer d’un opérateur à l’autre et qui ne sont pas nécessairement en parfaite harmonie avec les lois nationales ou avec le cadre juridique européen. Le système de hotline INHOPENote (International Association of Internet Hotlines – Association internationale des lignes directes internet) propose des solutions diverses selon les pays. La régulation au niveau étatique des questions liées aux contenus illicites rencontre pour l’instant des difficultés d’ordre pratique (la manière d’appliquer la loi) et d’harmonisation juridique (les approches juridiques diffèrent entre l’Europe et les Etats-Unis, mais également entre les États membres du Conseil de l’Europe).
12. Dans un contexte qui manque de cohérence, de clarté et d’harmonisation, les utilisateurs peuvent se sentir désorientés en se retrouvant entre différentes plateformes et systèmes juridiques nationaux. Il est nécessaire de trouver une manière pour: 1) faciliter le signalement par les utilisateurs des contenus illicites publiés sur internet; 2) aider les intermédiaires à qualifier un contenu douteux de licite ou illicite, afin d’éviter la publication de contenus inacceptables sous l’aspect juridique et la suppression abusive «par excès de prudence»; 3) favoriser, en cas de litige, une solution rapide à l’amiable entre l‘intermédiaire et l’utilisateur, en prévenant de longues procédures judiciaires.
13. L’idée de la création d’une institution d’Ombudsman de l’internet (dans ce document appelé aussi «Ombudsman») me paraît pouvoir répondre à ces exigences.
14. Ainsi, dans ce rapport, après un tour d’horizon des approches que diverses parties prenantes proposent pour remédier au problème des contenus illicites en ligne, j’analyse les avantages que l’institution d’Ombudsman de l’internet aurait, ainsi que les éventuels défis d’ordre financier, juridique, institutionnel et pratique que la création d’une telle institution poserait. J’aborde aussi des questions sensibles comme la procédure de désignation de l’Ombudsman et du personnel de l’institution, et le mécanisme destiné à garantir leur indépendance et leur compétence. Je m’intéresse aux rapports entre l’institution d’Ombudsman de l’internet et le Législatif, l’Exécutif et le système judiciaire.

2 Contenus illicites en ligne: quelles solutions pour y remédier?

2.1 Systèmes internes des intermédiaires internet

15. Afin de protéger les utilisateurs en ligne et d'être dégagés de toute responsabilité, les sites de médias sociaux élaborent leurs propres politiques et interfaces en ligne pour signaler les violations et les abus. Avec la reconnaissance du «droit à l’oubli» par la Cour de Justice de l’Union européenne, la qualification de contenu en ligne est devenue un défi pour tout intermédiaire internet: un défi pour les petites entreprises en particulier car elles ne peuvent pas se permettre d’énormes départements juridiques, et un défi également pour les grandes entreprises en raison de l’énorme quantité de contenu en ligne.
16. Facebook engage une multitude de modérateurs (environ 4 500, auxquels M. Zuckerberg promettait d’en ajouter 3 000, suite à la vidéo postée sur Facebook Live montrant le suicide d’un homme, en Thaïlande, après avoir tué sa fille de 11 mois) pour surveiller les milliards de publications sur son réseauNote. Ses modérateurs, débordés par le volume de travail, n'ont souvent que 10 secondes pour prendre une décisionNote. En conséquence, d'une part, il est possible que des contenus illicites soient ignorés, mal interprétés ou ne soient pas traités rapidement par des intermédiaires d’internet; d'autre part, il est possible que la liberté d'expression soit compromise par un blocage excessif et une suppression exagérée du contenu en ligne.
17. La plupart des systèmes de suppression ou de qualification de contenu internet sont mis en œuvre par des organismes publics qui coopèrent avec les services répressifs ou par les services répressifs eux-mêmes. Tout contenu susceptible d’être illicite peut être signalé: 1) à l'administrateur du site: des sites tels que Facebook, YouTube et Twitter offrent aux utilisateurs un moyen simple de se plaindre d'une page, d'un message ou d'une vidéo; 2) à la société d'hébergement: si le site web lui-même est suspecté d'être illégal, un utilisateur peut contacter la société qui héberge le site web ou le fournisseur internet; 3) à l'organisme public concerné.
18. La plupart des activités de qualification et de suppression de contenu en ligne sur les médias sociaux sont entreprises par les sociétés exploitant ces sites. Voici quelques aspects concernant Facebook, Twitter et YouTube.

2.1.1 Normes communautaires de FacebookNote

19. Facebook a développé un ensemble de normes communautaires qui aident les utilisateurs à comprendre quel type de partage y est autorisé et quel type de contenu peut leur être signalé et supprimé. Facebook supprime le contenu, désactive les comptes et collabore avec les forces de l'ordre lorsqu'il estime qu'il existe un risque réel de préjudice pour les personnes, une activité criminelle ou une menace à la sécurité publique, par exemple les automutilations, les intimidations et le harcèlement, la violence et l’exploitation sexuelles, le discours de haine. Afin d'encourager les comportements respectueux, Facebook supprime également d’autres contenus (par exemple comportant de la nudité), conformément à ses normes communautaires.
20. Les gouvernements peuvent également demander à Facebook de supprimer les contenus enfreignant les lois locales, mais non les normes communautaires. Si, après un examen juridique, Facebook constate que le contenu est illégal en vertu de la législation locale, il est alors possible de le rendre inaccessible uniquement pour les utilisateurs ayant leur adresse IP dans le pays concerné.

2.1.2 Normes communautaires de YouTubeNote

21. YouTube dispose de son propre centre de signalements chargé de supprimer les contenus illicites et de bloquer les comptes non conformes aux règles de la communauté, comme celles concernant la nudité ou le contenu sexuel, les contenus préjudiciables, dangereux, haineux ou menaçants.
22. L’accès à un contenu qui peut ne pas convenir à un public plus jeune peut également être limité en fonction de l’âgeNote. Un «outil de signalement» permet aux utilisateurs de signaler des contenus illicites ou soumettre un rapport plus détaillé à examiner.
23. YouTube propose un formulaire web juridique spécifique que les utilisateurs ou l'autorité nationale compétente peuvent utiliser pour demander la suppression d’un contenu qui enfreint la législation locale.Note

2.1.3 Normes communautaires de TwitterNote

24. Les règles de Twitter établissent des limites pour le contenu disponible sur leurs services. Le contenu graphique et les comportements abusifs sont interdits. Cela inclut les menaces de violence (directes ou indirectes), le harcèlement, les comportements haineux, la divulgation d’informations privées, l’usurpation d’identité, ou encore l’automutilation. Tous les comptes se livrant aux activités spécifiées peuvent être temporairement bloqués ou faire l’objet d’une suspension permanente.
25. Si une personne représentant un gouvernement ou un organisme chargé de l'application de la loi souhaite supprimer du contenu potentiellement illicite de Twitter pour violation de la loi locale, elle doit d'abord examiner les règles de Twitter et, le cas échéant, soumettre une demande de révision du contenu. Si Twitter reçoit une demande valide d'une entité autorisée, il peut bloquer de manière immédiate l'accès à certains contenus ou à un certain compte dans un pays donnéNote. Si le signalement adressé par un utilisateur à un intermédiaire internet n'a pas abouti, l'utilisateur peut le réadresser à un organisme public indépendant. Il appartient à ce dernier de déterminer la nature du contenu et agir en conséquence ou coopérer avec les forces de l'ordre.

2.2 Le système de hotline INHOPE

26. INHOPE est un réseau actif, collaboratif et influent composé de 51 lignes d'assistance dans 45 pays à travers le monde. Son objectif est d'éliminer en particulier les abus sexuels sur enfants, mais aussi la haine / xénophobie en ligne. Fondée en 1999 dans le cadre du programme Safer Internet de la Commission européenne, INHOPE comprend aujourd'hui une association et une fondationNote (une organisation caritative constituée en 2010 qui vise à parrainer et à soutenir financièrement les activités de création de nouvelles lignes directes en dehors de l'Union européenne). Outre les États membres de l'Union européenne, des pays tels que la Fédération de Russie, le Canada, les États-Unis, la Turquie, le Brésil, l'Australie, le Japon et l'Afrique du Sud sont membres d'INHOPE. Néanmoins, tous les États membres du Conseil de l'Europe n’en font pas partie.
27. INHOPE coordonne un réseau de lignes directes internet nationales cofondées et soutenues par l'Union européenne. Son objectif principal est de faciliter et de promouvoir le travail des lignes internet directes pour lutter contre les contenus illicites, en particulier le matériel sur les abus sexuels à l’encontre des enfants. INHOPE a des partenaires tels que Google, Facebook, Twitter et Microsoft et des partenaires répressifs tels qu'Europol, Interpol et Virtual Global Taskforce afin de mettre en place une réponse efficace et rapide aux contenus illicites sur internetNote.
28. Les membres d’INHOPE exploitent une hotline publique ou indépendante pour recevoir les plaintes concernant un contenu présumé illicite. Ils évaluent ensuite le contenu conformément à leur législation nationale. Si le contenu est illicite dans le pays d’accueil, la hotline nationale prend les mesures nécessaires pour que le contenu soit retiré, en consultation avec les partenaires responsables de l’application de la loi.

2.3 La différence entre les géants des médias sociaux et les sites web simples

29. Les mesures que doit prendre un utilisateur final lorsqu'il rencontre sur internet un contenu potentiellement illicite diffèrent selon qu’il s’agisse des sites web simples ou des géants du numérique. Facebook, Twitter, Tumblr ou YouTube disposent de leur propre mécanisme de signalement «convivial» concernant le contenu généré par des tiers. Ce n’est pas la société elle-même qui génère le contenu. En tant qu'utilisateur final, un internaute peut signaler à l'intermédiaire internet un contenu généré par une autre partie. L’intermédiaire utilise son propre «code de conduite» ou la loi locale pour évaluer la nature du contenu et pour décider des mesures à prendre. Si la réponse de l'intermédiaire est négative et si l'utilisateur estime toujours que le contenu est illicite, il peut le signaler à l’autorité nationale compétente.
30. Dans le même temps, pour un site web modeste où l'administrateur du site est lui-même le générateur de contenu, la procédure devient plus compliquée. Comme c’est l’opérateur qui a généré le contenu potentiellement illicite, il ne serait pas très efficace de lui signaler un contenu. Il serait nécessaire de rechercher l'entreprise hébergeant le site web ou son fournisseur internet afin de signaler le contenu. Étant donné que la procédure n'est pas aussi rapide et fiable (manque de grands services juridiques et de transparence), un utilisateur devrait probablement signaler un contenu directement à l'autorité nationale compétente. Il appartiendrait ensuite à cette dernière d'évaluer la nature du contenu et de prendre les mesures qui s'imposent. En général, l’action de l’autorité nationale dépend du fait que le site web est hébergé à l’intérieur ou à l’extérieur du pays.
31. Les mécanismes de signalement varient d'un pays à l'autre, de même que la définition du contenu illicite. Les sites web que l'on peut trouver à l'aide de moteurs de recherche (e.g. Bing ou Google) peuvent être potentiellement illicites et la seule chose qu'un moteur de recherche puisse faire est de déréférencer le site en question de sa liste de recherche, sans pouvoir pour autant le supprimer du web en général.
32. A l’évidence, il est crucial de disposer d'un mécanisme d'évaluation du contenu rapide, fiable et approprié concernant les petits sites web simples, permettant la coopération entre États sur ce sujet.

2.4 Lois nationales concernant la responsabilité juridique des intermédiaires internet

2.4.1 Le cadre juridique français

33. En décembre 2018, une nouvelle loi a été votée visant explicitement la manipulation d’opinions notamment en période électorale. Cette loi a pour finalité la lutte contre la diffusion intentionnelle de fausses nouvelles afin de mieux protéger la démocratie. Les plateformes, moteurs de recherche, réseaux sociaux doivent faire la transparence sur les acteurs qui achètent la diffusion de contenus sponsorisés, ainsi que sur les rémunérations afférentes. À défaut, ils encourent une peine d’un an de prison et 75 000 euros d’amende, pouvant être accompagnée d’une interdiction d’activité pendant cinq ans.
34. En juillet 2019, l’Assemblée nationale a voté une proposition de loi de Mme Laëtitia Avia visant à lutter contre les contenus haineux sur internet. Le but est de simplifier et accélérer la suppression des contenus publics illicites au regard de la loi de 1881 sur la liberté de la presse, notamment «les contenus publiés sur internet et comportant une incitation à la haine ou une injure en raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap». Le Conseil supérieur de l’Audiovisuel devra établir les lignes directrices de bonnes pratiques pour les intermédiaires du net et aura des pouvoirs en matière de contrôles et de sanctions suite à des contenus haineux en ligne. De plus, un parquet spécialisé sera créé. Saisi en référé ou sur requête, le juge pourra ordonner le blocage ou le déréférencement des contenus litigieux. Le texte prévoit également l’aggravation des peines encourues (jusqu’à 250 000 € d’amende) en cas de non-respect des obligations prévues par la loi et celles relatives à l’obligation, pour ces opérateurs, de désigner un représentant légal en France. Cette proposition de loi est en attente d’examen au Sénat.
35. Lors d’un entretien avec M. Zuckerberg à Paris en mai 2019, le Président Macron a expliqué vouloir faire de la France le pays qui invente la régulation du numérique pour réconcilier la technologie et le bien commun; le patron de Facebook a affirmé avoir bon espoir que les normes françaises puissent devenir un modèle à l’échelle de l’Union européenne.

2.4.2 Le cadre juridique allemand

36. Le dernier exemple de loi imposant la responsabilité de l’intermédiaire vis-à-vis du contenu est la loi d’application relative aux médias (Netzwerkdurchsetzungsgesetz ou “NetzDG”), qui est entrée en vigueur le 1er janvier 2018. Cette loi crée un régime de responsabilité renforcée des intermédiaires, qui est assorti de sanctions substantielles. Elle oblige les intermédiaires à retirer les contenus qui sont «manifestement illicites» dans un délai de 24 heures et les «contenus illicites» dans un délai de sept jours. Cette loi renvoie à des infractions définies dans le Code pénal allemand, notamment l’interdiction du blasphème, du discours de haine et de la diffamation en général. En cas de non-respect des obligations susmentionnées, des sanctions administratives sévères pouvant aller jusqu’à 50 millions d’euros s’appliquent aux médias sociaux, lesquels comptent plus de 2 millions d’utilisateurs enregistrés en Allemagne.
37. Les intermédiaires peuvent déléguer l’examen de la légalité du contenu à des institutions d’autorégulation. Ces institutions examinent le contenu en question et rendent une décision que l’intermédiaire doit appliquer. À ce jour, aucune institution de ce type n’a été approuvée. Les fonctions d’autorégulation seraient subordonnées à une «approche systémique». On observera que, d’une certaine façon, le cadre législatif allemand déplace les pouvoirs/obligations de censurer du contenu depuis le secteur public vers le secteur privé. Certains se sont inquiétés du blocage excessif ou du «filtrage collatéral» résultant de ce mécanisme, car c’est aux intermédiaires qu’il incombe de prendre la décision, qui est – souvent – difficileNote. Pendant les 100 premiers jours d’application de la loi, 253 plaintes concernant du contenu ont été reçues. De plus, le bureau placé sous l’autorité du ministère de la Justice a lancé des enquêtes ex officio, portant le nombre total à 300 cas environ. Cinq réclamations ont été reçues par des intermédiaires. La plupart d’entre elles concernent des insultes, des cas de diffamation, des discours de haine et la négation de l’holocauste.

2.5 La question de l’application à l’internet des lois sur les médias

38. La loi sur les médias devrait-elle s’appliquer à l’internet et aux intermédiaires? La question a été soulevée à plusieurs reprises au fil des ans. Dans la plupart des pays, les lois relatives aux médias contiennent des règles de responsabilité strictes sur les contenus, qui prévoient des sanctions pénales et civiles à l’encontre des éditeurs et des directeurs de journaux, des radiodiffuseurs, etc.Note. Ces lois imposent des sanctions sur la base d’une responsabilité secondaire ou de la responsabilité du fait d’autrui, cas de figure qui se trouve rarement dans les autres domaines de la législation. Du fait de la dynamique de l’internet, qui, sur le plan des fonctionnalités, a convergé dans l’élaboration de contenus et leur diffusion avec les médias classiques, le principe de responsabilité vis-à-vis du contenu tel qu’il existe dans la législation sur les médias est de plus en plus souvent invoqué dans les actions en justice et les débats d’orientation dans le monde entier, d’où l’importance de donner des définitions claires de l’«éditeur» et du «diffuseur» de contenus en ligne.
39. Les difficultés inhérentes à une transposition directe à l’internet de la structure de responsabilité de la loi sur les médias résident dans le fait que le contenu est généré par des tiers et non par les intermédiaires eux-mêmes. Il semble qu’il serait préférable de renoncer à appliquer la loi sur les médias directement, et de concevoir un cadre juridique sui generis pour les intermédiaires.
40. Les sociétés comme Google, Twitter, Facebook, etc., sont communément vues comme de «simples tuyaux» qui acheminent du contenu. Elles sont donc privilégiées au regard des règles d’exonération (de la responsabilité du contenu) qui figurent dans la loi américaine de 1996 intitulée Communications Decency Act, dans la directive de l’Union européenne sur le commerce électroniqueNote ainsi que dans un certain nombre de lois nationales. On peut qualifier l’approche américaine d’«immunité absolue» et l’approche européenne d’«immunité relative». Cependant, la directive sur le commerce électronique est ambiguë quant à la portée de l’immunité et elle n’emploie pas l’expression «manifestement illicite». Une étude menée par la Direction générale des politiques internes du Parlement européen en 2017 a déjà exprimé le besoin de clarifier la portée de l’immunité.

3 Proposition de créer une institution d’Ombudsman de l’internet

41. Au cours des trois dernières années, l’idée de la création d’un Ombudsman chargé d’évaluer le caractère licite ou illicite du contenu publié sur internet a fait son apparition. Cette idée est née d'un rapport présenté à l'UNESCO par M. Dan ShefetNote qui soulignait (dans le chapitre sur les recommandations de politique générale) la nécessité d'une procédure accélérée de résolution des litiges ou d'une procédure de qualification du contenu afin de protéger la liberté d’expression sur internet. Le rapport concluait que le pouvoir de fournir une qualification du contenu publié en ligne pouvait être attribué à une institution d'Ombudsman dans chaque pays.
42. Cette idée a été retenue par la sénatrice Mme Nathalie Goulet qui a présenté au Sénat français une proposition de loi visant à créer un Ombudsman de l’internet. Dans sa propositionNote, l’Ombudsman serait une autorité administrative indépendante, désignée parmi les membres de la Commission nationale de l'informatique et des libertés (CNIL).
43. Une qualification du contenu ne serait traitée ni comme un jugement, ni comme une sentence arbitrale; elle ne serait pas juridiquement contraignante, mais fournirait des indications faisant autorité en matière d'interprétation et de qualification du contenu en ligne. Les parties seraient libres de choisir de suivre ou non l'évaluation faite par l’Ombudsman.
44. L’avis de l’Ombudsman sur le contenu serait accessible aux intermédiaires internet ainsi qu'aux utilisateurs finaux. Un intermédiaire ayant un doute sur la nature d’un contenu ou un utilisateur ayant rencontré un contenu qui lui semble illicite pourraient le renvoyer à l'Ombudsman. L’Ombudsman devrait émettre son avis sur le contenu présumé illicite sous sept jours ouvrables et, en l'absence de décision, le contenu serait considéré comme licite.
45. Cette initiative législative n’a pas, à ce jour, eu une suite. Cependant, la création, dans chaque État membre, d’une institution d’Ombudsman de l’internet pourrait s’avérer utile, vu d’une part le besoin pressant d’introduire une certaine régulation des contenus publiés sur le web, et d’autre part, la multitude de normes communautaires établies par les intermédiaires eux-mêmes.
46. L’institution d’Ombudsman fournirait aux intermédiaires, à leur demande et après examen des contenus douteux, des recommandations sur le traitement de ces contenus. L’institution pourrait être saisie également par des utilisateurs qui se considèrent lésés dans leur droit à la liberté d’expression ou qui ont signalé des contenus présumés illicites mais n’ont pas eu de réponse de la part des intermédiaires concernés.
47. Pour ce qui est de l’organisation pratique du fonctionnement de l’institution de l’Ombudsman, certains États membres pourraient faire le choix d’établir une nouvelle institution; d’autres pourraient attribuer les fonctions de l’Ombudsman à des structures institutionnelles existantes, telles que l’autorité chargée de la protection des données, l’autorité de régulation des médias, ou encore l’Ombudsman chargé des questions de la protection des droits de l’homme.

3.1 Avantages possibles pour le public

48. Les préjudices causés par la diffusion de contenus dommageables sur internet peuvent vite devenir irréversibles: la communication en ligne est instantanée et globale, et tout contenu préjudiciable peut être téléchargé par une nuée d’utilisateurs. Les remèdes contre ce type de contenus doivent être effectifs et rapides. Une justice tardive ne serait ni appropriée, ni efficace.
49. Dans ce contexte, l’institution de l’Ombudsman devrait permettre de résoudre plus rapidement les cas plus délicats, sans laisser le poids de la décision sur les intermédiaires, et d’accélérer le retrait des contenus litigieux qui portent atteinte à une personne, à un groupe de personnes ou au public en général; il s’agit de renforcer leur protection.
50. Par ailleurs, l’institution de l’Ombudsman renforcerait en même temps la protection du droit à la liberté d’expression des usagers en réduisant le risque de la suppression abusive par les intermédiaires des contenus qui leur semblent «dérangeants» ou «provocateurs».

3.2 Avantages possibles pour les médias sociaux

51. Actuellement, les utilisateurs signalent à la plateforme les contenus qu’ils jugent illicites ou contraires aux normes internes applicables à la communauté, après quoi le personnel de la plateforme (parfois des sous-traitants) examine le contenu incriminé et décide de le retirer ou non. Les utilisateurs font aussi des signalements à des ONG comme Internet Watch Foundation au Royaume-Uni, Internet-Beschwerdestelle en Allemagne, à d’autres membres de l’INHOPE, à des agences gouvernementales comme Pharos en France, ou encore directement aux services de répression. En outre, les intermédiaires font de plus en plus souvent appel à l’intelligence artificielle pour intercepter les éléments de contenu illicites.
52. Cela étant, il peut être très difficile de trancher définitivement sur la légalité des contenus. Certaines affaires concernant le discours de haine par exemple sont même portées devant le Comité des droits de l’homme des Nations Unies et certaines sont portées devant la Cour européenne des droits de l’homme. Lorsqu’ils traitent des demandes de retrait ou de déréférencement, les intermédiaires ne possèdent pas toujours les compétences juridiques nécessaires pour déterminer si le contenu concerné est illicite ou non. L’entrée en vigueur du RGPD augmente la pression sur les intermédiaires qui s’exposent à des sanctions lourdes pouvant atteindre 4 % du chiffre d’affaires.
53. Les intermédiaires (en particulier les jeunes entreprises qui ne peuvent pas se permettre de grands départements juridiques) pourraient faire appel à l’Ombudsman pour prendre une décision éclairée en cas de demande spécifique de retrait ou de blocage. Celui-ci délivrerait un avis et en se conformant à cet avis, l’intermédiaire serait assuré d’éviter d’éventuelles sanctions pénales.

3.3 Responsabilité pénale, responsabilité civile et contrôle judiciaire des décisions concernant les contenus

54. Voici quelques cas de figure qui peuvent impliquer la responsabilité des principales parties-prenantes, tels l’Ombudsman, l’intermédiaire et l’utilisateur: 1) l’intermédiaire détecte et supprime un contenu qu’il considère illicite; 2) un utilisateur signale un contenu qu’il estime illicite et l’intermédiaire le supprime, ou au contraire ne le supprime pas; 3) un contenu présumé illicite est supprimé à la recommandation de l’Ombudsman; 4) un contenu présumé illicite est gardé en ligne à la recommandation de l’Ombudsman; 5) la victime d’un contenu préjudiciable non-supprimé dépose une plainte; 6) l’auteur d’un contenu supprimé dépose une plainte.
55. Selon la législation de l’Union européenne, mais aussi selon les normes du Conseil de l’Europe, les intermédiaires doivent réagir promptement et prendre des mesures adéquates dès qu’ils observent un contenu potentiellement illicite publié en ligne. Ils sont tenus de retirer les informations en question ou rendre l’accès à celles-ci impossible. Quand l’illicéité d’un contenu ne soulève pas de questions, les intermédiaires le suppriment tout simplement, selon leurs normes internes et la législation en vigueur. Mais dans des cas plus délicats, on pourrait s’adresser à l’Ombudsman pour avoir son avis sur le caractère licite ou illicite d’un contenu et donc sur l’obligation de le supprimer ou non.
56. En agissant conformément à cet avis (non contraignant), les intermédiaires – qui seraient alors de bonne foi – ne pourraient plus être poursuivis au pénal.
57. Dans tous les cas de figure, l’usager lésé garderait le droit d’ester en justice pour obtenir que la décision prise par l’intermédiaire soit modifiée et la réparation du dommage subi effectuée. Ce droit est reconnu (y compris au niveau constitutionnel) dans nos ordres juridiques nationaux et il est également protégé par l’article 6 de la Convention européenne des droits de l’homme.
58. On peut donc se poser la question de savoir comment gérer les cas (rares sans doute, mais toujours possibles) où l’avis de l’Ombudsman serait renversé par un arrêt des juridictions nationales.
59. Il me semble évident qu’aucune responsabilité civile ne saurait être adossée à l’institution de l’Ombudsman (sauf probablement les cas de faute grave ou de dol). Quant à la responsabilité civile des intermédiaires, une solution pratique pourrait être la mise en place d’un système de couverture de risque, tel que la création d’un fonds qui permettrait de payer des dommages-intérêts aux usagers en question.

3.4 Difficultés risquant d’apparaître lors de la création de l’institution de l’Ombudsman

3.4.1 La question de la compétence juridictionnelle en matière d’internet

60. S’agissant de la portée territoriale des réglementations en matière de contenu, il existe trois grandes écoles de pensée. Selon la première, l’internet est un dédale de lois nationales et régionales; le cyberespace est une simple extension de l’État souverain et il est donc soumis aux lois et aux réglementations de l’État. La Chine en particulier a adopté une politique législative d’extension stricte de la souveraineté de l’État au cyberespace. La deuxième école de pensée défend un internet uniquement régi par ses propres lois, selon la théorie de l’universalisme. Les États-Unis prônent cette approche. La troisième école, représentée par l’Union européenne, promeut la portée extraterritoriale des réglementations en matière de contenu. A la date de rédaction de ce rapport, nous attendons la décision préjudicielle de la Cour de Justice de l’Union Européenne (CJUE) relative à la demande introduite par le Conseil d’État français dans l’affaire Google c. CNILNote, qui aura des répercussions majeures sur la délimitation future de la compétence nationale et sur l’effet extraterritorial.
61. Dans l’état actuel des choses, l’Ombudsman n’aurait pas pour mission de résoudre des conflits juridictionnels. Toutefois, étant donné l’approche de l’Union européenne, il semble logique que les États membres du Conseil de l’Europe développent l’approche extraterritoriale.

3.4.2 Des traditions juridiques et socio-culturelles diverses sur la liberté d’expression

62. Il est vrai que chaque État membre a sa propre législation et ses propres définitions concernant les contenus préjudiciables ou illicites, et que chaque État peut établir un équilibre légèrement différent entre la liberté d'expression et les autres droits fondamentaux. Etant donné la diversité des traditions socio-culturelles et juridiques, un contenu peut être considéré comme illicite dans un pays et licite dans un autre. Si l’Ombudsman qualifiait un contenu d'illicite, l’intermédiaire supprimerait probablement ce contenu pouvant provenir d'un pays où ce contenu est considéré licite. Dans certaines situations spécifiques, cela pourrait poser un problème du point de vue de la liberté d'expression. Par exemple, des contenus relatifs à l’homosexualité pourraient être qualifiés d’illicites dans des pays tels que la Fédération de Russie, où la loi fédérale visant à protéger les enfants des informations prônant le déni des valeurs familiales traditionnelles dispose que les informations contenant "de la propagande homosexuelle" peuvent être bloquées et supprimées.
63. Tous les États membres du Conseil de l’Europe ont ratifié la Convention européenne des droits de l'homme. La jurisprudence de la Cour européenne des droits de l’homme en matière de droit à la liberté d’expression constitue un facteur d’harmonisation qui devrait permettre de surmonter les différences socio-culturelles et juridiques entre les États membres. Un souci pourrait néanmoins rester dans les États membres qui obligeraient les intermédiaires à se conformer aux règles les plus strictes en matière de contenu illicite.

3.4.3 Établir une nouvelle institution ou élargir le mandat d’une institution existante?

64. En fonction de différents contextes nationaux, il est possible que certains États mettent en place une institution d’Ombudsman autonome, créée ex nihilo, tandis que d’autres assignent des fonctions «d’Ombudsman de l’internet» à des institutions préexistantes. Par exemple, en France, on peut imaginer qu’une telle fonction pourrait être attribuée à une haute autorité indépendante, telle que le Conseil supérieur de l’audiovisuel (ce qui est d’ailleurs prévu dans l’avis du Conseil d’État sur la proposition de loi visant à lutter contre la haine sur Internet).

3.4.4 Nécessité de fonctionner en réseau au niveau européen

65. Compte tenu du caractère transnational de l’internet, il n’est pas assez efficace de supprimer un contenu préjudiciable dans un pays s’il reste disponible dans d’autres. Cette situation est pourtant celle qui risque de se produire en attendant une plus forte harmonisation législative en la matière. Une concertation voire une collaboration entre les institutions d’Ombudsman nationales, fondée sur des principes communs de qualification de divers types de contenus et des approches uniformes dans leur mise en œuvre, pourrait réduire le risque d’un traitement diversifié du même contenu, et en même temps favoriser des rapprochements législatifs.
66. Les États membres devraient se mettre d’accord sur la base réglementaire et pratique qui permettrait à ces institutions de fonctionner en réseau, en développant des actions coordonnées et synchronisées, nonobstant les différences potentielles en ce qui concerne les juridictions nationales et les mandats des institutions.
67. En perspective, pour plus d’efficacité et rapidité de traitement des cas précis, il serait utile d’harmoniser les cadres juridiques régissant ces structures. Par ailleurs, il faudrait également examiner la nécessité d’un point de coordination ou même d’un Ombudsman au niveau européen, à l’instar des commissaires sur la protection des données qui existent à la fois au niveau national et européen. Un Ombudsman au niveau européen, disposant d’une base de données complète concernant les cadres juridiques nationaux et les statuts des Ombudsmans nationaux, pourrait être d’une grande utilité surtout dans les situations de divergence juridique entre les pays par rapport à des contenus publiés en ligne.

3.4.5 Le problème de la quantité (probablement) significative de réclamations concernant la nature (potentiellement) illicite des contenus

68. On peut supposer que la possibilité d’obtenir une qualification officielle du contenu sur internet se traduira par un nombre important de demandes, tout du moins au début, et que certaines d’entre elles seront peut-être abusives. L’article 12.5 du RGPD, qui traite des demandes abusives déposées par les personnes concernées, pourrait servir de base pour définir des sanctions analogues contre les intermédiaires qui solliciteraient de mauvaise foi l’avis de l’Ombudsman.
69. Au fil du temps, il est probable que l’Ombudsman serait en mesure d’établir un certain niveau de classification des demandes et des types de contenu. Cette classification pourrait être facilitée par la coopération entre les Ombudsmans de l’internet dans les différents États membres (en conservant toutefois les spécificités du droit national). On peut aussi envisager un pré-filtrage et une approche centralisée dans l’esprit de l’Internet Watch Foundation au Royaume-Uni, de Pharos en France et de l’Internet-Beschwerdestelle en Allemagne.
70. Cette façon de faire aurait nécessairement pour effet de limiter les attributions de l’Ombudsman au contrôle des notifications présentées par ces agences de pré-filtrage. Au début des activités de l’Ombudsman, dans une phase de rodage, il serait sage de limiter les demandes de qualification de contenus des intermédiaires aux notifications faites par ces agences. Il serait de même opportun, pendant cette phase initiale, de limiter l’étendue des qualifications aux contenus manifestement illicites, domaine où le risque de blocage excessif est le plus présent.

3.4.6 Problème de financement de l’institution de l’Ombudsman

71. La question du financement de l’institution de l’Ombudsman est essentielle. Sans un financement suffisant et stable dans le temps, il ne sera pas possible d’en assurer son bon fonctionnement, ni de recruter le personnel hautement qualifié dont il aura besoin, sans oublier qu’à tout moment il est indispensable de préserver son indépendance.

3.4.6.1 Financement public

72. La mise en place d’un Ombudsman au niveau de l’Union européenne devrait être financée par son budget, mais on pourrait envisager, par exemple, l’application de charges pour l’utilisation par les intermédiaires du service de l’Ombudsman, pour assurer, au moins en partie, la couverture financière nécessaire au fonctionnement de l’institution. En ce qui concerne les institutions nationales, vu l’état des finances publiques dans plusieurs États membres, on peut présumer que les ressources disponibles seraient relativement modestes. Une option serait d’introduire une taxe spécifique pour le secteur des intermédiaires affectée au fonctionnement de l’institution de l’Ombudsman. Cependant, cette solution pourrait créer d’inutiles controverses étant donné l’actuelle proposition de l’Union européenne en faveur d’une taxe générale pour le secteur des intermédiaires qui serait assise sur les recettes.
73. L’idéal serait évidemment la mise en place d’un Ombudsman au niveau du Conseil de l’Europe. Mais elle me semble peu réaliste, du moins actuellement; j’aimerais bien avoir tort à cet égard et si la volonté politique était là, celle-ci serait sans doute l’option la meilleure. On pourrait même envisager un accord partiel élargi, ouvert aux pays non membres de l’organisation.
74. Il me semble difficile de discuter de la taxe spéciale tant que la question sur la taxe générale ne sera pas clarifiée. L’idée d’une charge pour l’utilisation du service est aussi à prendre en considération, mais cela risque de décourager les demandes de la part des usagers.

3.4.6.2 Financement par la contribution volontaire des intermédiaires internet

75. Pour financer l’institution de l’Ombudsman national, on pourrait envisager une participation financière volontaire de la part des grands opérateurs internet, mais leur motivation devra être stimulée.
76. Une motivation concrète pourrait être, par exemple, l’opportunité d’éviter d’éventuelles sanctions pénales. Les géants du numérique pourraient être sensibles à cet aspect, car ils aiment garder une image de marque «propre», favorable pour le marketing et les ventes. Dans cette perspective, même les intermédiaires disposant de grandes équipes de modérateurs pourraient être intéressés à contribuer au financement de l’institution de l’Ombudsman. Néanmoins, il est certain que leur intérêt se porterait davantage à une institution commune au plus grand nombre d’États, plutôt qu’au financement d’une pléiade d’institutions nationales. Dans tous les cas, il faudrait s’assurer de la stabilité de ces contributions volontaires et prendre garde à ce que la dépendance financière ainsi créée ne se traduise pas par une mainmise des intermédiaires internet sur l’institution de l’Ombudsman, qui perdrait ainsi non seulement son indépendance mais également sa crédibilité.

3.4.7 La question de la responsabilité civile des intermédiaires internet

77. Comme indiqué plus haut, même si les intermédiaires suivaient les recommandations de l’Ombudsman, ils resteraient cependant responsables civilement, et si cette responsabilité était engagée, ils devraient dédommager la partie lésée. A cet égard, je me demande s’il ne serait pas possible d’envisager une solution semblable à celle qui existe pour d’autres activités à risque, comme la circulation automobile, en établissant une assurance responsabilité civile obligatoire pour les intermédiaires internet, ou du moins prévoir qu’ils mettent en place un fonds de garantie qui interviendrait pour résoudre si possible à l’amiable les litiges. En accordant rapidement des dommages-intérêts aux usagers lésés, on éviterait sans doute de coûteuses procédures judiciaires.
78. Les grandes plateformes des médias sociaux disposent d’équipes nombreuses de modérateurs dont la tâche est de faire en permanence des vérifications en ligne pour éviter tout recours à la justice; on peut donc raisonnablement présumer qu’il n’y aurait pas pléthore d’usagers à dédommager. Par conséquent, un tel système pourrait s’avérer un investissement intelligent permettant en même temps de mieux protéger les personnes lésées, décharger les intermédiaires de la gestion d’un contentieux fastidieux et peut-être réduire le nombre de litiges portés devant les tribunaux nationaux.
79. En somme, en finançant le fonctionnement de l’Ombudsman et en participant au système d’assurance, les opérateurs n’auraient plus à intégrer dans leurs budgets des provisions dans la perspective d’éventuels litiges sur les contenus diffusés en ligne.
80. Les intermédiaires devraient garder néanmoins leur part de responsabilité quant aux contenus publiés en ligne. Ils devraient être encouragés à coopérer dans le domaine de la recherche, afin de développer des algorithmes capables d’assister de mieux en mieux les spécialistes à dénicher les contenus illicites. À travers un mécanisme de coopération intelligente, ils pourraient mutualiser les (ou une partie des) ressources dédiées à la lutte contre les contenus illicites et engager les mêmes équipes de spécialistes-modérateurs en ligne, d’ingénieurs chercheurs, etc.

4 Aspects juridiques et pratiques concernant le fonctionnement de l’institution de l’Ombudsman

4.1 Assurer l’indépendance politique, juridique et économique de l’Ombudsman

81. Chaque État membre serait libre d’établir l’institution d’Ombudsman de l’internet conformément à sa culture juridique. Les principes d’indépendance et d’impartialité sont les deux aspects de l’institution sur lesquels on ne saurait transiger. Les garanties à cet égard devraient être les mêmes que celles concernant l’institution de l’ombudsman «classique».

4.2 Portée des questions à traiter: terrorisme, discours de haine, harcèlement, cyberharcèlement

82. Les attributions de l’Ombudsman de l’internet devraient couvrir les questions suivantes: discours de haine/incitation (y compris la xénophobie, le racisme, l’antisémitisme, le sexisme, etc.); contenu extrémiste/radicalisation; droit à l’oubli; cyberharcèlement; harcèlement; diffamation. Les fausses informations et la propagande ne devraient pas relever de sa compétence; ces questions concernent les faits et non la qualification de légalité du contenu.
83. La tâche de l’Ombudsman devrait être limitée à la qualification des infractions en tant que délits inchoatifs (ne nécessitant pas d’analyse de la cause). L’élément d’intention n’est pas décisif. L’analyse de la légalité du contenu devrait être objectivée au maximum, en tenant compte de la sémantique et du contexte.
84. Le contenu acheminé par le darknet ne devrait pas être traité, car les intermédiaires n’ont pas ou presque pas de contrôle sur ce type de contenu. Il en va de même pour les «blockchains», car le caractère décentralisé de cette technique soulève de graves problèmes de responsabilité secondaire.

4.3 Comment l’Ombudsman se positionnerait-il vis-à-vis du RGPD?

85. Le RGPD n’est pas un instrument de réglementation du contenu en tant que tel. Par exemple, il ne réglemente pas le discours de haine et autres sujets analogues. Il se limite (comme l’indique son titre) au traitement, à la collecte, au transfert, etc., des données à caractère personnel. Il contient néanmoins certaines dispositions de réglementation du contenu, accompagnées de sanctions pénales et civiles substantielles, par exemple à l’article 82 relatif au «Droit à réparation et responsabilité» et à l’article 83.6 qui concerne les amendes administratives de 4 %.
86. Il est donc essentiel de déterminer aussi si le RGPD contient ou non des garanties suffisantes en termes de filtrage collatéral, dans la mesure où il peut se traduire par une réglementation du contenu (par exemple, l’article 16 sur le «Droit de rectification» et l’article 17 sur le «Droit à l’effacement» (également appelé «Droit à l’oubli»)). Sur ce point particulier, le RGPD utilise des notions qui ne sont pas toujours clairement définies: «ne sont plus nécessaires» ou «motif légitime impérieux», «liberté d’expression».
87. Outre les qualifications relatives aux articles 16 et 17 mentionnées ci-dessus, des difficultés d’application du RGPD peuvent survenir en lien avec l’article 3.2 sur le champ d’application territorial, qui dispose que l’intention de traitement de données relatives à des personnes qui se trouvent sur le territoire de l’Union européenne doit être prouvée, et avec l’article 5 (finalité, caractère adéquat et exactitude), l’article 6 (licéité et nécessité du traitement), l’article 7 (consentement), l’article 21 («motifs légitimes et impérieux pour le traitement»), voire l’article 44 («franchissement d’une frontière»).
88. L’Ombudsman de l’internet ne devrait pas avoir à traiter ces questions. Il devrait seulement émettre des avis sur la qualification du contenu et non sur les procédures qui entourent le RGPD (par exemple, sur la question de savoir si le consentement est obtenu de manière légale).

5 Conclusions

89. Nous devons accepter les nouvelles technologies, pour le meilleur et pour le pire, et, dans le même temps, protéger la liberté d’expression ainsi que d’autres valeurs que l’utilisation abusive de l’internet met en péril.
90. Compte tenu de l’impact généralisé des contenus en ligne sur les comportements hors ligne et de la fonction de contrôleur d’accès des intermédiaires, nous n’avons d’autre choix que celui d’imposer un certain degré de responsabilité aux intermédiaires relativement aux contenus diffusés sur leur infrastructure.
91. Cependant, il ne semble pas aisé d’appliquer directement aux intermédiaires les actuelles lois sur les médias, compte tenu de la nature et du volume énorme des contenus générés par des tiers de manière ininterrompue. Il faut donc élaborer une théorie de la responsabilité sui generis.
92. Des efforts de réglementation du contenu plus ou moins coordonnés sont actuellement déployés au niveau de l’État et au niveau régional. Ces initiatives convergent vers une forme ou une autre de responsabilité des plateformes, les différences concernant essentiellement l’application, les recours et les sanctions.
93. Les sanctions pourraient porter gravement atteinte à la liberté d’expression en incitant les intermédiaires à prendre des mesures qui pourraient conduire à un blocage excessif, au vu en particulier des difficultés qui se posent pour qualifier des contenus d’illicites. Malheureusement, la législation relative au contenu comme celle qui concerne le «discours de haine» et le «droit à l’oubli» est vague et nécessite de trouver un équilibre difficile entre divers concepts comme «liberté d’expression», «intérêt du public» et autres.
94. Le rôle de l’Ombudsman de l’internet serait précisément de renforcer la sécurité juridique, d’éviter le blocage excessif et de renforcer la mise en œuvre effective de la réglementation sur les contenus publiés en ligne, tout en soulageant les tribunaux.
95. Pour que l’Ombudsman fonctionne de manière optimale, la transparence et l’indépendance doivent être garanties. Cette exigence s’applique à la fois aux avis de l’Ombudsman et aux décisions que prennent les intermédiaires de se conformer ou non à ces avis. Cette transparence permet le débat public et la sensibilisation de l’opinion. Elle permet également d’apporter des informations aux organes de publicité et donc de valider le modèle économique des intermédiaires dans sa capacité à atteindre le résultat souhaité sans restreindre la liberté d’expression.
96. Le projet de résolution reprend l’essentiel de ces propositions. Le rapport est plus riche en suggestions, mais je n’ai pas souhaité fixer un cadre qui pourrait paraître trop rigide, car il s’agit d’un sujet à plusieurs égards inexploré, ou les solutions auront besoin d’être testées et validées.
;