Logo Assembly Logo Hemicycle

Le contrôle de la communication en ligne: une menace pour le pluralisme des médias, la liberté d’information et la dignité humaine

Doc. 15537 : recueil des amendements écrits | Doc. 15537 | 23/06/2022 | Version finale

Légende : AdoptéRejetéRetiréPas de votes électroniques

AProjet de résolution

1L’Assemblée parlementaire estime que la politique de la communication doit être ouverte, transparente et pluraliste; elle doit se fonder sur l’accès sans entrave aux informations d’intérêt public et sur la responsabilité de ceux qui diffusent l’information dans la société. Elle constate que la communication en ligne est devenue un élément essentiel de la vie quotidienne des citoyens et s’inquiète du fait qu’une petite poignée d’intermédiaires d’internet contrôlent de facto les flux d’informations en ligne. Cette concentration entre les mains de quelques sociétés privées leur donne un pouvoir démesuré dans les domaines économique et technologique, ainsi que la possibilité d’influer sur presque tous les aspects de la vie privée et sociale des gens.

jeudi 23 juin 2022

Déposé par M. Gianni MARILOTTI, M. Roberto RAMPI, Mme Ada MARRA, M. Gerardo GIOVAGNOLI, M. Andrej HUNKO, M. Gianluca PERILLI

Votes : 29 pour 1 contre 1 abstention

Dans le projet de résolution, après le paragraphe 1, insérer le paragraphe suivant:

«Wikileaks a en revanche constitué un modèle vertueux d'interrelation entre les utilisateurs et les intermédiaires. Il est par conséquent inacceptable que les États aient tendance à sanctionner ce modèle horizontal et démocratique de communication de l'information, au lieu de l'encourager en vue de mettre progressivement en place un mécanisme juridique complet de déclassification.»

Dans l’amendement 2, remplacer les mots «paragraphe 1» par les mots suivants:

«paragraphe 3»

2Des questions se posent sur la capacité et la volonté d’un oligopole économique et technologique de garantir la diversité des sources d’information et le pluralisme des idées et opinions en ligne, sur l’opportunité de confier à l’intelligence artificielle la tâche de surveiller le pluralisme en ligne, sur la capacité réelle des cadres juridiques et des institutions démocratiques mis en place à empêcher la concentration du pouvoir économique, technologique et informationnel de se convertir en un pouvoir politique non démocratique. En effet, alors que la communication électorale se déplace vers la sphère numérique, celui qui contrôle la communication en ligne pendant les campagnes électorales peut devenir une force politique redoutable. Les électeurs risquent d'être gravement affectés dans leurs décisions par des informations trompeuses, manipulatrices ou fausses.
3Les principaux facteurs de risque dans ce contexte sont les suivants: le manque de transparence des nouvelles formes de publicité en ligne, qui peuvent trop facilement échapper aux restrictions applicables à la publicité dans les médias traditionnels, comme celles visant à protéger les enfants, la moralité publique ou d'autres valeurs sociales; le fait que les journalistes, dont le comportement est guidé par des pratiques éditoriales et des obligations éthiques solides, n’endossent plus le rôle de contrôleurs d’accès; et la quantité croissante des désinformations en ligne, en particulier lorsqu’elles sont diffusées de façon stratégique dans le but d’influencer les résultats des élections.
4D’un point de vue économique, les effets de réseau et les économies d’échelle créent une forte tendance à la concentration du marché. Dans le contexte d’une concurrence oligopolistique induite par la technologie, les inefficacités et les défaillances du marché peuvent s’expliquer par l’utilisation du pouvoir de marché pour décourager l’entrée de nouveaux concurrents, par la création d’obstacles au changement de service ou par les asymétries d’information. Par conséquent, pour remédier à la domination de quelques intermédiaires d’internet sur le marché numérique, les États membres devraient recourir à la législation antitrust. Cela peut permettre aux citoyens d'avoir un plus grand choix lorsqu'il s'agit de choisir, dans la mesure du possible, des plateformes susceptibles de mieux protéger leur vie privée et leur dignité.
5Parmi les quelques solutions innovantes pour atténuer le pouvoir des intermédiaires d’internet, on peut citer l’option pour les usagers d’accéder, dans la mesure du possible, à des services, de les consulter et de les recevoir, de la part de fournisseurs tiers de leur choix qui classeraient et/ou fourniraient des contenus suivant une classification faite au préalable par l’utilisateur lui-même et pourraient l’alerter en cas de contenu violent, choquant ou dangereux.
6Au-delà du modèle économique, les questions cruciales pour les intermédiaires d’internet et pour le grand public sont la qualité et la variété des informations, ainsi que la pluralité des sources disponibles en ligne. Les intermédiaires d’internet utilisent de plus en plus des systèmes algorithmiques, qui sont utiles pour effectuer des recherches sur internet, créer et diffuser automatiquement des contenus, identifier les contenus potentiellement illégaux, vérifier les informations publiées en ligne et modérer la communication en ligne. Cependant, les systèmes algorithmiques peuvent être utilisés de manière abusive ou malhonnête pour façonner les informations, les connaissances, la formation d’opinions individuelles ou collectives et même des émotions et des actions. Associé à la puissance technologique et économique des grandes plateformes, ce risque devient particulièrement grave.
7Avec l’émergence des intermédiaires d’internet, les contenus préjudiciables se propagent à très grande vitesse sur la toile. Les intermédiaires d’internet devraient être particulièrement attentifs à leur devoir de diligence lorsqu'ils produisent ou gèrent les contenus disponibles sur leurs plateformes ou lorsqu'ils jouent un rôle de conservateur ou d'éditeur, tout en évitant de supprimer les contenus de tiers, à l'exception des contenus clairement illégaux.
8L’utilisation de l’intelligence artificielle et des filtres automatisés pour la modération des contenus n’est ni fiable ni efficace. Les grandes plateformes ont déjà un lourd passif de décisions de modération erronées ou préjudiciables à l’égard de contenus terroristes ou extrémistes. Les solutions aux défis politiques que sont les discours de haine, la propagande terroriste et la désinformation sont souvent multifactorielles; dès lors, l’obligation légale de la modération automatisée est une réponse inadaptée et incomplète. Il importe également de bien identifier et préciser le rôle et la présence nécessaire des décideurs humains, ainsi que la participation des utilisateurs dans l'élaboration et l’évaluation des politiques de modération de contenu.
9Aujourd'hui, on observe une tendance à la réglementation des plateformes de médias sociaux. Si un contrôle démocratique accru est nécessaire, la réglementation promulguée dans la pratique confère souvent un pouvoir et une liberté d’action trop étendus aux autorités publiques en ce qui concerne la circulation de l’information, ce qui met en danger la liberté d'expression. Le législateur devrait chercher à renforcer la transparence et se concentrer sur les processus et les opérations des entreprises plutôt que sur le contenu proprement dit. En outre, la législation devrait lutter contre les «contenus illicites» et éviter d'utiliser des notions plus larges comme celle de «contenus préjudiciables».
10Si les législateurs choisissent d'imposer des réglementations très lourdes à tous les intermédiaires d’internet, y compris les nouvelles petites entreprises, cela pourrait consolider la position des grands acteurs qui sont déjà sur le marché. Dans un tel cas, de nouveaux acteurs auraient peu de chance d'entrer sur le marché. Par conséquent, il est nécessaire d'adopter une approche progressive, pour adapter différents types de réglementations aux différents types de plateformes.
11L'Assemblée parlementaire rappelle que, dans sa Recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet, le Comité des Ministres du Conseil de l'Europe précise que toute législation devrait définir clairement les pouvoirs accordés aux autorités publiques à l’égard des intermédiaires d’internet; et la Recommandation CM/Rec(2020)1 sur les impacts des systèmes algorithmiques sur les droits de l'homme confirme que les normes de l'État de droit doivent être maintenues dans le cadre des systèmes algorithmiques.
12Les intermédiaires d’internet doivent assurer un certain degré de transparence des systèmes algorithmiques qu’ils utilisent, car cela peut avoir un impact sur notre liberté d’expression. Dans le même temps, en leur qualité d’entreprises privées, ils doivent pouvoir jouir de leurs droits légitimes au secret commercial, sans préjudice d'une transparence effective et des droits humains. Les États membres doivent trouver un équilibre entre la liberté des entreprises économiques privées et leur droit de développer leurs propres stratégies commerciales, incluant l’utilisation de systèmes algorithmiques, et le droit du grand public de communiquer librement en ligne, en ayant accès à un large éventail de sources d’information. Ils doivent également reconnaître que la suppression de contenu n'est pas en soi une solution aux préjudices sociétaux, car une modération de contenu plus rigoureuse peut déplacer le problème du discours de haine en ligne vers des plateformes moins populaires plutôt que de s'attaquer à ses causes.

jeudi 23 juin 2022

Déposé par M. Gianni MARILOTTI, M. Roberto RAMPI, Mme Ada MARRA, M. Gerardo GIOVAGNOLI, M. Andrej HUNKO, M. Gianluca PERILLI

Votes : 29 pour 2 contre 1 abstention

Dans le projet de résolution, à la fin du paragraphe 12, insérer les phrases suivantes:

«Le juste équilibre est renforcé par le respect des normes professionnelles et de l'éthique du journaliste, qui, par recoupement, soumet les sources à un examen minutieux. Cette démarche a été scrupuleusement suivie par M. Assange et les États membres doivent agir conformément à la Résolution 2300 (2019) «Améliorer la protection des lanceurs d’alerte partout en Europe». Chaque État membre doit reconnaître et faire respecter le droit des journalistes à protéger leurs sources, et élaborer un cadre normatif, judiciaire et institutionnel adéquat pour protéger les lanceurs d'alerte et les facilitateurs d'alerte. Il est injuste que ce droit n'ait pas été pris en compte dans la décision d'extradition prise à son encontre. Conformément à la Résolution 2317 (2020) «Menaces sur la liberté des médias et la sécurité des journalistes en Europe», la détention de M. Julian Assange et les poursuites pénales engagées à son encontre constituent un dangereux précédent pour les journalistes. Comme l'a déclaré le Rapporteur spécial des Nations Unies sur la torture et autres peines ou traitements cruels, inhumains ou dégradants le 1er novembre 2019, l'extradition de M. Assange vers les États-Unis doit être interdite et il doit être rapidement libéré.»

Dans l’amendement 3, remplacer les mots «à la fin du paragraphe 12, insérer les phrases suivantes: Le juste équilibre» par les mots suivants:

«après le paragraphe 14, insérer les phrases suivantes: Le droit à une information libre et pluraliste»

13Les intermédiaires d’internet ont la responsabilité de garantir la protection des droits des utilisateurs, qui incluent la liberté d’expression. Par conséquent, les États membres doivent veiller à ce que les intermédiaires d'internet soient tenus pour responsables des systèmes algorithmiques qu’ils développent et utilisent pour la production et la distribution automatisées des informations, ainsi que de leurs lignes de financement et les politiques qu’ils mettent en œuvre pour créer des flux d’information et lutter contre les contenus illégaux.
14En particulier, sur la base des normes internationales et de la législation nationale, les intermédiaires d’internet devraient assumer des responsabilités spécifiques concernant la protection des utilisateurs contre la manipulation, la désinformation, le harcèlement, les discours de haine et toute expression portant atteinte à la vie privée et à la dignité humaine. Le fonctionnement des intermédiaires d’internet et les évolutions technologiques qui sous-tendent leur mode opératoire doivent être guidés par des principes éthiques élevés. D’un point de vue juridique et éthique, les intermédiaires d’internet doivent assumer leurs responsabilités pour garantir un flux d’informations en ligne libre et pluraliste, respectueux des droits humains.

jeudi 23 juin 2022

Déposé par M. Gianni MARILOTTI, M. Roberto RAMPI, Mme Ada MARRA, M. Gerardo GIOVAGNOLI, M. Andrej HUNKO, M. Gianluca PERILLI

Votes : 30 pour 1 contre 1 abstention

Dans le projet de résolution, après le paragraphe 14, insérer le paragraphe suivant:

«Dans le cadre du traitement de l'information, les intermédiaires d'internet sont tenus d'agir conformément aux principes énoncés dans la Résolution 2382 (2021) «La liberté des médias, la confiance du public et le droit de savoir des citoyens». L'«effet d’intimidation» à l’égard des journalistes est un exemple de menace majeure pour le droit de savoir des citoyens. Comme le souligne la Commissaire aux droits de l’homme dans sa lettre adressée à Priti Patel le 10 mai 2022, «la nature à la fois imprécise et large des allégations portées contre M. Assange et des infractions énumérées dans l'acte d'accusation est troublante, dans la mesure où nombre d'entre elles concernent des activités qui sont au cœur même du journalisme d'investigation en Europe et au-delà» (CommHR/DM/sf012/2022).»

Dans l’amendement 1, supprimer les deuxième et troisième phrases.

.

15En conséquence, l’Assemblée appelle les États membres du Conseil de l’Europe:
15.1à rendre leur législation et leur pratique conformes à la Recommandation CM/Rec(2020)1 sur les impacts des systèmes algorithmiques sur les droits de l'homme et à la Recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet;
15.2à examiner si les réglementations et outils de concurrence générale existants permettent de combattre efficacement la concentration du pouvoir économique et technologique entre les mains de quelques intermédiaires d’internet;
15.3à utiliser la législation antitrust pour forcer les monopoles à céder une part de leurs actifs et à réduire leur domination sur les marchés numériques;
15.4à développer une approche réglementaire progressive pour adapter différents types de réglementations aux différents types d’intermédiaires d’internet, dans le but d'éviter de pousser de nouveaux acteurs en dehors du marché ou de leur permettre d’arriver sur le marché;
15.5à combattre le problème du comportement anticoncurrentiel sur les marchés numériques en renforçant l’application de la réglementation sur les fusions et les abus de position monopolistique;
15.6à garantir que toute législation imposant des obligations et des restrictions aux intermédiaires d’internet et ayant une incidence sur la liberté d’expression des utilisateurs vise exclusivement à lutter contre les «contenus illicites» et à éviter les notions plus larges comme celle de «contenus préjudiciables»;
15.7à veiller à ce que la modération uniquement automatisée ne soit pas autorisée par la loi; à cet égard, à encourager les intermédiaires d’internet, par le biais de mesures juridiques et politiques:
15.7.1à permettre aux utilisateurs de choisir des moyens de communication directs et efficaces qui ne reposent pas uniquement sur des outils automatisés;
15.7.2à veiller à ce que, lorsque des moyens automatisés sont utilisés, la technologie soit suffisamment fiable pour limiter le taux d'erreurs quand des contenus sont considérés à tort comme des contenus illicites;
15.8à garantir que la modération imposée par la loi prévoie la présence nécessaire de décideurs humains et intègre des garanties suffisantes pour que la liberté d’expression ne soit pas entravée;
15.9à encourager, par le biais de mesures juridiques et politiques, la participation des utilisateurs dans l'élaboration et l’évaluation des politiques de modération de contenu;
15.10à garantir que la réglementation promulguée pour assurer la transparence des systèmes automatisés de modération de contenu se fonde sur une définition claire du type d’informations qu’il est nécessaire et utile de divulguer et des intérêts publics qui légitiment ces obligations;
15.11à soutenir l’élaboration et le respect d’un cadre général d’éthique des intermédiaires d’internet, incluant les principes de transparence, de justice, de non-malfaisance, de responsabilité, de vie privée et de droits et libertés des utilisateurs;
15.12à encourager les intermédiaires d'internet, par le biais de mesures juridiques et politiques, à lutter contre le discours de haine en ligne en envoyant des messages d'avertissement aux personnes qui propagent le discours de haine en ligne ou en invitant les utilisateurs à réviser les messages avant de les envoyer; à encourager les intermédiaires d'internet à ajouter de telles lignes directrices aux codes de conduite traitant du discours de haine;
15.13à envisager d’adapter leur législation et leurs politiques électorales au nouvel environnement numérique en révisant les dispositions relatives à la communication électorale; à cet égard, à renforcer la responsabilité des intermédiaires d’internet en matière de transparence et d’accès aux données, à promouvoir un journalisme de qualité, à autonomiser les électeurs vers une évaluation critique des actions de communication électorale et à développer l’éducation aux médias.