(auteur, réf. de texte ou de décision…)
Recherche
(auteur, réf. de texte ou de décision…)
Enews Legipresse
Le club Légipresse
Vidéos
Point d'étape : vers un nouveau modèle de régulation des plateformes de contenus
Beaucoup de choses ont changé quant à la régulation des services de contenus ces dernières années et singulièrement depuis huit mois, depuis que le président de la République a annoncé, au Forum organisé à l'UNESCO en novembre, le lancement de la mission « Régulation des réseaux sociaux – Expérimentation Facebook », pilotée par Benoît Loutrel, et à laquelle a participé une experte du CSA (1).
Beaucoup de choses ont changé, d'abord parce que les opinions publiques ont profondément évolué de par le monde. Certains épisodes ont marqué les consciences, comme le terrible drame qui s'est déroulé à Christchurch en Nouvelle-Zélande. Si les enjeux liés à la diffusion en ligne des infox sont désormais bien identifiés, depuis les scrutins de 2017 en particulier, ceux liés à la prolifération des contenus haineux sur les réseaux sociaux se sont à l'évidence imposés dans l'espace public. Comme j'ai parfois l'occasion de le dire : ce que l'on n'accepte plus, depuis longtemps, à la radio et à la télévision, médias régulés de longue date maintenant, on l'accepte de moins en moins sur internet. Progressivement s'est imposée l'idée que les grandes plateformes de contenus ont, elles aussi, un certain nombre de responsabilités : du fait de leur rôle incontournable dans l'accès aux contenus, du fait de leurs algorithmes de référencement et de recommandation et, plus généralement, du fait de leur impact démocratique, sociétal et culturel – en particulier chez les jeunes, chez qui elles ont tendance à évincer les médias classiques.
Les pouvoirs publics en tirent naturellement les conséquences, dans la foulée de l'appel de Christchurch. Pas seulement en France mais sur tous les continents. Les débats récents aux États-Unis, notamment dans le cadre de la primaire démocrate, témoignent d'un véritable changement d'approche. Et, ce qui est sans doute le plus marquant, c'est l'évolution de l'état d'esprit des acteurs eux-mêmes, des plateformes elles-mêmes. Désormais, certains et pas des moindres en appellent même, dans leur discours public, à davantage de régulation. Nous avons pu nous en prendre toute la mesure au CSA, dans le cadre du vaste cycle d'auditions des plateformes de contenus et des réseaux sociaux, de Twitter à Facebook en passant par LinkedIn et Wikipédia, que nous avons organisé au printemps dernier.
Mais si beaucoup de choses ont changé, c'est aussi parce que cette régulation des plateformes de contenus et des réseaux sociaux est entrée, ces derniers mois, en phase opérationnelle.
Il y a eu, tout d'abord, l'adoption définitive, par le Parlement européen, de la nouvelle directive « services de médias audiovisuels » (SMA). Elle étend le champ de la régulation à de nouveaux acteurs, les plateformes de partage de vidéo comme Netflix ou Amazon Prime Video, et les réseaux sociaux. Elle pose le principe d'un socle de règles communes pour harmoniser le cadre juridique européen : des règles visant à protéger les mineurs, à lutter contre la haine ou l'apologie du terrorisme, mais aussi à garantir les objectifs de diversité culturelle. C'est ainsi que la directive prévoit que les obligations en matière de contribution à la création reposent sur le principe du pays ciblé : concrètement, cela signifie que des entreprises comme Netflix, à partir du moment où elles opèrent en France, devront se conformer, sur ce point, à la loi française. Pour nos industries créatives, c'est une avancée très attendue, en même temps qu'une belle opportunité. C'est pour cette raison qu'il est important de ne pas perdre le temps pour transposer cette directive, ce qui devrait intervenir dans le cadre du projet de loi audiovisuelle confirmé tout récemment par le Premier ministre pour l'automne. D'ores et déjà, le CSA est fortement engagé, dans le cadre du réseau des régulateurs européens, l'ERGA, pour assurer la mise en œuvre la plus uniforme et la plus ambitieuse possible de la directive.
Deuxième temps, la loi du 22 décembre 2018, entre autres mesures, a imposé aux principales plateformes de contenus un devoir de coopération avec le CSA dans la lutte contre la manipulation de l'information. Concrètement, les opérateurs doivent mettre en œuvre des mesures visant à lutter contre la diffusion des infox : des dispositifs de signalement, principalement, mais aussi par exemple une obligation de transparence lorsque des personnes morales versent des rémunérations en contrepartie de la promotion de contenus d'information se rattachant à un débat d'intérêt général. Pour ce faire, le CSA peut leur adresser des recommandations, et c'est ce que nous avons fait le 15 mai dernier, au terme d'un cycle d'auditions des opérateurs, et d'une large consultation publique. Nous sommes en train de concevoir les outils qui nous permettront d'assurer le plus efficacement possible ce nouveau rôle, que je conçois pour ma part comme un dialogue continu et exigeant avec les opérateurs de plateformes. Une étape importante sera la publication d'un bilan périodique, prévu par la loi, dans une logique « name and shame ».
Et puis, enfin, nouvelle étape, il y a la proposition de loi visant à lutter contre les contenus haineux sur internet qui prévoit également de faire évoluer de manière significative les missions et les moyens du CSA.
En réalité, on le voit bien : ce qui se dessine pas à pas, à travers ces différentes évolutions, c'est une forme de nouvelle régulation. Dans l'esprit du rapport très stimulant de la mission « Régulation des réseaux sociaux – expérimentation Facebook », remis au gouvernement en mai, on voit que pourrait émerger, à partir des initiatives françaises, mais aussi allemandes et de la commission elle-même un véritable modèle européen de régulation des plateformes de contenus. Un modèle qui ne soit pas « statocratique », pour employer un euphémisme, que l'on peut observer dans certains pays du monde, et qui ne correspond en rien à notre société démocratique. Et un modèle qui ne soit pas davantage le laisser-faire, qui est grosso modo celui des États-Unis, en tout cas jusqu'à ce jour.
Ce tiers modèle, il doit reposer d'abord sur une logique de responsabilisation des plateformes de contenus. Une responsabilisation qui doit être à la mesure de leur rôle et de leur force de frappe. Les plus importantes d'entre elles ont, en effet, un impact technologique et financier que l'on peut qualifier de systémique. Ces grands acteurs sont appelés à mettre en place un certain nombre de mesures pour répondre à des objectifs d'intérêt général, des objectifs que nous connaissons bien au CSA car ils font partie de ceux que nous assigne la loi de 1986 et qui fonde notre régulation : l'équité du débat démocratique, en particulier en période électorale ; la protection de la diversité culturelle, des œuvres de l'esprit et du droit d'auteur ; ainsi que la protection des personnes contre les contenus haineux ou attentatoires à la dignité. Répondre à ces objectifs implique entre autres des obligations de vigilance, d'une part, et des obligations de transparence, d'autre part.
Mais parce que les dernières années nous ont montré les limites de l'auto-régulation qui prévalait jusqu'alors, ces mesures sont appelées à être placées sous le contrôle d'un tiers de confiance, c'est-à-dire d'un régulateur indépendant. La vocation de ce régulateur est donc davantage de superviser les dispositifs et processus mis en place par les acteurs eux-mêmes, d'apprécier le respect des obligations de moyens et de résultats que nous leur demandons d'atteindre. La régulation se fait ainsi plus collaborative et plus participative, plus européenne aussi : la coopération entre régulateurs de l'Union s'impose à cet égard comme un préalable indispensable. Une régulation qui n'exclut pas non plus, lorsque c'est nécessaire, une approche plus coercitive.
De la sorte, la mission de ce régulateur complète celle du juge, qui demeure compétent pour apprécier et qualifier les contenus, comme l'a justement rappelé le Conseil d'État. Il ne s'agit en rien de se substituer au juge, mais de compléter son office.
Évidemment, il y a encore beaucoup d'incertitudes, ne serait-ce que parce que les modèles d'affaires des grandes plateformes de contenus évoluent. Mais une chose, au moins, est claire : les outils de la régulation ne seront plus tout à fait les mêmes. La régulation des grandes plateformes de contenus ne peut pas être une régulation 2.0 de la régulation des médias audiovisuels linéaires. Elle a vocation à combiner les méthodes classiques de la régulation, comme l'observation, avec de nouvelles, comme la data science.
Elle a vocation à faire appel à de nouvelles compétences, notamment en matière algorithmique, ce qui implique nécessairement davantage de coopérations entre régulateurs. Le Premier ministre a récemment évoqué, lors du colloque que nous avons organisé pour le trentième anniversaire du CSA, un rapprochement entre le CSA et la HADOPI, mais, au-delà, nous nous engageons dès à présent avec Sébastien Soriano vers des coopérations plus structurées, mais toujours agiles, avec l'ARCEP. Il nous faut également amplifier le travail engagé avec la CNIL, sur les enjeux des données.
Évidemment, bâtir cette nouvelle régulation implique aussi, pour un régulateur comme le CSA, certaines évolutions, et il ne faut pas se dissimuler l'ampleur de la tâche. Mais notre institution fête cette année ses trente ans d'existence et, durant ces trois décennies, elle n'a jamais cessé de se transformer : il suffit de penser qu'au moment de la création du CSA, les chaînes hertziennes se comptaient sur les doigts d'une seule main, et que cela fait déjà dix ans que nous régulons les services à la demande – les SMAD. Ces transformations nous ont donné une réelle expérience, une réelle expertise sur des sujets délicats par nature, puisqu'ils touchent aux contenus, au moins indirectement. Aujourd'hui, le CSA est à pied d'œuvre pour exercer les nouvelles missions que le législateur entend lui confier.
Cette expertise s'avère particulièrement précieuse pour que cette nouvelle régulation des plateformes de contenus et des réseaux sociaux soit, en définitive, au service de la liberté d'expression. J'entends les légitimes préoccupations qui peuvent s'exprimer ici et là. Mais je voudrais rappeler ici que la loi de 1986 se situe directement dans le prolongement de l'article 11 de la Déclaration des droits de l'homme et du citoyen, qui proclame que « la libre communication des pensées et des opinions est un des droits les plus précieux de l'homme ». Elle est, d'abord et avant tout, une loi de liberté : son article 1er confie au CSA, avant toute chose, le soin d'être le garant de la liberté de communication. Et, depuis trente ans, nous vivons sur une ligne de crête entre cette liberté première et les objectifs que j'évoquais à l'instant : des objectifs d'ordre démocratique, culturel et sociétal posés par le législateur. C'est un équilibre toujours délicat, placé je le rappelle sous le contrôle vigilant du juge, que nous sommes je crois parvenus à assurer en régulant les médias audiovisuels. Le collège et les équipes du CSA sont déterminés à atteindre ce même équilibre en régulant les plateformes de contenus et les réseaux sociaux.
1.Tribune issue d’une intervention prononcée le 4 juillet 2019 dans le cadre du Forum sur la gouvernance de l’internet France 2019.