(auteur, réf. de texte ou de décision…)
Recherche
(auteur, réf. de texte ou de décision…)
Enews Legipresse
Le club Légipresse
Vidéos
Régulation des plateformes : « Européens et Américains convergent sur la nécessité de réforme »
S’estimant victime de censure injustifiée par Twitter, Donald Trump a signé le 28 mai 2020 une circulaire visant à abroger le principe de non-responsabilité pour toute plateforme numérique qui aurait des agissements discriminatoires à l’égard d’un point de vue politique. Au cœur des débats, la section 230 du Communications Decency Act de 1996, pilier du fonctionnement des plateformes aux États-Unis.
Pouvez-vous nous expliquer quel est l’objet de la section 230 de la loi de 1996 que Donald Trump souhaite modifier ?
La section 230 du Communications Decency Act (CDA) dit deux choses : premièrement, une plateforme qui héberge des contenus fournis par des tiers ne sera pas considérée comme un éditeur de ces contenus. Deuxièmement, une plateforme qui entreprend de bonne foi des démarches volontaires pour limiter la présence de contenus « dommageables » sur le site ne pourra pas être tenue responsable civilement pour ces démarches, même si ces contenus peuvent être protégés par le Premier Amendement. En d’autres termes, les exploitants de plateformes ont la main libre pour « nettoyer » leur site sans crainte d’être attaqués civilement. Contrairement à ce que prévoit la directive européenne commerce électronique 2000/31/CE et le DMCA (Digital Millenium Copyright Act) américain(1), la section 230 du CDA ne prévoit aucun système de notification et de retrait rapide. Ainsi, un contenu diffamatoire pourrait en théorie rester sur la plateforme indéfiniment, même après une notification. C’est une grande différence avec l’article 14 de la directive européenne. En pratique, toutes les grandes plateformes ont quand même mis en place des systèmes de signalement et de retrait de contenus dommageables. Le concept de « dommageable » est particulièrement vague. Il est défini dans les conditions d’utilisation de la plateforme, lesquelles posent problème parfois, car elles laissent une marge d’interprétation assez importante aux équipes des plateformes.
Que prévoit la circulaire du 28 mai du président Trump ?
La circulaire ordonne aux différents services du gouvernement américain de donner une nouvelle interprétation de la section 230, pour dire que le blocage ou le signalement de certains contenus par la plateforme ne seraient pas effectués de bonne foi au titre du deuxième alinéa du texte, si cette action résulte de biais politique. Dans ce cas la plateforme deviendrait éditeur et perdrait l’ensemble de son immunité au titre du premier alinéa de la section 230. La circulaire ordonne au régulateur américain des médias et télécommunications, la FCC, d’élaborer un règlement qui clarifierait la relation entre les deux alinéas de la section 230 dans le sens souhaité par la Maison-Blanche. Ensuite, elle demande à l’agence américaine de protection des consommateurs, la FTC, de considérer comme « déloyale et trompeuse » toute action prise par une plateforme qui équivaudrait à la censure politique(2). La circulaire ordonne au ministère de la Justice d’évaluer le comportement de toute plateforme qui disposerait d’un contrat publicitaire avec le gouvernement américain afin de déceler l’existence de pratiques discriminatoires en matière de points de vue politiques. L’idée sous-jacente est de résilier les contrats avec les plateformes qui seraient identifiées comme étant problématiques(3). Enfin, la circulaire demande au ministère de la Justice de préparer un projet de loi pour modifier la section 230 dans le sens souhaité par la Maison-Blanche(4). La plupart des dispositions de cette circulaire auront peu d’effet, car ce sont les tribunaux, et non l’exécutif, qui interprètent les lois. La section 230 du CDA a déjà fait l’objet de plus de vingt ans de jurisprudence aux États-Unis, et ce serait délicat pour la FCC d’émettre un règlement d’interprétation qui va à l’encontre de la jurisprudence des tribunaux fédéraux. Le seul moyen de changer la section 230 serait de la modifier par voie législative.
Quelle est la marge de manœuvre de Donald Trump pour faire évoluer la législation ? Selon vous, quels sont les principaux points de blocage ?
Nombreux sont ceux qui souhaitent, quel que soit leur bord politique, voir évoluer la régulation des plateformes vers une responsabilisation accrue. Aucune proposition législative ne sera débattue avant les élections présidentielles de novembre 2020. Adoptée en 1996, la section 230 du CDA visait à encourager le développement de forums de discussion et d’échange de petites annonces, du type « Craigslist », en les mettant à l’abri d’actions en justice. La section vise également à encourager ces forums à « nettoyer » eux-mêmes les contenus postés – à l’époque il s’agissait surtout de contenus pornographiques. La section 230 donne une liberté à chaque site de fixer ses propres règles d’utilisation et de les appliquer comme il l’entend sur le site. Le texte n’envisageait aucune obligation de neutralité pour les hébergeurs. Le contexte a changé avec l’émergence de grandes plateformes. En 1996 personne ne pouvait imaginer l’existence d’un réseau social avec plus de deux milliards d’utilisateurs ! Certains considèrent ces plateformes comme ayant dorénavant un pouvoir quasi-gouvernemental et donc un devoir de neutralité. Dans ce contexte, les règles de fonctionnement du site deviennent presque l’équivalent d’un règlement public, nécessitant des procédures transparentes d’adoption, une non-discrimination dans l’application des règles, et des voies de recours. Les plateformes préfèreraient ne pas avoir ce rôle de régulateur « neutre » de contenus, ce qui pousse certaines d’entre elles à jouer à fond la carte de la neutralité en laissant passer trop de choses. Twitter comme d’autres plateformes a mis en œuvre un mécanisme pour limiter l’impact des fake news. Il s’agit généralement d’un signalement qui encourage le lecteur du tweet à vérifier d’autres sources d’information. Le Président Trump a émis un tweet affirmant que les nouvelles procédures de vote à distance mises en place en Californie et dans d’autres États conduiraient à une fraude généralisée, et que la Californie permettait à n’importe qui de voter(5). Twitter a signalé ce tweet comme contenant éventuellement des faits inexacts et a encouragé les lecteurs à vérifier d’autres sources. Cette intervention a provoqué l’ire du président, qui a signé quelques jours plus tard la circulaire. Les plateformes se font attaquer soit parce qu’elles sont trop neutres(6), soit parce qu’elles ne le sont pas assez. La situation n’est satisfaisante pour personne, mais personne ne sait exactement comment modifier la section 230 sans porter un coup sérieux à la liberté d’expression.
L’absence de responsabilité des plateformes ne crée-t-elle pas une distorsion par rapport à la presse traditionnelle ?
Sur cette question, le rapport rendu en septembre 2019 par des universitaires du centre Stigler de l’université de Chicago(7) propose des pistes intéressantes. Selon ce rapport, la section 230 équivaut à une subvention en faveur des plateformes, car celles-ci sont à l’abri de la plupart des contentieux qui pèsent sur les éditeurs de presse et leurs comptes de résultat. Mais au lieu d’abolir cette subvention implicite (ce qui nuirait à la liberté d’expression), le rapport suggère d’imposer une contrepartie de service public aux plus grandes plateformes. Celles-ci seraient tenues de contribuer à un fonds pour le soutien de la presse traditionnelle, un peu comme les opérateurs télécoms contribuent à un fond de service universel, ou les diffuseurs de télévision en France contribuent au financement du cinéma.
Le contexte outre-Atlantique risque-t-il d’influencer la Commission européenne alors que celle-ci envisage de modifier le statut des plateformes ?
Oui, je crois que les Européens et Américains convergent sur la nécessité de réforme. Les Américains regardent avec intérêt l’approche proposée au Royaume-Uni dans son livre blanc sur les « Online harms »(8). Le gouvernement britannique souhaiterait imposer un « duty of care », à savoir une obligation de mettre en place des mesures pour réduire les différents dommages causés par les plateformes, mesures qui seraient définies en concertation avec un régulateur. Ces mesures n’auraient pas d’impact sur le régime de responsabilité des hébergeurs. En d’autres termes, les plateformes préserveraient leur statut de non-éditeur, mais seraient sanctionnées en cas de non-respect des mesures techniques et organisationnelles, par exemple la mise en œuvre de mécanismes accélérés pour le retrait de certains contenus particulièrement dangereux, et des outils d’intelligence artificielle pour détecter et bloquer des manipulations externes par des robots et acteurs malintentionnés. D’autres mesures concerneraient la transparence des plateformes et la disponibilité de données pour des chercheurs. La Commission européenne vient de lancer sa consultation publique sur le futur Digital Services Act ; je ne serais pas surpris de voir émerger cette idée de « duty of care », qui rejoint l’idée d’« information fiduciary » mise en avant en 2016 par le professeur Jack Balkin de Yale(9). Sauf que l’obligation générale de protection des utilisateurs que celui-ci préconise serait complétée par des mesures précises de protection élaborées sous le contrôle d’un régulateur. L’approche générale s’appuierait sur l’accountability, principe privilégié par le RGPD en matière de données personnelles : analyse des risques, définition d’une série de mesures techniques et organisationnelles pour atténuer chacun des risques identifiés, et mise en place d’un système de contrôles pour s’assurer que les mesures sont bien appliquées. Les dommages provoqués par les plateformes sont très divers : concurrence, données personnelles, opacité des algorithmes, phénomènes d’addiction, désinformation, manipulation d’élections, droit d’auteur…
Les récentes propositions du département de la justice américain visent à aménager le principe de non-responsabilité si la plateforme a connaissance du caractère illicite du contenu (rejoignant l’approche européenne) et à obliger les plateformes à justifier leurs décisions de retrait par rapport à leurs conditions générales. Le département de la justice vise surtout la transparence des plateformes ; il est beaucoup plus nuancé que la circulaire Trump !
Propos recueillis par Claire Lamy