(auteur, réf. de texte ou de décision…)
Recherche
(auteur, réf. de texte ou de décision…)
Enews Legipresse
Le club Légipresse
Vidéos
Le cadre juridique relatif aux plateformes de partage de vidéos
Le partage et la diffusion de fichiers vidéo sur internet relèvent de différents aspects de la réglementation audiovisuelle. Alors que des services tels que YouTube sont qualifiés de « plateformes de partage de vidéos », dans la Directive SMA en cours de révision, ils sont parfois qualifiés de « plateformes numériques », ou encore de « plateformes en ligne » comme dans les dernières recommandations de la Commission européenne. La présente revient sur ces diverses définitions et leurs répercussions sur le cadre juridique applicable (faut-il appliquer la directive SMAV ou la directive relative au commerce électronique ?). Elle donne un aperçu de l'état actuel de la législation en vigueur aussi bien à l’échelon européen que national, y compris des dernières initiatives réglementaires, tout en présentant les initiatives d’autorégulation prises par les professionnels du secteur.
Dans la proposition de révision de la Directive Services de médias audiovisuels (Directive SMAV) adoptée en mai 2016, la Commission a défini un « service de plateforme de partage de vidéos » comme suit:
- un service qui consiste à stocker une grande quantité de programmes ou de vidéos créées par les utilisateurs, qui ne relèvent pas de la responsabilité éditoriale du fournisseur de la plateforme de partage de vidéos ;
- un service dans lequel l’organisation du contenu stocké est déterminée par le fournisseur du service, à l'aide notamment de moyens automatiques ou d'algorithmes, en particulier l'hébergement, l’affichage, le balisage et le séquencement ;
- un service dont l’objet principal proprement dit ou une partie dissociable de ce service est la fourniture de programmes et de vidéos créées par les utilisateurs dans le but d’informer, de divertir ou d’éduquer le grand public ;
- un service qui est fourni par des réseaux de communications électroniques.
Cette question de définition pourrait devenir plus pressante compte tenu des actuels débats sur l’adoption d’une réglementation sectorielle supplémentaire applicable aux plateformes de partage de vidéos et aux médias sociaux en plus des principales dispositions européennes qui leur sont déjà applicables, comme la liberté des marchés, le droit de la concurrence, la protection des consommateurs et la protection des données à caractère personnel, notamment.
3.1 Le régime général de responsabilité
Une plateforme de partage de vidéos n'est pas responsable des informations stockées à la demande d'un destinataire du service tant que le prestataire du service n’a pas effectivement connaissance de l’activité ou de l’information illicite en question et, en ce qui concerne les demandes de dommages-intérêts, n’a pas connaissance de faits ou de circonstances selon lesquelles l’activité ou l’information illicite est apparente. Si le prestataire du service obtient cette connaissance ou cette prise de conscience, il est tenu d’agir rapidement pour retirer ou désactiver l’accès à l’information illicite (article 14 de la Directive relative au commerce électronique). En outre, les prestataires de services ne sont pas soumis à une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ni à une obligation générale de rechercher activement des faits ou des circonstances indiquant une activité illicite (article 15 de la Directive relative au commerce électronique).
D’aucuns estiment qu’il est désormais temps de procéder à une révision de ce régime de responsabilité relativement « bienveillant » établi par la Directive relative au commerce électronique (voir ci-après). Beaucoup d'eau a en effet coulé sous les ponts depuis son adoption en 2000. Les évolutions aussi bien technologiques que des marchés ont été si considérables que la distinction précitée ne semble plus vraiment adaptée aux défis actuels et à venir. Les fournisseurs d'hébergement tels que YouTube et Facebook retirent un bénéfice économique direct des activités des utilisateurs. Ils profitent ainsi massivement de l’ensemble des activités des utilisateurs, qu’elles soient licites ou illicites, et se dégagent de toute responsabilité en cas de mauvaise conduite de leurs clients, tout en continuant à utiliser des algorithmes visant à « diriger » les flux de contenus sur les pages qu’ils hébergent.
3.1.1 France
En guise d’exemple d’appel à la révision de la Directive relative au commerce électronique, un rapport du Sénat français(1) préconisait déjà en 2011 de mettre en place, aux côtés du fournisseur d'hébergement et de l'éditeur de contenu, une troisième catégorie intermédiaire, à savoir « éditeur de services », dont la principale caractéristique serait de retirer un avantage économique direct de la consultation par les utilisateurs des contenus hébergés. Ainsi, un « éditeur de services »:
- aurait l’obligation d’identifier les personnes qui ont créé un contenu qu'il héberge ;
- aurait l’obligation de mettre en place les moyens, conformément à l’état de la technique, de surveiller les informations qu'il transmet ou stocke, et d’enquêter sur des faits ou des circonstances révélant des activités illicites ; il s’agirait donc d’une obligation de moyens, non de résultat ;
- pourrait être tenu civilement ou pénalement responsable s'il a connaissance d'activités ou d'informations manifestement illégales et qu’il n’agit pas promptement pour retirer ces informations ou en rendre l’accès impossible.
Ce rapport du Sénat français n'a pas donné lieu à l’adoption d’un texte de loi en droit national ou de l’Union européenne, mais l'idée d’une révision du statut des intermédiaires figure depuis de nombreuses années à l’ordre du jour des différents gouvernements français. Lors d'un discours, Mme Audrey Azoulay, la ministre de la Culture de l’époque, a estimé qu’il était nécessaire d’exiger que les plateformes s’engagent dans la lutte contre les atteintes à la dignité humaine, l’incitation à la haine raciale et l’apologie du terrorisme. Par conséquent, « nous ne pouvons plus accepter que les grandes plateformes audiovisuelles s’abritent derrière un statut d’hébergeur qui ne correspond plus à la réalité des services qu’elles proposent »(2). Dans un entretien avec la presse en janvier 2018, M. Mounir Mahjoubi, secrétaire d'Etat au Numérique, a insisté sur la nécessité de repenser le statut des intermédiaires d’internet(3).
3.2 Les fausses informations (Fake news)
Le développement du phénomène des « fausses informations » a incité de nombreux pays à proposer des mesures réglementaires qui, systématiquement, se sont accompagnées de polémiques, ainsi que d’accusations de censure par diverses parties prenantes. Cette question doit en effet être traitée avec la plus grande précaution : premièrement, le statut des fournisseurs d’hébergement et l'interdiction d’imposer des obligations générales de surveillance rendent particulièrement complexe la réglementation de ce secteur. En outre, les contours du droit fondamental à la liberté d'expression, tel qu’énoncés par l'article 10 de la Convention européenne des droits de l’homme laissent au législateur une bien faible marge de manoeuvre.
3.2.2 France
Le 3 janvier 2018, lors de ses voeux à la presse à l’Élysée, le Président de la République, M. Emmanuel Macron, a annoncé vouloir faire évoluer le dispositif juridique visant à lutter contre les « fausses informations ». À cette fin, une proposition de loi a été élaborée par le groupe majoritaire.
En période électorale, les plateformes seraient soumises à des obligations de transparence renforcées sur les contenus d’information sponsorisés afin de rendre publique l'identité des annonceurs et de ceux qui les contrôlent ou pour le compte desquelles ils agissent, ainsi que les montants consacrés à la mise en avant de ces contenus.
Le projet de texte de loi prévoit également la définition d’un devoir de coopération à la lutte contre la diffusion des fausses informations, à la charge de plateformes numériques, dans le but de définir des mécanismes de co-régulation, associant engagements de ces plateformes et supervision par une autorité publique. Au début de l’année 2017, Facebook et Google avaient simultanément annoncé le déploiement prochain, en France, de dispositifs de signalement de « fausses informations » : encadrer la coopération des plateformes doit permettre que ces dispositifs reposent sur des critères ayant fait l’objet d’une discussion collective et multipartite.
La proposition de loi prévoit en outre la création d’une nouvelle voie de droit pour lutter contre la désinformation : en période électorale, il sera possible de saisir le juge judiciaire dans le cadre d’une action en référé, qui lui permettra de faire cesser en urgence (48 heures) la diffusion d’une information manifestement fausse, diffusée artificiellement et massivement, et susceptible d’altérer la sincérité du scrutin.
Le projet de texte vise également à renforcer les pouvoirs du CSA, le régulateur français de l’audiovisuel, pour lutter contre toute tentative de déstabilisation ou campagne de désinformation par un service de télévision contrôlé ou influencé par un État étranger : refus de convention, suspension de la diffusion du service, ou résiliation de sa convention, dans des conditions précisément définies par le texte.
3.5 La protection du droit d’auteur
3.5.1 La France
Dans son rapport d’activité pour la période 2016-2017(4), la Haute autorité pour la diffusion des oeuvres et la protection des droits sur internet (HADOPI) a formulé un certain nombre de propositions, dont certaines requièrent des évolutions réglementaires et législatives, afin de renforcer l’efficacité de son action et de l’adapter aux évolutions des pratiques. Le rapport souligne en effet la nécessité :
- de poursuivre la pédagogie de masse et de renforcer la stratégie de sensibilisation en ciblant davantage les messages de communication selon les publics ou selon la gravité des comportements individuels de contrefaçon, et en l’élargissant au-delà de la question juridique du respect des droits d‘auteur aux risques de toute nature encourus par les internautes ;
- de conduire des actions communes avec les moteurs de recherche pour réduire la visibilité des sites illicites ;
- de s’interroger sur l’amélioration des techniques de détection des sources de piratage ;
- d’approfondir, sécuriser et mieux évaluer le dispositif de chartes relevant de l’approche « Follow the money » (« suivez l’argent ») ;
- d’assurer un plus juste partage de la valeur en encourageant et en accompagnant les accords relatifs à la mise en place de technologies de reconnaissance de contenus ; et
- de définir une politique publique efficace répondant aux difficultés liées aux procédures de blocage des sites illicites et de leurs avatars.
L’HADOPI préconise dans son rapport de procéder à des ajustements législatifs et réglementaires, parmi lesquels le fait de simplifier la procédure de réponse graduée ; de mentionner le titre des oeuvres partagées illégalement dans les recommandations adressées aux titulaires d’abonnement ; et d’allonger le délai pendant lequel le procureur de la République peut saisir la Haute autorité de faits de contrefaçon. Elle propose par ailleurs d’instaurer une régulation publique pour le recours aux technologies de reconnaissance de contenus. L'Hadopi pourrait ainsi émettre des recommandations et procéder, le cas échéant, à des médiations ; observer et évaluer les modalités de mise en oeuvre des accords entre plateformes et ayants droits ; et se voir confier un rôle de régulateur de ces accords, ainsi que de médiateur en cas de conflit. Il importe en outre que l’HADOPI s’engage dans la lutte contre les sites massivement contrefaisants. La Haute autorité souhaite poursuivre son action volontaire de lutte contre les acteurs commerciaux de la contrefaçon et propose une évolution de ses moyens lui permettant de détecter précocement les usages émergents parmi les pratiques illicites, d’expertiser les nouveaux modèles économiques des sites illicites et d’intervenir en tant que tierce autorité pour une meilleure implication des intermédiaires.
(…)
4.2.2 Les initiatives d’autorégulation visant à lutter contre les « fausses informations » en ligne
La propagation des « fausses informations » sur les plateformes de partage de vidéos et dans les médias sociaux représente un nouveau défi à relever pour la démocratie, l’Etat de droit et la société en général. Les « fausses informations », que le Conseil de l’Europe qualifie également dans un récent rapport de « mésinformation, désinformation et information malveillante », de « chaos informationnel » ou de « pollution informationnelle »(5), a toujours existé mais leur impact a été considérablement amplifié par la mondialisation et l’univers numérique.
Le terme « post-vérité », qui est étroitement lié à la notion de fausses informations, a été choisi par le dictionnaire Oxford comme mot de l’année en 2016(6) en raison du pic de fréquence d'utilisation constaté à l’occasion du référendum sur l'Union européenne au Royaume-Uni et de l'élection présidentielle aux Etats-Unis, respectivement en juin et en novembre de la même année. Selon le dictionnaire Oxford ce terme : « fait référence à ou désigne des circonstances dans lesquelles les faits objectifs ont moins d’influence sur le modelage de l'opinion publique que le fait de susciter l’émotion et les opinions personnelles ».
L'impact des « fausses informations » reste difficile à quantifier, car nous commençons à peine à en comprendre les implications. Alors que les « fausses informations » sont la plupart du temps motivées par l'intérêt commercial dans le seul but d'attirer des visiteurs sur les réseaux sociaux, il arrive qu’elles soient motivées par des intérêts partisans ou politiques. Le rôle joué par les plateformes de partage de vidéos et les médias sociaux pour relayer les fausses informations comme une traînée de poudre et les propager a poussé les grandes sociétés de médias sociaux à s’engager davantage dans la lutte contre ce phénomène. Les initiatives d'autorégulation prises par les professionnels du secteur se sont multipliées au cours de l’année dernière.
Google a par exemple décidé tout d’abord de modifier son algorithme afin que les informations fausses ou choquantes n’apparaissent qu’à la fin des résultats d’une recherche spécifique effectuée par un internaute. L’entreprise a également demandé à son équipe de plus de 10 000 personnes chargées de surveiller les résultats de recherche et de signaler les pages qui comportent des informations mensongères, des canulars mal intentionnés ou des théories de complot, ainsi que ce qu’elle qualifie de contenu « de qualité médiocre ». Facebook a également commencé à expérimenter un système permettant de mettre en avant les informations provenant de sources journalistiques fiables sur les « murs » de ses membres lorsque ceux-ci risquent de comporter des fausses informations. Cette initiative baptisée « articles connexes » (« Related Articles ») visait à « faciliter l’accès à d’autres points de vue et informations », par l’éventuelle insertion d’articles provenant de vérificateurs d’information.
Ces outils se sont toutefois révélés inefficaces pour lutter contre la propagation de « fausses informations » sur leurs services et, en novembre 2017, les deux entreprises ont lancé une deuxième vague de mesures. Elles ont intégré un nouvel outil de vérification des sources dans leur système qui a été élaboré par un consortium de journalistes chargés d’établir des normes permettant d’évaluer la fiabilité d’un contenu journalistique (The Trust Project)(7). Cet « indicateur de confiance » prend la forme d'une icône qui indique si la source d'information est jugée fiable. Concrètement, le fait de cliquer sur cette icône permet d’obtenir des précisions sur la source de l'information. Associée à chaque article partagé sur Facebook, cette icône renseigne sur le positionnement éthique des médias, et donne des explications sur les méthodes de vérification des informations. Le 16 novembre 2017, le consortium a annoncé que Google, Facebook, Bing et Twitter avaient convenu d'utiliser ces indicateurs sur leurs plateformes respectives. Il reste à voir si l'intégration de cette icône sur ces sites sera efficace. Les experts en médias sociaux ont toutefois fait part de leurs doutes quant à l'efficacité de ces outils pour lutter contre les « fausses informations » et la mésinformation sur les plateformes en ligne.
En outre, Facebook, qui en 2018 a fait de la lutte contre les « fausses informations » sa principale priorité, a annoncé en janvier 2018 la modification en profondeur de l'algorithme de son fil d'actualité, qui aura des répercussions directes sur les utilisateurs et les médias. La priorité sera donnée aux contenus des familles et des amis des utilisateurs et à leur partage. Cette modification de l'algorithme s’inscrit dans le cadre d'une approche déjà engagée. A deux reprises déjà, en avril 2015 et en juin 2016, Facebook avait donné la priorité au contenu d’amis pour reléguer le contenu des pages au second plan. Facebook souhaite, grâce à cette dernière modification, revenir à sa vocation initiale de réseau social, pour qu’elle prime sur la consommation passive. Le fil d’actualités sera plus axé sur les contenus que les utilisateurs souhaitent voir que sur les contenus qui génèrent le plus d'interactions. Cette nouvelle méthode aura également pour effet d’exposer davantage encore les utilisateurs à de la publicité ciblée(8).
Les initiatives prises par les plateformes de partage de vidéos et les médias sociaux pour lutter contre les « fausses informations » ou le discours de haine ont certes été saluées, mais elles soulèvent également un certain nombre de questions sensibles sur le plan de la transparence et de l’obligation de rendre des comptes. De fait, les sites comme Facebook, Twitter, Instagram, YouTube et Google+ ont un impact démesuré sur notre vie sociale. Nous concevons ces plateformes comme une « sphère publique », en les utilisant pour discuter de questions controversées et subversives, pour communiquer avec des amis et participer à des activités militantes et à des débats. Mais ces plateformes utilisées par les citoyens sont en définitive détenues par des entreprises privées, qui contrôlent, selon leurs propres règles et systèmes de gouvernance, et parfois censurent les contenus des utilisateurs. Pour ces plateformes, le dilemme consiste à savoir où prend fin la lutte contre la mésinformation et où commence la censure. Certaines initiatives ont fait leur apparition dans ce domaine, comme la plateforme Onlinecensorship.org159, qui cherche à inciter les entreprises à faire preuve de plus de transparence et à rendre compte de leurs actes à leurs utilisateurs, puisqu’elles prennent des décisions qui ont pour effet de réguler la liberté d’expression des utilisateurs. Cette situation amène également à s’interroger sur le rôle que devrait jouer le législateur dans ce domaine.
(…)
6.1. Les mesures proposées dans le cadre de la révision de la Directive SMAV
6.1.1. La définition d'une plateforme de partage de vidéos et les principes généraux
L'article 1(1)(aa) de la proposition de la Commission donne une définition d’une « plateforme de partage de vidéos », l'article 1(da) définit le terme de « fournisseur de plateforme de partage de vidéos » et l'article 1(ba) donne une définition d’une « vidéo créée par l'utilisateur ». La Commission et le Parlement utilisent le terme général et générique de « contenu », mais le Conseil emploie un libellé plus précis en mentionnant les différents types de contenus disponibles sur une autre plateforme de partage de vidéos, c’est-à-dire les « programmes » ou les « vidéos créées par les utilisateurs ».
Le Parlement européen mentionne les plateformes de partage de vidéos et les vidéos créées par les utilisateurs dans les définitions qu’il donne du « parrainage » et du « placement de produit », respectivement à l'article 1(1), point (k) et (m).
Le texte du compromis d'avril 2018 précise les critères détaillés qui permettent de considérer un service comme une plateforme de partage de vidéos au titre de l’article 1 (1) aa du Compromis, selon lequel l'objet principal du service, une partie dissociable du service ou une fonctionnalité essentielle du service est consacré à la fourniture de programmes ou de vidéos créées par les utilisateurs, voire de ces deux contenus, au grand public.
Le Tableau 1 joint en annexe donne un aperçu du processus de révision en cours pour les dispositions relatives à la définition des plateformes de partage de vidéos et aux principes généraux qui leur sont applicables.
6.1.2. Les dispositions applicables aux plateformes de partage de vidéos
L'article 28a de la proposition de la Commission impose certaines obligations aux plateformes de partage de vidéos et énonce les mesures qu’elles sont tenues de mettre en place pour respecter ces obligations.
Au cours du processus de révision, l'obligation de protéger les citoyens des contenus préjudiciables comportant une incitation à la violence ou à la haine a été étendue, à l'article 28 bis(1)(b), à d’autres catégories, ainsi qu’aux personnes appartenant à ces catégories, sur la base de nouveaux critères comme la religion, le handicap, l'âge et l'orientation sexuelle. Un ajout est proposé : l’obligation de protéger le grand public des contenus qui comportent une « incitation publique à commettre une infraction terroriste » énoncée à l'article 28a(1)(ba) de l'approche générale du Conseil.
Le Conseil traite également dans sa proposition d’article 28a(1a) de la responsabilité des plateformes de partage de vidéos pour les communications commerciales audiovisuelles commercialisées, vendues et organisées ou non par ces plateformes, compte tenu du contrôle limité que les plateformes exercent sur ces contenus. Cette dernière disposition tient compte du régime de responsabilité prévu à l'article 14 de la Directive relative au commerce électronique. Cette question est également abordée par le Parlement à l'article 28a(5a).
La proposition énumère les mesures visant à responsabiliser les utilisateurs qui, dans la pratique et plus que jamais, sont désormais des « partenaires » importants pour les plateformes de partage de vidéos, puisqu’ils utilisent les outils de signalement mis à leur disposition par ces plateformes pour lutter contre les contenus illicites. Les utilisateurs contribueraient ainsi au respect des obligations qui incombent aux fournisseurs de plateformes de partage de vidéos, c’est-à-dire la mise en place d’un ensemble d'outils (obligation de moyen) que les utilisateurs devraient utiliser pour se protéger ou protéger leurs enfants, lorsqu’ils utilisent ces services. Outre ces outils, et afin de parfaire l'autonomisation des utilisateurs, la proposition accorde une attention particulière à :
- la transparence et la communication à double sens entre les utilisateurs et les fournisseurs de plateformes de partage de vidéos au titre de l'article 28a(2)(f), ainsi que de l’article 28a(2)(ba) proposé par le Conseil, en réagissant aux signalements de contenus par les utilisateurs ;
- l'éducation aux médias, puisque les Etats membres sont invités à encourager les politiques et les programmes de développement des compétences en matière d'éducation aux médias ;
- la protection des données prévue à l'article 28a(2)(c) de l'approche générale du Conseil, en veillant à ce que les systèmes de vérification de l'âge n'entraînent pas un traitement supplémentaire des données à caractère personnel et soient conformes à la réglementation européenne relative à la protection des données, c’est-à-dire à la Charte des droits fondamentaux de l’Union européenne, au Règlement général relatif à la protection des données et à la Directive « Police », ainsi qu’au nouveau Règlement « Vie privée et communications électroniques » qui devrait être adopté d’ici à la fin de l’année 2018.
Le texte du compromis d'avril 2018 renvoie aux articles 12 et 13 de la Directive relative au commerce électronique, qui portent respectivement sur le simple transport et sur le stockage de type « caching », pour l’obligation faite aux fournisseurs de plateformes de partage de vidéos de prendre les mesures qui s’imposent pour assurer à leurs utilisateurs un espace protégé, en vertu de l’article 28a (1) du Compromis. L’article 28a (2) du Compromis exclut toute obligation de contrôle ex ante par les fournisseurs de plateformes de partage de vidéos, conformément à l'article 15 de la Directive relative au commerce électronique.
Outre les contenus incitant à commettre une infraction à caractère terroriste, les fournisseurs de plateformes de partage de vidéos seront tenus, en vertu de l’article 28a (1)(ba) du Compromis, de lutter contre les contenus dont la diffusion constitue une infraction pénale au titre du droit de l'Union européenne, comme la pédopornographie et les contenus à caractère raciste et xénophobe.
Pour ce qui est des vidéos créées par les utilisateurs, un nouvel alinéa (aaa) est inséré à l'article 28a (2) du Compromis, qui mentionne les mesures permettant aux utilisateurs ayant mis à disposition le contenu en question de déclarer si, à leur connaissance, ces vidéos contiennent des communications commerciales audiovisuelles. Les droits des utilisateurs sont également renforcés, puisque le texte du compromis garantit à l'article 28a (6a) le droit d'engager des procédures judiciaires parallèlement aux mécanismes extrajudiciaires de plainte et de recours mis à disposition pour régler les litiges entre les utilisateurs et les fournisseurs de plateformes de partage de vidéos.
En matière de protection des mineurs, le texte du compromis interdit le traitement des données à caractère personnel de mineurs à des fins de communication commerciale dans un paragraphe ajouté à l'article 28a(2).
6.1.3. L’établissement des fournisseurs de plateformes de partage de vidéos
L’article 28b de la proposition de la Commission énonce les critères qui permettent de déterminer l’Etat membre d’établissement d’un fournisseur de plateformes de partage de vidéos. L'approche générale du Conseil donne une description plus détaillée de ces critères dans la mesure où elle propose des définitions des termes « entreprise mère », « entreprise filiale » et « groupe ».
Le Parlement européen approuve la proposition initiale de la Commission d'autoriser les fournisseurs de plateformes de partage de vidéos effectivement présents dans plusieurs Etats membres, à travers plusieurs filiales ou entités du groupe établies dans différents Etats membres, à choisir leur propre Etat membre d'établissement. Le Conseil, dans son approche générale, choisit une orientation différente, puisqu’il propose que le fournisseur de plateformes de partage de vidéos soit établi dans l'Etat membre où l'une des filiales ou entités du groupe a démarré la première ses activités, sous réserve d’entretenir des liens stables et effectifs avec l'économie de cet Etat membre.
Le texte du compromis d'avril 2018 reprend le libellé de l'approche générale du Conseil, qui comporte les définitions des termes « entreprise mère », « entreprise filiale » et « groupe ». En outre, toutes les entreprises liées sur le plan économique et juridique sont considérées comme faisant partie du même groupe d’entreprises. Ainsi, un fournisseur de plateforme de partage de vidéos est réputé établi sur le territoire d'un Etat membre s'il est lié d’un point de vue économique et juridique à une autre entreprise établie dans ce même Etat membre.
Le tableau 3 joint en annexe donne un aperçu du processus de révision en cours pour les dispositions relatives à l'établissement des plateformes de partage de vidéos.
6.1.4. L'obligation faite aux plateformes de partage de vidéos de rendre certaines informations accessibles aux utilisateurs
Le Parlement européen propose, dans un nouvel article 28c d’étendre aux plateformes de partage de vidéos l'obligation faite par l'article 5 de l’actuelle Directive SMAV aux fournisseurs de services de médias audiovisuels de rendre certaines informations accessibles aux utilisateurs, notamment le nom du fournisseur de services ; l'adresse géographique de son établissement ; ses coordonnées, y compris son adresse de courrier électronique ou son site internet, qui devraient permettre de contacter rapidement, directement et efficacement le fournisseur de plateformes de partage de vidéos ; et les instances réglementaires ou de surveillance compétentes, en sus de l’Etat membre territorialement compétent, comme le précise la proposition. Ces éléments ont toutefois été supprimés dans l’approche générale du Conseil.
Le texte du compromis d'avril 2018 ne contient aucun changement sur ce point.
(…)
6.2. Les mesures proposées dans le cadre de la révision de la Directive relative au droit d'auteur
Le 14 septembre 2016, la Commission européenne a publié sa proposition de Directive relative au droit d’auteur dans le marché unique numérique(9), en vue de moderniser l’actuel cadre du droit d'auteur, tout en tenant compte des évolutions technologiques récentes et des nouveaux modes de distribution des contenus protégés par le droit d’auteur dans le marché intérieur.
Ce projet de réforme vise à favoriser un meilleur équilibre de la rémunération des différents acteurs de la chaîne de valeur, ainsi qu’une meilleure transparence des dispositions contractuelles conclues entre les créateurs et les plateformes en ligne et une plus grande disponibilité des contenus protégés par le droit d’auteur à l’intérieur et au-delà des frontières de l’Union européenne.
Dans cette proposition de directive et dans le cadre de l’exonération de responsabilité prévue par la Directive relative au commerce électronique, l'article 13 impose aux fournisseurs de services de la société de l'information, qui stockent et donnent accès à des contenus protégés par le droit d'auteur mis en ligne par leurs utilisateurs, de prendre des mesures appropriées et proportionnées pour garantir que les accords conclus avec les titulaires de droits soient dûment respectés et d’empêcher la mise à disposition sur leurs services des contenus portant atteinte au droit d'auteur dès lors qu'ils ont été identifiés comme tels par les titulaires des droits concernés.
La négociation de cet article a donné lieu à une vive controverse entre les parties prenantes au sujet des conséquences des mesures proposées sur les obligations des fournisseurs de services de la société de l'information. Certains considéraient qu’imposer aux fournisseurs de services de prendre des mesures visant « à empêcher la mise à disposition, par leurs services, d'oeuvres ou d'autres objets protégés identifiés par les titulaires de droits [...] telles que le recours à des techniques efficaces de reconnaissance des contenus » mettrait en place une obligation générale de contrôle, ce qui serait contraire au régime de responsabilité prévu à l'article 14 de la Directive relative au commerce électronique, qui a jusqu'à présent exonéré les fournisseurs de services de la société de l'information de ce contrôle préalable des contenus.
La proposition visant à imposer aux fournisseurs de services de mettre à disposition des utilisateurs des mécanismes de plainte et de recours en cas de litige sur les mesures prises par les fournisseurs de services au sujet des contenus mis en ligne par les utilisateurs a été moins controversée. Ces mécanismes permettraient aux utilisateurs de contester toute mesure disproportionnée prise par les fournisseurs de services et d'éviter que ces derniers ne traitent les contenus en se fondant sur leurs conditions générales, plutôt que sur l’infraction effectivement commise, et ce indépendamment du droit et de la liberté des utilisateurs de diffuser des contenus, même si ceux-ci sont totalement licites.
L'article 13 de la proposition fixe le cadre de la future coopération entre les fournisseurs de services de la société de l'information et les titulaires de droits, en vue de définir « de bonnes pratiques, telles que les techniques appropriées et proportionnées de reconnaissance des contenus ».
La procédure applicable à cette initiative législative est celle des négociations interinstitutionnelles ; au moment de la publication du présent rapport, le Parlement européen n’avait toujours pas fait connaitre son avis.
(…)
6.3.2. Les initiatives prise en matière de désinformation et de « fausses informations »
Les dangers et les conséquences de la prolifération croissante de « fausses informations » ou de la désinformation en ligne ont fait l’objet de très nombreuses études au cours de ces deux dernières années. Comme ce phénomène touche l’ensemble de la planète, et compte tenu de la menace que la désinformation fait peser sur la démocratie et l'ordre public, les autorités européennes ont commencé à réagir et à s'attaquer à ce problème.
Au sein de l’Union européenne, la Résolution du Parlement européen du 15 juin 2017 relative aux plateformes en ligne et au marché unique numérique a invité la Commission à analyser les défis actuels et le cadre juridique en vigueur afin d'identifier les instruments juridiques susceptibles de limiter la diffusion et la propagation des fausses informations.
En novembre 2017, la Commission européenne a publié une feuille de route sur « les fausses informations et la désinformation en ligne », qui vise à obtenir la participation des parties prenantes à toute mesure ultérieure que prendrait la Commission en les informant des travaux de la Commission, et notamment des principaux problèmes et des solutions envisageables à prendre en compte dans les futures mesures, et en recueillant leurs réactions.
Le même mois, la Commission a pris l’une des plus importantes initiatives de ces dernières années, en lançant une consultation publique sur les fausses informations et la désinformation en ligne et a annoncé son intention de créer un groupe d'experts de haut niveau représentant les milieux universitaires, les plateformes en ligne, les médias d'information et les organisations de la société civile, qui contribuera à l’élaboration d’une stratégie de lutte contre la diffusion et la propagation des fausses informations à l’échelle de l’Union européenne. Le Groupe d’experts de haut niveau a rendu son premier rapport en mars 2018. La Commission européenne s'appuiera sur ce rapport ainsi que sur les résultats de la consultation publique sur les fausses informations et la désinformation en ligne en vue de publier une communication sur la lutte contre la désinformation en ligne.
Le rapport du Groupe d’experts de haut niveau a défini un ensemble de mesures à court terme pour les plateformes en ligne. Il préconise que les plateformes en ligne forment une coalition avec les entreprises des médias d’information et les organisations de la société civile, dans laquelle toutes les parties prenantes des secteurs concernés qui le souhaitent prendraient part à l’élaboration du code de conduite multipartite proposé et accompagneraient sa mise en oeuvre et son suivi constant. Ce code de conduite multipartite devrait énoncer des règles de conduite concrètes, en tenant compte des grands principes énoncés par le Groupe d’experts dans son rapport, qui préconisent que les plateformes :
adaptent leur politique publicitaire, notamment en s’appliquant à frapper au portefeuille les acteurs de la désinformation (c’est-à-dire l’approche « Follow the money ») dans le cadre d’une coopération avec les professionnels du secteur de la publicité afin de veiller à ce qu’aucune entreprise ne diffuse de publicités sur les sites des sociétés qui alimentent la désinformation, et à ce que ces même sites ne soient plus hébergés ;
assurent la transparence et l’obligation de rendre des comptes au sujet du traitement des données des utilisateurs à des fins de placement publicitaire, dans le respect scrupuleux de la vie privée, de la liberté d'expression et du pluralisme des médias ;
veillent à ce que tout contenu parrainé, y compris la publicité à caractère politique, puisse être clairement distingué des autres contenus dans un souci de transparence ;
coopèrent en autorisant un accès aux données conforme au respect de la vie privée pour permettre de vérifier des éléments factuels et d’effectuer des recherches ;
mettent à la disposition de leurs usagers des paramètres et des contrôles perfectionnés pour favoriser leur autonomie et leur permettre de personnaliser leur navigation en ligne ;
prennent des mesures efficaces, si besoin est et en coopération avec les entreprises européennes d'information publiques et privées, pour améliorer la visibilité des informations fiables et dignes de confiance et faciliter l'accès des utilisateurs à ces informations ;
veillent, le cas échéant et si cela est techniquement faisable, à ce que les articles d'actualité du moment soient accompagnés de suggestions d’articles connexes ;
fournissent, le cas échéant, des outils simples à utiliser pour permettre aux utilisateurs de se connecter à des sources fiables de vérification des faits et d'exercer leur droit de réponse ;
appliquent des systèmes de signalement et de confiance, qui reposent sur les utilisateurs, et prévoient des garanties contre leur utilisation abusive par les utilisateurs ;
coopèrent, notamment, en fournissant des données pertinentes sur le fonctionnement de leurs services, y compris des données qui permettent aux chercheurs universitaires de réaliser des études indépendantes, et des informations générales sur les algorithmes, afin d'élaborer une approche commune pour lutter contre la diffusion et l'amplification de la désinformation.
Le Groupe d’experts de haut niveau a encouragé l'adoption d'une approche d'autorégulation fondée sur un processus d'engagement multipartite clairement défini, qui comprend un ensemble d'actions à court et moyen terme et selon une feuille de route préétablie pour sa mise en oeuvre. Ces mesures à court et à moyen terme seraient suivies d'une évaluation appropriée de leur efficacité et de leur efficience. A partir de cette évaluation, la Commission européenne réexaminera son approche au printemps 2019 afin de décider s’il y a lieu d’envisager par la suite de prendre de nouvelles mesures, notamment des interventions en matière réglementaire ou de corégulation, des instruments en matière de concurrence ou des mécanismes visant à assurer le suivi constant et l’évaluation des mesures d’autorégulation. La Commission européenne a par ailleurs mentionné la Communication sur « les plateformes en ligne et les fausses informations » dans son programme de travail de 2018.
En parallèle, le Conseil de l’Europe a publié son rapport sur « Le chaos informationnel » fin septembre 2017. Ce rapport recense les diverses formes d’informations préjudiciables, à savoir la mésinformation, l’information malveillante et la désinformation, une expression qui, selon les auteurs de l’étude, décrit parfaitement la complexité du phénomène des « fausses informations » et de la « pollution informationnelle ».