C'est le troisième volet d'une série de blogs en quatre parties sur les lois mondiales sur la responsabilité des intermédiaires. Vous pouvez lire des articles supplémentaires ici : 

Les exemples suivants sont principalement basés sur des recherches achevées à l'été 2021. Les mises à jour et modifications de la législation mentionnées dans cet article qui se sont produites après cette date peuvent ne pas toujours être reflétées ci-dessous.

Jusqu'à présent, nous avons examiné l'historique de la réglementation des plateformes et la manière dont les éléments de la réglementation intermédiaire peuvent être modifiés par les décideurs. Examinons maintenant de plus près quelques exemples de lois récemment adoptées et d'initiatives réglementaires à venir dans le monde entier qui reflètent l'évolution de la réglementation. Ces exemples ne visent pas à fournir un aperçu complet de la réglementation intermédiaire, mais offrent un aperçu de la manière dont certains principes fondamentaux de la réglementation intermédiaire sont remodelés par différents programmes politiques. Pour des raisons de brièveté et de contexte, nous nous concentrons principalement sur les régimes de responsabilité horizontaux plutôt que sur les règles sectorielles telles que celles du domaine du droit d'auteur.

Développements récents du monde entier

Australie

En réponse à l'attaque de 2019 contre deux mosquées à Christchurch, en Nouvelle-Zélande, l'Australie a adopté des amendements à son Code pénal en mars de la même année. La loi désigne le partage de « matériel vidéo odieux » comme une infraction pénale. En vertu de la nouvelle loi, les intermédiaires Internet s'exposent à des sanctions pouvant aller jusqu'à 10 % de leur chiffre d'affaires annuel pour chaque infraction s'ils savent que leur service peut être utilisé pour accéder ou partager ce contenu, ne suppriment pas ce contenu « rapidement » ou ne font pas connaître les détails de ce contenu aux organismes chargés de l'application de la loi. La loi définit le « matériel violent odieux » comme des actes de terrorisme, de meurtre, de tentative de meurtre, de torture, de viol et d'enlèvement. La nouvelle législation a créé un régime réglementaire relativement strict qui encourage les entreprises à surveiller activement le contenu généré par les utilisateurs.

Autriche

Suivant une tendance sans doute lancée par la NetzDG allemande et la tentative de loi Avia de la France, l'Autriche a proposé une loi similaire pour la « protection des utilisateurs sur les plateformes de communication » en septembre 2020. La loi qui est ensuite entrée en vigueur en janvier 2021 a créé des obligations pour toutes les plateformes en ligne qui soit avoir un chiffre d'affaires de 500 000 euros ou plus par an ou avoir au moins 100 000 utilisateurs pour supprimer les « contenus dont l'illégalité est déjà évidente pour un profane du droit » dans les 24 heures et les autres types de contenus illégaux dans les sept jours suivant la notification de l'existence de la plateforme , y compris les notifications par les utilisateurs. A défaut d'une telle suppression, de lourdes amendes allant jusqu'à un ou, dans les cas graves, jusqu'à 10 millions d'euros peuvent être appliquées. Des sanctions pécuniaires peuvent également être imposées en cas de non-respect d'obligations supplémentaires telles que les systèmes de déclaration, les points de contact et les rapports de transparence. L'auteur de la notification et l'annonceur ont tous deux la possibilité d'obtenir réparation auprès de l'organisme de réglementation des médias responsable (KommAustria). Les rapports de transparence doivent être publiés par la plateforme chaque année et, dans le cas des plateformes comptant plus d'un million d'utilisateurs, chaque trimestre. Le non-respect des dispositions de la loi peut entraîner la saisie des revenus publicitaires et autres bénéfices des partenaires commerciaux autrichiens. 

Brésil

En mai 2020, le Sénat brésilien a présenté un nouveau projet de loi destiné à lutter contre la désinformation en ligne, suite aux inquiétudes concernant le rôle que les « fake news » ont joué dans l'élection du président Jair Bolsonaro lors des élections générales de 2018. Le projet de loi contient des obligations de transparence, à la fois pour les publicités et les pratiques de modération de contenu, ainsi que des exigences de procédure régulière lors de la restriction de contenu et de comptes. L'EFF a travaillé avec des groupes de défense des droits numériques et des militants pour contrer le mandat de traçabilité sur les services de messagerie privée, qui a été abandonné dans le texte actuel. Pourtant, des dispositions dangereuses subsistent encore, par exemple avec l'élargissement des obligations de conservation des données visant à permettre l'identification de l'utilisateur d'une adresse IP. Le projet de loi ne modifie pas directement la sphère de sécurité établie dans la loi brésilienne Marco Civil da Internet, selon laquelle, en règle générale (avec des exceptions pour le droit d'auteur et la divulgation non autorisée d'images privées contenant de la nudité et/ou des activités sexuelles), les plateformes ne sont tenues responsables que pour les contenus de tiers lorsqu'ils ne se conforment pas à une décision de justice ordonnant la suppression d'un contenu contrefait. Selon le projet de loi, cependant, les plateformes sont soumises à une responsabilité conjointe pour les dommages causés par le contenu payant si elles ne parviennent pas à confirmer qui est responsable du compte payant la publicité. Le projet de loi s'applique aux réseaux sociaux, aux moteurs de recherche et aux applications de messagerie instantanée à des fins économiques et à plus de dix millions d'utilisateurs enregistrés au Brésil. Les sanctions en cas de non-conformité incluent de manière inquiétante la suspension ou l'interdiction temporaire des activités des plateformes. Ces peines doivent être fixées par décision de justice, à la majorité absolue des membres du tribunal. 

Canada

Le cadre canadien proposé sur la législation sur les préjudices en ligne exige que les plateformes en ligne mettent en œuvre des mesures pour identifier le contenu préjudiciable et pour répondre au contenu signalé par tout utilisateur dans les 24 heures. La catégorie des « contenus préjudiciables » inclut explicitement les propos légaux, mais potentiellement dérangeants ou blessants. Bien que le gouvernement n'envisage pas en pratique de filtres de téléchargement obligatoires, le respect du délai très court pour répondre aux demandes de suppression ne laissera d'autre choix aux plateformes que de recourir à un filtrage efficace des contenus des utilisateurs. De plus, un commissaire à la sécurité numérique veillerait à ce que les plateformes respectent leurs obligations en vertu de la proposition, et les plateformes qui ne se conforment pas aux règlements du commissaire seraient passibles de sanctions pouvant aller jusqu'à 3 % des revenus bruts des fournisseurs ou jusqu'à 10 millions de dollars, selon le cas soit plus élevé. De plus, le commissaire serait habilité à effectuer des inspections des OCSP à tout moment « à la suite de plaintes, de preuves de non-conformité, ou à la discrétion du [commissaire], pour la conformité de l'OCSP avec la loi, les règlements, les décisions et commandes liées à un OCS réglementé ».

Union Européenne

Le nouveau projet de loi sur l'internet de l'UE - la Digital Services Act ou DSA - vise à articuler des responsabilités claires pour les plateformes en ligne, avec des mécanismes d'application solides, tout en protégeant les droits fondamentaux des utilisateurs. La DSA encourage la modération de contenu par un bon samaritain et définit des obligations de diligence raisonnable basées sur le type et la taille, qui comprennent des obligations relatives à la transparence des pratiques de modération de contenu, à la conservation algorithmique et aux procédures de notification et d'action. En se concentrant sur les processus plutôt que sur le discours, le projet de DSA préserve largement les principaux piliers de la directive sur le commerce électronique, tels que l'interdiction de la surveillance générale obligatoire de ce que les utilisateurs publient et partagent en ligne et la préservation du principe extrêmement important selon lequel, en tant que En règle générale, la responsabilité de la parole doit incomber à l'orateur et non aux plateformes qui hébergent ce que les utilisateurs publient ou partagent en ligne.

Cependant, la proposition initiale introduisait une approche « avis égal connaissance » selon laquelle des avis dûment justifiés donnent automatiquement lieu à une connaissance effective du contenu notifié. Étant donné que les fournisseurs d'hébergement ne bénéficient d'une responsabilité limitée pour le contenu tiers que lorsqu'ils suppriment rapidement le contenu qu'ils « savent » être illégal, les plateformes n'auront d'autre choix que de bloquer le contenu pour échapper à la menace de responsabilité. La position du Conseil de l'UE aborde le risque de blocage excessif en précisant que seuls les avis sur la base desquels un fournisseur de services d'hébergement diligent peut identifier l'illégalité du contenu pourraient déclencher les conséquences des dispositions en matière de responsabilité. Le Parlement européen s'est d'abord montré favorable à des obligations de suppression courtes et strictes et a tenu toute « plateforme active » potentiellement responsable des communications de ses utilisateurs. Cependant, la principale commission chargée des affaires du marché intérieur (IMCO) a approuvé des règles qui préserveraient les exonérations de responsabilité traditionnelles pour les intermédiaires en ligne et s'est abstenue d'introduire des délais courts pour la suppression de contenu. Cette position a été confirmée par un vote en plénière en janvier 2022, où l'ensemble du Parlement européen a rejeté les délais serrés pour supprimer les contenus potentiellement illégaux et s'est assuré que les plateformes ne risquent pas d'être tenues responsables simplement pour avoir examiné le contenu. L'accord de compromis final a en grande partie conservé intacts les principes de la directive sur le commerce électronique. Les négociateurs ont approuvé l'approche du Conseil et ont convenu qu'il devrait être pertinent que les fournisseurs diligents reçoivent suffisamment d'informations pour identifier l'illégalité du contenu sans « examen juridique détaillé ».  

France

En juin 2020, la France a adopté le projet de loi controversé Avia. La nouvelle loi oblige les intermédiaires des médias sociaux à supprimer les contenus manifestement illégaux dans les 24 heures, et les contenus liés au terrorisme et à la maltraitance des enfants dans un délai d'une heure. Alors que la loi vise à lutter contre le discours de haine, son champ d'application élargi comprend une gamme d'infractions, allant des contenus faisant l'apologie d'actes de terrorisme aux crimes de guerre et aux crimes contre l'humanité, entre autres. Lorsque les sénateurs français ont déposé une requête auprès de la Cour suprême française, l'EFF s'est associé à des alliés français pour soumettre un amicus brief. Nous avons fait valoir que la loi Avia enfreignait le droit de l'UE pour plusieurs raisons. L'intervention de l'EFF s'est finalement avérée fructueuse, car la Cour suprême a annulé les exigences de la loi de supprimer le contenu contrefait dans les 24 heures, reconnaissant qu'elles encourageraient les plateformes à supprimer les discours parfaitement légaux.

En juillet 2021, l'Assemblée nationale a adopté de nouvelles règles visant à réglementer les plateformes et à transposer par anticipation certaines dispositions de la proposition de la Digital Services Act de l'UE. La « loi confortant le respect des Principes de la République », aboutissement d'une proposition controversée destinée à cibler l'islam politique, contient des dispositions relatives à la lutte contre les discours de haine et les contenus illégaux en ligne. Elle fixe des obligations pour les plateformes en matière de transparence, de modération des contenus et de coopération avec les autorités. Le non-respect peut entraîner des sanctions élevées de la part de l'ARCOM, l'autorité de régulation de la communication audiovisuelle et numérique.  

Allemagne

En octobre 2017, la Netzwerkdurchsetzungsgesetz (ou Network Enforcement Act - NetzDG en abrégé) est entrée en vigueur en Allemagne. Depuis lors, il a été modifié deux fois. Semblable au projet de loi Avia en France, qu'elle a précédé, la loi vise à lutter contre les « discours de haine » et les contenus illégaux sur les réseaux sociaux. La loi introduit une série d'obligations de diligence raisonnable pour les plateformes de médias sociaux comptant plus de 2 millions d'utilisateurs enregistrés. Ces plateformes sont obligées d'introduire un système de notification et d'action qui offre aux utilisateurs des mécanismes « faciles à utiliser » pour signaler les contenus potentiellement illégaux. Les plateformes doivent également offrir des options de recours dans les cas où les utilisateurs pensent que leur contenu a été supprimé à tort, y compris un système volontaire de règlement extrajudiciaire des litiges. Enfin, la loi a introduit des obligations de déclaration de transparence étendues sur les suppressions de contenu.

Plus particulièrement, NetzDG oblige les plateformes à supprimer ou à désactiver l'accès au contenu manifestement illégal dans les 24 heures suivant la notification du contenu. Lorsque le contenu n'est pas manifestement illégal, les fournisseurs de médias sociaux doivent supprimer le message en question dans les sept jours. Le non-respect peut entraîner des amendes importantes.

Au cours du débat législatif hâtif qui a accompagné la NetzDG originale, la loi a été fortement critiquée en Allemagne et à l'étranger, la plupart des critiques affirmant que les délais d'exécution stricts des plateformes pour supprimer du contenu ne permettent pas une analyse juridique équilibrée et peuvent donc conduire à des retraits injustifiés. Alors que les entreprises de médias sociaux ont signalé moins de notifications de contenu dans le cadre de NetzDG que prévu (bien que leur méthodologie pour évaluer et compter les notifications diffère), il est prouvé que la loi conduit effectivement à un blocage excessif. De plus, il existe des questions importantes concernant la compatibilité (ou l'absence de compatibilité) de la loi avec le droit européen. On s'inquiète également du fait que le signalement de contenu est particulièrement difficile pour les non-germanophones, malgré une exigence légale en vertu de la NetzDG selon laquelle les procédures de plainte doivent être « faciles à utiliser ». Au-delà de son impact dans toute l'UE, NetzDG a inspiré des lois « imitatrices » dans des juridictions du monde entier. Une étude récente rapporte qu'au moins treize pays, dont le Venezuela, l'Australie, la Russie, l'Inde, le Kenya et la Malaisie, ont proposé des lois similaires à NetzDG depuis l'entrée en vigueur de la loi.

Depuis son adoption, la NetzDG a été modifiée à deux reprises. En juin 2020, le parlement allemand a adopté un ensemble de mesures visant à lutter contre les « crimes de haine » et les discours de haine. Conformément à la nouvelle législation, les plateformes devront transmettre les contenus qui pourraient être illégaux en vertu du droit pénal allemand à l'Office fédéral allemand de la police criminelle, où une nouvelle base de données/bureau sera établie. Il ne sera pas demandé de consentement aux utilisateurs avant que leur contenu ne soit transmis, et il n'y a pas non plus de délais de notification. Le paquet comprend également des modifications du code pénal allemand. Pour donner suite à des inquiétudes importantes concernant la constitutionnalité des règles proposées, la loi a été adoptée tardivement en avril 2021, avec les nouvelles obligations applicables à partir de février 2022. En mai 2021, le Parlement allemand a également adopté une loi modifiant officiellement la NetzDG, en introduisant, entre autres, de meilleures options de recours pour les utilisateurs et obligations pour les plateformes de fournir un accès aux données aux chercheurs. La loi est entrée en vigueur en juin 2021. 

Inde

En février 2021, le gouvernement indien a introduit les Lignes directrices pour les intermédiaires et les règles du code d'éthique des médias numériques (législation subordonnée en vertu de la Loi des technologies de l'information, année 2000) qui ont remplacé les précédentes règles de 2011 sur les intermédiaires. Les règles de 2021 classent les intermédiaires en deux catégories : les intermédiaires des médias sociaux, et d'importants intermédiaires de médias sociaux (ceux qui comptent 5 millions d'utilisateurs enregistrés ou plus en Inde). Tous les intermédiaires de médias sociaux sont soumis à un ensemble élargi d'obligations de diligence raisonnable, dont le non-respect entraînera la perte de la sphère de sécurité et des poursuites pénales potentielles. Les intermédiaires importants des médias sociaux sont soumis à des obligations de diligence raisonnable supplémentaires, notamment des obligations de surveillance proactive, des exigences élargies en matière de personnel local et une exigence de traçabilité pour les plateformes de messagerie privée cryptée. Des reportages récents dans les médias indiens décrivent Twitter comme ayant « perdu le statut d'intermédiaire » en raison du non-respect des obligations en vertu des nouvelles règles. Selon les responsables, cela ouvre Twitter à d'éventuelles poursuites pénales pour le contenu des utilisateurs.  

Indonésie

Le 24 novembre 2020, l'Indonésie a publié le règlement ministériel 5, qui vise à renforcer l'emprise du gouvernement sur le contenu numérique et les données des utilisateurs détenues par les « opérateurs de systèmes électroniques » (ESO) tant qu'ils sont accessibles depuis l'Indonésie. Les ESO comprennent les réseaux sociaux et autres plateformes de partage de contenu, les marchés numériques, les moteurs de recherche, les services financiers, les fournisseurs de services de traitement de données et de communication, les appels vidéo et les jeux en ligne. Pour opérer en Indonésie, le MR5, qui a été rendu rétroactif à novembre 2020, oblige les ESO à s'enregistrer auprès du ministère indonésien des technologies de la communication et de l'information (Kominfo) et à obtenir un certificat d'identité. Ceux qui ne s'inscriront pas avant le 24 mai 2021 seront bloqués en Indonésie. Cette période d'enregistrement a été prolongée de six mois supplémentaires. Les ESO sont obligés de supprimer le contenu interdit, qui comprend des catégories vagues telles que tout ce qui crée des « perturbations publiques ». Le MR5 accorde également à Kominfo le pouvoir illimité de définir ces termes. Les ESO doivent s'assurer que leur plate-forme ne contient ni ne facilite le contenu interdit - une obligation générale de surveiller le contenu. Le non-respect des obligations du MR5 peut aller du blocage temporaire au blocage complet du service et à la révocation de l'enregistrement.  

Nouvelle-Zélande

Toujours en réponse à la fusillade de la mosquée de Christchurch, la Nouvelle-Zélande a présenté un projet de loi modifiant sa loi de 1993 sur la classification des films, des vidéos et des publications. Le projet de loi désigne la diffusion en direct de contenu violent comme une infraction pénale pour les personnes diffusant ce contenu (et non pour les intermédiaires hébergeant le contenu), mais prévoit également qu'un inspecteur des publications pourrait émettre des avis de retrait pour contenu répréhensible. Les avis de retrait seraient adressés aux intermédiaires qui n'auraient pas supprimé volontairement le contenu en question, et le fait de ne pas supprimer le contenu conformément à une ordonnance de retrait pourrait entraîner des amendes pour l'intermédiaire en question. Le projet de loi permet en outre au censeur en chef de procéder à des évaluations de classement provisoires rapides et limitées dans le temps de toute publication dans des situations où la diffusion virale soudaine de contenu pouvant être répréhensible ou susceptible de causer des dommages. Le projet de loi, qui permet aux autorités judiciaires néo-zélandaises d'infliger des amendes aux plateformes non conformes, a été adopté en novembre 2021.  

Pakistan

En 2020, le Pakistan a introduit les Règles de protection des citoyens (contre les dommages en ligne) qui imposaient des obligations aux entreprises de médias sociaux. La version originale des Règles conférait de larges pouvoirs de blocage et de suppression de contenu à un "coordinateur national" et des intermédiaires mandatés supprimaient le contenu dans les 24 heures une fois informés du contenu en question. Cette fenêtre de retrait pourrait être réduite à six heures en cas d ‘ « urgence », qui n'a pas été définie. Cette itération des Règles a été suspendue pour réexamen après le tollé de la société civile, qui a été consternée par l'absence d'un processus consultatif dans l'élaboration de la première version des Règles et a fait valoir qu'elles contredisaient certains droits garantis par la constitution. Une version des règles publiée plus tard cette année-là a éliminé le corps du coordinateur national et a plutôt conféré les pouvoirs à l'Autorité des télécommunications du Pakistan (PTA), mais a maintenu la courte fenêtre permettant aux intermédiaires de supprimer le contenu signalé. La loi a également imposé des dispositions obligeant les intermédiaires à déployer des « mécanismes proactifs » pour empêcher la diffusion en direct de matériel considéré comme illégal, en particulier « des contenus liés au terrorisme, à l'extrémisme, aux discours de haine, à la diffamation, aux fausses nouvelles, à l'incitation à la violence et à la sécurité nationale ». En outre, il existe une disposition permettant de partager les données utilisateur décryptées avec les autorités sans contrôle judiciaire. En cas de non-conformité, les intermédiaires s'exposent à des amendes élevées et des plateformes entières peuvent être bloquées. Le gouvernement pakistanais a de nouveau révisé les règles en novembre 2021, la dernière itération donnant aux plateformes 48 heures pour se conformer à une ordonnance de suppression ou de blocage de la PTA, et seulement 12 heures lorsqu'elles sont confrontées à des demandes d'urgence.  

Pologne

En janvier 2021, le ministère polonais de la Justice a proposé l'introduction d'un projet de loi « anti-censure » pour empêcher les plateformes de médias sociaux de supprimer le contenu publié par les utilisateurs polonais ou de bloquer les utilisateurs si leur contenu n'enfreint aucune loi polonaise. Le projet de loi polonais prévoit la réintégration du contenu par le biais d'un processus d'appel dirigé par un Conseil de la liberté d'expression. Le Conseil, susceptible d'être politiquement influencé, sera responsable de la protection de la parole sur les réseaux sociaux et infligera de lourdes amendes en cas de non-conformité. Les plateformes doivent répondre aux plaintes des utilisateurs concernant le blocage ou le retrait de contenu dans les 48 heures. Les utilisateurs peuvent faire appel des décisions de la plateforme auprès du Conseil de la liberté d'expression, qui peut ordonner la réintégration. Les ordres de réintégration doivent être exécutés dans les 24 heures ; s'ils ne le sont pas, des amendes élevées peuvent être infligées. À la lumière du processus de réforme en cours de la directive sur le commerce électronique au niveau de l'UE, le ministère responsable s'est efforcé d'influencer la forme de la proposition de la Digital Services Act.  

Russie

En décembre 2020, la Loi fédérale russe sur l'information, les technologies de l'information et la protection de l'information a été modifiée pour obliger les plateformes de médias sociaux à rechercher et supprimer de manière proactive les contenus interdits. Entre-temps, l'article 13 du Droit administratif russe prévoit des amendes pour les services Internet en cas de non-respect des lois sur la suppression de contenu. La loi sur l'information, les technologies de l'information et la protection de l'information couvre toutes les ressources Internet avec plus de 500 000 utilisateurs par jour qui ont une page personnelle avec la capacité de diffuser des informations. La liste des contenus interdits comprend : les images pornographiques de mineurs ; des informations qui encouragent les enfants à commettre des activités potentiellement mortelles et illégales ; informations sur la fabrication et l'utilisation de médicaments; des informations sur les méthodes de suicide et les appels à le faire ; publicité de vente à distance d'alcool et de casinos en ligne; des informations exprimant clairement un manque de respect pour la société, l'État, la Constitution de la Fédération de Russie ; ainsi que tout contenu réputé contenir des appels aux émeutes, à l'extrémisme et à la participation à des événements publics non coordonnés. En mars 2021, l'agence russe chargée de veiller au respect des lois sur les médias et les télécommunications a utilisé la loi pour justifier la limitation de Twitter sur « 100 % des services mobiles et 50 % des services de bureau » parce que la société de médias sociaux n'a pas supprimé le contenu que les autorités jugeaient illicite.  

Turquie

Dans un autre exemple des retombées de NetzDG, la Turquie a adopté une loi qui reflète la structure de NetzDG, mais va beaucoup plus loin dans la direction de la censure en août 2020. La loi oblige les plateformes de médias sociaux avec plus d'un million d'utilisateurs quotidiens à nommer un représentant local en Turquie. Les militants craignent que cette décision ne permette au gouvernement de mener encore plus de censure et de surveillance. Le défaut de nommer un représentant local pourrait entraîner des interdictions de publicité, des sanctions sévères et, ce qui est le plus troublant, des réductions de bande passante. La législation introduit de nouveaux pouvoirs pour les tribunaux afin d'ordonner aux fournisseurs d'accès Internet de limiter la bande passante des plateformes de médias sociaux jusqu'à 90 %, bloquant pratiquement l'accès à ces sites. Les représentants locaux seront chargés de répondre aux demandes du gouvernement de bloquer ou de retirer du contenu. La loi prévoit que les entreprises seraient tenues de supprimer le contenu qui violerait les « droits de la personne » et la « vie privée de la vie privée » dans les 48 heures suivant la réception d'une ordonnance du tribunal, sous peine de lourdes amendes. Il comprend également des dispositions qui obligeraient les plateformes de médias sociaux à stocker localement les données des utilisateurs, ce qui fait craindre que les fournisseurs ne soient obligés de transmettre ces données aux autorités, ce qui aggraverait, selon les experts, l'autocensure déjà endémique des utilisateurs turcs des médias sociaux.  

Royaume-Uni

En mai 2021, le gouvernement britannique a publié une ébauche de son projet de loi sur la sécurité en ligne, qui tente de lutter contre les contenus illégaux et autrement préjudiciables en ligne en imposant une obligation de diligence sur les plateformes en ligne pour protéger leurs utilisateurs de ces contenus. Le nouveau projet de loi sur la sécurité en ligne s'appuie également sur les propositions antérieures du gouvernement visant à établir une obligation de diligence pour les fournisseurs en ligne énoncées dans son Livre blanc d'avril 2019 et sa réponse de décembre 2020 à une consultation.

Le projet de loi a une large portée, couvrant non seulement les « services d'utilisateur à utilisateur » (entreprises qui permettent aux utilisateurs de générer, télécharger et partager du contenu avec d'autres utilisateurs), mais également les fournisseurs de moteurs de recherche. La nouvelle obligation légale de diligence sera supervisée par l'Office britannique des communications (OFCOM), qui a le pouvoir d'imposer des amendes élevées et de bloquer l'accès aux sites. Parmi les questions centrales qui détermineront l'impact du projet de loi sur la liberté d'expression figure le concept de « contenu préjudiciable ». L'avant-projet de loi opte pour une notion large et floue de contenu préjudiciable : un discours qui pourrait raisonnablement, du point de vue du fournisseur, avoir un « impact physique ou psychologique négatif important » sur les utilisateurs. La grande subjectivité impliquée dans le respect du devoir de vigilance conduira inévitablement à une suppression trop large de la parole et à une modération incohérente des contenus.

En termes de contenus illégaux, les « obligations relatives aux contenus illégaux » comprennent les obligations des opérateurs de plate-forme de minimiser la présence de ce que l'on appelle des « contenus illégaux prioritaires », à définir dans le cadre d'une future réglementation, et l'obligation de retirer tout contenu illégal dès qu'il en a connaissance de celui-ci. Le projet de loi s'écarte ainsi de la directive européenne sur le commerce électronique (et de la proposition du Digital Service Act), qui s'est abstenue d'imposer des obligations de suppression positives aux plateformes. Pour la question de savoir ce qui constitue un contenu illégal, les plateformes sont placées en première ligne en tant qu'arbitres de la parole : un contenu est réputé illégal si le fournisseur de services a des « motifs raisonnables » de croire que le contenu en question constitue une infraction pénale pertinente.  

États-Unis

En vertu du droit américain, la mesure dans laquelle les intermédiaires en ligne peuvent assumer la responsabilité découlant de la publication du discours de l'utilisateur est essentiellement régie par une triple approche. Premièrement, les intermédiaires assument l'entière responsabilité des violations du droit pénal fédéral par leurs utilisateurs. Deuxièmement, les réclamations pour violation des lois fédérales sur la propriété intellectuelle sont soumises au régime de notification et de retrait du Digital Millennium Copyright Act, en particulier 17 U.S.C. § 512(c). Conformément à ce régime, un intermédiaire qui reçoit un avis de matériel contrefaisant doit « agir rapidement pour supprimer ou désactiver l'accès au matériel ». Troisièmement, pour pratiquement toutes les autres responsabilités découlant de la publication du discours de l'utilisateur, les intermédiaires sont immunisés en vertu de la « section 230 », la loi la plus citée dans les analyses de droit comparé. L'article 230 immunise tous les types d'activités de publication traditionnelles, y compris la sélection du discours de l'utilisateur à inclure et à ne pas inclure, l'édition (tant que l'édition elle-même ne rend pas le discours exploitable) et le ciblage des publics probablement les plus réceptifs. L'article 230 prévoit également une immunité légale pour toute responsabilité découlant du refus de fournir un compte ou de publier du contenu utilisateur. Le premier amendement à la Constitution des États-Unis protège également ces décisions éditoriales.

 Il y a eu beaucoup de discussions au Congrès américain au cours des dernières années sur la modification de l'article 230. Ces efforts adoptent globalement l'une des approches suivantes : (1) créer des exceptions supplémentaires pour des réclamations légales spécifiques - un effort antérieur pour le faire, FOSTA/ SESTA, qui a supprimé l'immunité des intermédiaires contre certaines poursuites pénales et civiles liées à l'hébergement de contenu en ligne reflétant le trafic sexuel ou la prostitution, fait l'objet d'une contestation judiciaire en cours ; (2) remplacer l'immunité par une obligation de diligence que l'intermédiaire devrait respecter pour être à l'abri de toute responsabilité ; ou (3) conditionner l'immunité à l'adoption de politiques et de procédures spécifiques.  

Dans le suivant et dernier volet de cette série de blogs, nous présenterons nos conclusions et proposerons des recommandations pour la réglementation de la responsabilité des plateformes à l'avenir. Les autres blogs de cette série peuvent être trouvés ici :  

Partie 1 : Des sphères de sécurité à une responsabilité accrue

Partie 2 : Taxonomie, outils et chronologie des tendances

 

Related Issues