C'est le dernier volet d'une série de blogs en quatre parties sur les lois mondiales sur la responsabilité des intermédiaires.
- Platform Liability Trends Around the Globe: From Safe Harbors to Increased Responsibility
- Platform Liability Trends Around the Globe: Taxonomy and Tools of Intermediary Liability
- Platform Liability Trends Around the Globe: Recent Noteworthy Developments
Comme cette série de blogs a cherché à le montrer, l'attention accrue portée à des questions telles que le discours de haine, le harcèlement en ligne, la désinformation et l'amplification du contenu terroriste continue d'inciter les décideurs politiques du monde entier à adopter des réglementations plus strictes pour le discours en ligne, y compris davantage de responsabilités pour les intermédiaires en ligne.
L'EFF défend depuis longtemps les efforts visant à promouvoir la liberté d'expression et à créer un environnement propice à l'innovation d'une manière qui équilibre les besoins des gouvernements et des autres parties prenantes. Nous reconnaissons qu'il y a un équilibre délicat à trouver entre la résolution du problème très réel des plateformes hébergeant et amplifiant des contenus et des activités préjudiciables tout en fournissant simultanément une protection suffisante à ces plateformes afin qu'elles ne soient pas incitées à supprimer la parole protégée des utilisateurs, promouvant ainsi la liberté d'expression.
Aujourd'hui, alors que les efforts mondiaux visant à modifier les lois de longue date sur la responsabilité des intermédiaires se poursuivent, nous utilisons maintenant une série de questions pour guider la façon dont nous examinons ces propositions. Nous abordons les nouvelles propositions de réglementation des plateformes avec trois questions principales à l'esprit : les réglementations sur la responsabilité des intermédiaires sont-elles le problème ? La solution proposée va-t-elle résoudre ce problème ? Et les inévitables effets collatéraux peuvent-ils être atténués ?
Nous indiquerons que les décideurs politiques s'orienteront dans la bonne direction en matière de politique Internet et affirmeront le rôle important de l'immunité des intermédiaires en ligne dans la promotion d'un environnement propice à la liberté d'expression des utilisateurs. Nous décrivons ci-dessous nos recommandations sur la manière de procéder.
Nos recommandations
Les intermédiaires en ligne ne devraient pas être tenus responsables du contenu de l'utilisateur
Les intermédiaires sont des piliers essentiels de l'architecture Internet et des moteurs fondamentaux de la liberté d'expression, car ils permettent aux gens de partager du contenu avec des publics à une échelle sans précédent. L'immunité de responsabilité pour le contenu de tiers joue un rôle essentiel dans le succès des intermédiaires en ligne. C'est l'un des principes fondamentaux qui, selon nous, doit continuer à sous-tendre la réglementation de l'internet : les plateformes ne doivent pas être tenues responsables des idées, images, vidéos ou discours que les utilisateurs publient ou partagent en ligne.
Les régulateurs doivent s'assurer que les intermédiaires en ligne continuent de bénéficier d'exonérations de responsabilité complètes et ne sont pas tenus responsables du contenu fourni par les utilisateurs, car ils ne sont pas impliqués dans la cocréation ou la modification de ce contenu d'une manière qui contribue substantiellement à l'illégalité. Toute obligation supplémentaire doit être proportionnée et ne doit pas entraver la liberté d'expression et d'innovation.
Aucune restriction de contenu obligatoire sans ordre d'une autorité judiciaire
Lorsque les gouvernements choisissent d'imposer des obligations positives aux plateformes en ligne, il est crucial que toutes les règles régissant la responsabilité des intermédiaires soient prévues par la loi et soient précises, claires et accessibles. Ces règles doivent suivre une procédure régulière et respecter le principe selon lequel il devrait appartenir à des autorités judiciaires indépendantes d'évaluer l'illégalité du contenu et de décider si le contenu doit être restreint. Plus important encore, les intermédiaires ne devraient pas être tenus responsables d'avoir choisi de ne pas supprimer un contenu simplement parce qu'ils ont reçu une notification privée d'un utilisateur. Dans les juridictions où la connaissance d'un contenu illégal est pertinente pour la responsabilité des intermédiaires en ligne, les régulateurs devraient suivre le principe selon lequel la connaissance réelle de l'illégalité n'est obtenue par les intermédiaires que s'ils reçoivent une ordonnance d'un tribunal ou d'une autorité similaire qui agit avec des garanties suffisantes pour indépendance, autonomie et impartialité.
Pas de surveillance ou de filtrage obligatoire
L'obligation pour les plateformes de surveiller ce que les utilisateurs partagent en ligne a un effet dissuasif sur le discours des utilisateurs, qui modifient leur comportement et s'abstiennent de communiquer librement s'ils se savent activement observés. Cela porte également atteinte au droit à la vie privée des utilisateurs et à leur droit à la vie privée. Les décideurs politiques ne devraient donc pas imposer aux fournisseurs de services numériques l'obligation de surveiller de manière positive leurs plateformes ou réseaux pour détecter les contenus illégaux que les utilisateurs publient, transmettent ou stockent. Il ne devrait pas non plus y avoir d'obligation générale pour les plateformes de surveiller activement les faits ou les circonstances indiquant une activité illégale de la part des utilisateurs. L'utilisation de filtres automatisés qui évaluent la légalité du contenu de tiers ou qui empêchent le (re)téléchargement de contenu illégal ne devrait jamais être obligatoire, d'autant plus que les filtres sont sujets à l'erreur et ont tendance à trop bloquer le matériel légitime. De même, aucune responsabilité ne devrait être fondée sur l'incapacité d'un intermédiaire à détecter un contenu illégal, car cela inciterait les plateformes à filtrer, surveiller et filtrer le discours des utilisateurs.
Limiter la portée des ordres de retrait
Des cas récents ont démontré les dangers des commandes de retrait de contenu dans le monde entier. Dans Glawischnig-Piesczek c. Facebook, la Cour de justice de l'UE a jugé qu'un tribunal d'un État membre peut ordonner aux plateformes non seulement de retirer un contenu diffamatoire à l'échelle mondiale, mais également de retirer du matériel identique ou « équivalent ». Ce fut un résultat terrible, car le contenu en question peut être considéré comme illégal dans un État, mais est clairement légal dans de nombreux autres États. De plus, en se référant aux « technologies automatisées » pour détecter un langage similaire, le tribunal a ouvert les portes de la surveillance par des filtres, qui sont notoirement inexacts et susceptibles de surbloquer du matériel légitime.
Les réformes de la législation sur Internet sont l'occasion de reconnaître qu'Internet est mondial et que les ordres de retrait de portée mondiale sont extrêmement injustes et portent atteinte à la liberté des utilisateurs. De nouvelles règles devraient garantir que les ordonnances des tribunaux - et en particulier les injonctions - ne soient pas utilisées pour superposer les lois d'un pays à celles de tous les autres États du monde. Les ordres de retrait doivent être limités au contenu en question et fondés sur les principes de nécessité et de proportionnalité en termes de portée géographique. Sinon, il est possible que nous voyions le gouvernement d'un pays dicter ce que les résidents d'autres pays peuvent dire, voir ou partager en ligne. Cela conduirait à une « course vers le bas » vers la création d'un Internet mondial encore plus restrictif et fragmenté. Un effort louable pour limiter la portée des ordonnances de retrait a été fait dans la proposition de loi sur les services numériques de l'UE. Elle prévoit que les décisions de justice ne doivent pas excéder ce qui est strictement nécessaire pour atteindre son objectif et respecter la Charte des droits fondamentaux et les principes généraux du droit international.
Régulez les processus plutôt que la parole
Au lieu de tenir les plateformes responsables du contenu partagé par les utilisateurs ou d'obliger les plateformes à analyser chaque élément de contenu téléchargé sur leurs serveurs, la réglementation moderne des plateformes devrait se concentrer sur l'établissement de normes pour les processus des plateformes, telles que les modifications des conditions de service et la prise de décision algorithmique. Une gouvernance responsable, telle que des notifications et des explications aux utilisateurs chaque fois que les plateformes modifient leurs conditions de service, peut aider à réduire l'asymétrie des informations entre les utilisateurs et les puissantes plateformes de contrôle d'accès. Les utilisateurs devraient être habilités à mieux comprendre comment ils peuvent informer les plateformes à la fois du contenu problématique et des décisions de retrait problématiques et devraient être informés du fonctionnement de la modération de contenu sur les grandes plateformes. La confidentialité par défaut, une meilleure transparence et des garanties procédurales, telles qu'une procédure régulière et des mécanismes de recours efficaces pour les décisions de suppression ou de blocage, peuvent contribuer à assurer la protection des droits fondamentaux en ligne.
Avancer dans la bonne direction
Nous croyons fermement que l'application de clauses de responsabilité lourdes aux intermédiaires pour le contenu partagé par leurs utilisateurs entrave le droit à la liberté d'expression. Cela ne signifie pas que nous ne devrions pas envisager des propositions visant à réformer les régimes réglementaires existants et à introduire de nouveaux éléments dans la législation qui aident à remédier aux défauts fondamentaux de l'écosystème en ligne actuel.
Pour de nombreux utilisateurs, être en ligne signifie être enfermé dans quelques plateformes puissantes, suivies de manière non consensuelle sur le Web, avec leur capacité à accéder et à partager des informations laissées à la merci de systèmes de prise de décision algorithmique qui organisent leur vie en ligne. Les décideurs politiques devraient redonner aux utilisateurs le contrôle de leurs expériences en ligne plutôt que de donner plus de pouvoir aux quelques grandes plateformes qui ont monopolisé l'espace numérique, voire de les obliger, à contrôler l'expression et à arbitrer l'accès aux contenus, aux connaissances, aux biens et services.
Les ajustements de la législation sur Internet offrent aux décideurs politiques l'occasion d'examiner les règles existantes et de s'assurer qu'Internet reste une plateforme ouverte pour la liberté d'expression. Alors que la tendance à une responsabilité plus stricte pour les intermédiaires en ligne nous a consternés, elle a simultanément revigoré notre engagement à défendre des cadres réglementaires qui favorisent la liberté d'expression et l'innovation.
Les autres blogs de cette série peuvent être trouvés ici :
- Partie 1 : Des sphères de sécurité à une responsabilité accrue
- Partie 2 : Taxonomie, outils et chronologie des tendances
- Partie 3 : Tendances de la responsabilité des plateformes dans le monde : développements récents notables