Cet article est la deuxième partie d’une série d’articles sur le travail de l’EFF en Europe. Découvrez ici comment et pourquoi nous travaillons en Europe.

La mission de l’EFF est de veiller à ce que la technologie soutienne la liberté, la justice et l’innovation pour tous les peuples du monde. Bien que notre travail nous ait conduits aux quatre coins du monde, ces dernières années, nous avons œuvré à étendre nos efforts en Europe, en constituant une équipe politique dotée d’une expertise clé dans la région et en apportant notre expérience en matière de plaidoyer et de technologie au combat européen pour les droits numériques.

Dans cette série d’articles de blog, nous vous présenterons les différents acteurs impliqués dans cette lutte, partagerons notre façon de travailler en Europe et comment ce qui se passe en Europe peut affecter les droits numériques à travers le monde.

L’approche de l’EFF en matière de liberté d’expression

La diffusion mondiale de l’accès à Internet et des services numériques promettait une nouvelle ère de liberté d’expression, où chacun pourrait partager et accéder à l’information, s’exprimer et trouver un public sans dépendre de gardiens et créer, bricoler et partager des œuvres créatives.

Chacun doit avoir le droit de s’exprimer et de partager librement ses idées. Plusieurs pays européens ont connu des régimes totalitaires et une censure généralisée au cours du siècle dernier, ce qui explique que de nombreux Européens accordent encore une importance particulière au respect de la vie privée et à la liberté d’expression. Ces valeurs sont inscrites dans la Convention européenne des droits de l’homme et dans la Charte des droits fondamentaux de l’Union européenne, deux cadres juridiques essentiels pour la protection des droits fondamentaux.

Aujourd’hui, alors que la plupart de nos échanges sont facilités par les plateformes en ligne, on s’attend à ce qu’elles aussi respectent les droits fondamentaux. Par le biais de leurs conditions d’utilisation, de leurs règles communautaires ou de leur règlement intérieur, les plateformes peuvent définir unilatéralement les propos autorisés sur leurs services. L’application de ces règles peut être arbitraire, opaque et sélective, ce qui entraîne la suppression d’idées controversées et de voix minoritaires.

C’est pourquoi l’EFF lutte contre les menaces gouvernementales contre la liberté d’expression et demande aux entreprises technologiques de fonder leurs pratiques de modération de contenu sur des cadres solides en matière de droits humains. Cela implique d’établir des règles et des normes claires pour les processus internes tels que les notifications et les explications aux utilisateurs lorsque les conditions d’utilisation sont appliquées ou modifiées. Dans l’Union européenne, nous travaillons depuis des décennies pour garantir que les lois régissant les plateformes en ligne respectent les droits fondamentaux, nous militons contre la censure et nous nous exprimons au nom des défenseurs des droits humains.

Qu’est-ce que le Digital Services Act et pourquoi en parle-t-on sans cesse ?

Ces dernières années, nous avons été particulièrement occupés à répondre aux préoccupations en matière de droits humains avec la rédaction et la mise en œuvre de la loi sur les services numériques, la Digital Services Act (DSA), la nouvelle loi établissant les règles pour les services en ligne dans l’Union européenne. La DSA couvre la plupart des services en ligne, allant des places de marché en ligne comme Amazon aux moteurs de recherche comme Google, en passant par les réseaux sociaux comme Meta et les magasins d’applications. Cependant, toutes ses règles ne s’appliquent pas à tous les services. Au lieu de cela, la DSA suit une approche basée sur le risque qui impose le plus d’obligations aux plus grands services qui ont le plus d’impact sur les utilisateurs. Tous les fournisseurs de services doivent s’assurer que leurs conditions de service respectent les droits fondamentaux, que les utilisateurs peuvent les contacter facilement et qu’ils rendent compte de leurs activités de modération de contenu. Des règles supplémentaires s’appliquent aux plateformes en ligne : elles doivent fournir aux utilisateurs des informations détaillées sur les décisions de modération de contenu et le droit de faire appel et des obligations supplémentaires de transparence. Elles doivent également assurer une certaine transparence de base sur le fonctionnement de leurs systèmes de recommandation et ne sont pas autorisées à cibler les utilisateurs mineurs avec des publicités personnalisées. Les obligations les plus strictes s’appliquent aux plus grandes plateformes en ligne et aux moteurs de recherche, qui comptent plus de 45 millions d’utilisateurs dans l’UE. Ces entreprises, parmi lesquelles X, TikTok, Amazon, Google Search and Play, YouTube et plusieurs plateformes pornographiques, doivent évaluer et atténuer de manière proactive les risques systémiques liés à la conception, au fonctionnement et à l’utilisation de leurs services. Ces risques concernent notamment l’exercice des droits fondamentaux, les élections, la sécurité publique, le débat civique, la protection des mineurs et la santé publique. Cette approche novatrice peut être intéressante, mais elle est aussi source d’inquiétude : les risques systémiques sont à peine définis et pourraient conduire à des restrictions de la liberté d’expression légale, et les mesures visant à y faire face, par exemple la vérification de l’âge, ont elles-mêmes des conséquences négatives, comme la mise en péril de la vie privée des utilisateurs et de leur accès à l’information.

La loi DSA est un texte législatif important pour faire progresser les droits des utilisateurs et responsabiliser les entreprises, mais elle comporte également des risques importants. Nous sommes préoccupés par l’obligation faite aux fournisseurs de services de partager proactivement les données des utilisateurs avec les autorités chargées de l’application de la loi et par les pouvoirs qu’elle confère aux agences gouvernementales pour demander ces données. Nous mettons en garde contre l’utilisation abusive du mécanisme d’urgence de la loi DSA et l’élargissement de l’approche de gouvernance des risques systémiques de la loi DSA en tant qu’outil fourre-tout pour réprimer les discours indésirables mais légaux. De même, la nomination de signaleurs de confiance pourrait entraîner une pression sur les plateformes pour qu’elles suppriment trop de contenu, d’autant plus que la loi DSA n’empêche pas les autorités gouvernementales de devenir des signaleurs de confiance.

L'EFF plaide auprès des législateurs pour une approche mesurée qui ne porte pas atteinte à la liberté d'expression. Même si nous avons réussi à éviter certaines des idées les plus néfastes, des inquiétudes subsistent, notamment concernant la politisation de l'application de la DSA et son application excessive. C'est pourquoi nous surveillerons de près l'application de la DSA, prêts à utiliser tous les moyens à notre disposition pour lutter contre cette application excessive et défendre les droits des utilisateurs.

Les lois européennes impliquent souvent des utilisateurs du monde entier. Afin de donner la parole aux utilisateurs non européens à Bruxelles, nous avons animé la Human Rights Alliance de la DSA. L’HRA de la DSA est née de la conviction que la DSA doit adopter une approche fondée sur les droits humains pour la gouvernance des plateformes et prendre en compte son impact mondial. Nous continuerons de développer et d'élargir l'Alliance afin de garantir que l'application de la DSA n'entraîne pas de conséquences négatives imprévues et respecte les droits des utilisateurs partout dans le monde.  

La législation britannique sur la régulation des plateformes

Parallèlement au Digital Services Act, le Royaume-Uni a adopté sa propre réglementation des plateformes, l’Online Safety Act (OSA). Cherchant à faire du Royaume-Uni « l’endroit le plus sûr au monde pour être en ligne », l’OSA conduira à un Internet plus censuré et verrouillé pour les utilisateurs britanniques. La loi permet au gouvernement britannique de porter atteinte non seulement à la vie privée et à la sécurité des résidents britanniques, mais également à celle des utilisateurs d’Internet dans le monde entier.

Les plateformes en ligne devront supprimer les contenus que le gouvernement britannique considère comme inappropriés pour les enfants. Si elles ne le font pas, elles s’exposent à de lourdes sanctions. Le problème est qu’au Royaume-Uni, comme aux États-Unis et ailleurs, les avis divergent fortement sur le type de contenu qui est nocif pour les enfants. Confier cette décision aux régulateurs gouvernementaux conduira à des décisions de censure politisées.

L’OSA va également conduire à des systèmes de vérification de l’âge nuisibles. Vous ne devriez pas avoir à montrer votre carte d’identité pour vous connecter à Internet. Les systèmes de contrôle de l’âge destinés à exclure les enfants conduisent invariablement les adultes à perdre leur droit à la parole privée et à l’anonymat, ce qui est parfois nécessaire.

Alors que l’Ofcom commence à publier ses réglementations et ses directives, nous observons comment le régulateur prévoit d’éviter ces pièges en matière de droits de l’homme et continuera de lutter contre les efforts insuffisants pour protéger la liberté d’expression et la vie privée en ligne.

Liberté et pluralité des médias pour tous

Un autre enjeu que nous défendons est la liberté des médias. Tout comme le DSA, l’UE a récemment révisé ses règles pour les services de médias : la loi européenne sur la liberté des médias, European Media Freedom Act (EMFA). Dans ce contexte, nous nous sommes opposés à des règles qui auraient forcé les plateformes en ligne comme YouTube, X ou Instagram à diffuser tout contenu provenant de médias. L’obligation faite aux plateformes d’héberger du contenu par la force, qui vise à renforcer le pluralisme des médias, a de graves conséquences : des millions d’utilisateurs de l’UE ne peuvent plus faire confiance aux plateformes en ligne pour traiter les contenus qui violent les normes communautaires. En outre, il n’existe pas de moyen simple de faire la différence entre les fournisseurs de médias légitimes et ceux qui sont connus pour diffuser de la désinformation, comme les sites affiliés au gouvernement russe actifs dans l’UE. Supprimer la possibilité pour les plateformes de restreindre ou de supprimer ce type de contenu pourrait nuire au débat public plutôt que de le favoriser.

La version finale de l’EMFA a introduit un certain nombre de garanties importantes, mais elle reste une mauvaise affaire pour les utilisateurs : nous suivrons de près sa mise en œuvre pour garantir que les nouvelles règles favorisent réellement la liberté et la pluralité des médias, inspirent confiance dans les médias et limitent l’utilisation de spywares contre les journalistes.

Dénoncer la censure et défendre ceux qui nous défendent

La réglementation ne représente qu'une infime partie de notre activité. Ces dernières années, nous avons maintes fois révélé comment les pratiques de modération de contenu à grande échelle des entreprises censurent les utilisateurs au nom de la lutte contre le terrorisme et restreignent la voix des personnes LGBTQ, des travailleurs·euses du sexe et des groupes sous-représentés.

En 2025, nous continuerons de mettre en lumière ces restrictions à la liberté d'expression et accorderons une attention particulière à la censure des voix palestiniennes, qui est accablante. Nous poursuivrons notre collaboration avec nos alliés de la Digital Intimacy Coalition afin de montrer comment les politiques restrictives en matière de liberté d'expression affectent souvent de manière disproportionnée les travailleuses du sexe. Nous continuerons également d'analyser de près l'impact de l'utilisation croissante et évolutive de l'intelligence artificielle dans la modération des contenus.

Enfin, une part essentielle de notre travail en Europe a consisté à prendre la parole en faveur de ceux qui ne le peuvent pas : les défenseurs des droits humains confrontés à l’emprisonnement et à la censure.

Il reste encore beaucoup à faire. Nous avons présenté des recommandations politiques complètes aux législateurs européens et nous continuerons de nous battre pour un Internet où chacun peut faire entendre sa voix. Dans les prochains articles de cette série, vous en apprendrez davantage sur la manière dont nous travaillons en Europe pour garantir que les marchés numériques sont équitables, offrent des choix aux utilisateurs et respectent les droits fondamentaux.