La Cour de justice de l'Union européenne a rendu un arrêt tant attendu sur la compatibilité des exigences de filtrage de la directive européenne sur le droit d'auteur avec la Charte des droits fondamentaux de l'Union européenne. La décision reconnaît la tension entre les filtres de droit d'auteur et le droit à la liberté d'expression, mais n'interdit pas complètement les filtres de téléchargement.

En vertu de l'article 17 de la directive controversée de l'UE sur le droit d'auteur, les grandes entreprises technologiques doivent s'assurer que le contenu contrefait n'est pas disponible sur leurs plateformes, sinon elles pourraient en être tenues responsables. Compte tenu de ce risque juridique, les plateformes s'appuieront inévitablement sur des filtres de téléchargement sujets aux erreurs qui affaiblissent le discours en ligne légal - comme l'a souligné la Pologne dans la contestation judiciaire qui a conduit au jugement.

Pas d'alternative aux outils de filtrage, mais de solides garanties pour les utilisateurs

La Cour a reconnu que l'obligation de l'article 17 de contrôler le contenu constituait une exigence de facto d'utiliser des outils de reconnaissance et de filtrage automatiques, et a estimé que de tels mécanismes constitueraient en effet une ingérence dans les droits à la liberté d'expression des utilisateurs. Cependant, comme pour l'avis de l'année dernière de l'avocat général de la Cour de justice, les juges ont conclu que les garanties prévues par l'article 17 étaient adéquates. Étant donné que ces garanties incluent l'obligation d'assurer la disponibilité des téléchargements licites, un système automatisé qui ne peut pas « distinguer de manière adéquate le contenu illégal du contenu licite » ne passera pas le cap en vertu du droit de l'UE.

La Cour a également souligné la responsabilité des titulaires de droits de fournir aux plateformes « des informations sans aucun doute pertinentes et nécessaires » sur une utilisation illicite de matériel protégé par le droit d'auteur. Les fournisseurs de plateformes ne peuvent pas être contraints de « surveiller généralement » le contenu des utilisateurs pour vérifier la légalité du contenu ; cela signifie également qu'ils ne peuvent pas être tenus de procéder à une « évaluation indépendante » du contenu. Si une plateforme finit par supprimer un contenu licite, les utilisateurs peuvent invoquer les mécanismes de « plainte et réparation » de la directive.

Bloquer ou ne pas bloquer

 L'accent mis par le tribunal sur l'interprétation des exceptions et limitations au droit d'auteur d'une manière qui préserve les droits fondamentaux est louable et suit les propres suggestions de l'EFF. Selon les critères du tribunal, les plateformes peuvent faire valoir qu'elles ne sont tenues d'utiliser des filtres de téléchargement que dans des cas évidents. Cela, à son tour, pourrait obliger plusieurs États membres de l'UE à retravailler leur mise en œuvre de la directive européenne sur le droit d'auteur (qui ignore la perspective des droits fondamentaux). La décision signifie que les gouvernements nationaux doivent accorder une plus grande attention aux droits des utilisateurs.

 Cependant, la Cour n'a pas défini de paramètres pour aider les plateformes à décider quand et quand ne pas bloquer le contenu. Pire encore, cela a contourné la question centrale – savoir si des outils automatisés peuvent un jour être raisonnablement mis en œuvre. Il est difficile de voir comment les mesures impliquées par cette décision peuvent réellement garantir que les mesures intrusives pour la parole sont « strictement ciblées ». Dans l'arrêt, la Cour a expliqué les limites de la surveillance du contenu en se référant à l'affaire Glawischnig-Piesczek contre Facebook, une affaire d'intrusion dans la parole impliquant la suppression de contenu diffamatoire. Mais cette référence ne nous dit pas grand-chose : dans l'affaire Glawischnig-Piesczek contre Facebook, la Cour a ignoré l'état de l'art et les opérations réelles des « outils de recherche automatisés et outils technologiques » et a sous-estimé comment les efforts de filtrage par les plateformes pouvaient facilement devenir excessifs, portant atteinte aux droits fondamentaux des utilisateurs.