Le nouveau programme d’Apple qui analyse les images envoyées sur iMessage est un recul par rapport au soutien antérieur de l’entreprise envers la confidentialité et la sécurité des messages chiffrés. Le programme, initialement limité aux États-Unis, réduit ce que l’on comprend par chiffrement de bout en bout pour autoriser l’analyse côté client. Alors qu’Apple vise le fléau que sont l’exploitation et la maltraitance des enfants, l’entreprise a créé une infrastructure qu’il est bien trop facile de réorienter pour une surveillance et une censure accrues. Le programme minera la défense selon laquelle elle ne peut pas se plier aux demandes plus larges.

Depuis des années, des pays dans le monde entier ont réclamé l’accès aux messages chiffrés et de contrôler ces messages, demandant aux entreprises de technologie de travailler plus fort sur l’aspect technologique face aux réticences qui établissent que l’accès en clair aux messages était incompatible avec un chiffrement robuste. Le programme d’Apple qui analyse les messages pour la sécurité des enfants actuellement déployé qu’aux États-Unis.

SIGN THE PETITION

TELL APPLE: DON'T SCAN OUR PHONES

Les États-Unis n’ont pas hésité à demander l’accès aux communications chiffrées, exerçant une pression sur les entreprises pour qu’elles facilitent l’obtention de données avec des mandats ou qu’elles remettent volontairement les données. Cependant, les États-Unis feraient face à de sérieux problèmes constitutionnels s’ils voulaient adopter une loi qui exigerait le filtrage et le signalement sans mandat des contenus. Même si elle est effectuée par un tiers, une recherche ordonnée par le gouvernement est assujettie aux protections du quatrième amendement. Tout « mandat » émis pour une surveillance de masse, en l’absence de tout soupçon, serait un mandat général inconstitutionnel. Comme la Cour d’appel du neuvième circuit l’a expliqué, « les mandats de perquisition et de recherche… sont un outrage fondamental des principes sous-jacents du quatrième amendement s’ils sont si généreux et de portée si large dans leur formulation qu’ils constituent un filet qui arrête tout [.] » Avec ce nouveau programme, Apple a manqué de maintenir une orientation politique ferme contre les lois états-uniennes qui sapent le chiffrement, mais il reste un filet de sécurité constitutionnel contre les pires excès. Cependant la protection constitutionnelle états-unienne ne trouve pas nécessairement son pendant dans tous les pays.

Apple est une entreprise mondiale dont les téléphones et les ordinateurs sont utilisés partout dans le monde, et elle doit composer avec toutes les pressions gouvernementales qu’attire sa position. Apple a promis qu’elle refusera les « demandes des gouvernements de concevoir et de déployer des changements exigés par les gouvernements et qui dégraderaient la protection des renseignements personnels et de la vie privée des utilisateurs ». Qu’Apple dise qu’elle ne le fera pas est bien en soi, mais ce n’est certainement pas une protection aussi forte que de dire qu’elle ne peut pas le faire, ce qui ne pourrait honnêtement pas être avancé pour n’importe quel système de ce genre. De plus, si elle met en œuvre ce changement, Apple ne devra pas juste se battre pour la protection des renseignements personnels et de la vie privée, mais elle devra aussi gagner à l’échelle mondiale devant les assemblées législatives et les cours. Pour garder sa promesse, Apple devra résister à la pression d’étendre son programme d’analyse iMessage vers de nouveaux pays, de chercher de nouveaux types de contenu par analyse, et de signaler les résultats en dehors des relations parents-enfants.

Il n’est guère surprenant que des pays autoritaires demandent aux entreprises de leur fournir l’accès aux messages chiffrés et de les contrôler, souvent le meilleur et dernier espoir qui s’offre aux dissidents pour s’organiser et communiquer. Par exemple, la recherche du « Citizen Lab » démontre qu’actuellement le service non chiffré WeChat chinois surveille déjà les images et les fichiers partagés par les utilisateurs et les utilise pour alimenter les algorithmes de censure. « Quand un message est envoyé d’un utilisateur de WeChat à un autre, il passe par un serveur géré par Tencent (la société mère de WeChat) qui détecte si le message comprend des mots-clés qui apparaissent sur une liste de rejet avant qu’il soit envoyé au destinataire ». Comme l’explique Riana Pfefferkorn de l’Observatoire d’Internet de Stanford, ce genre de technologies est une feuille de route qui démontre « comment un système d’analyse côté client, seulement conçu à l’origine pour CSAM (contenus pédopornographiques), pourrait être détourné et le serait pour la censure et la persécution politique ». Comme Apple a pu le constater, il peut être difficile de refuser quelque chose à la Chine, qui est le plus grand marché au monde. D’autres pays n’hésitent pas à exercer une pression extrême sur les entreprises, en arrêtant même les employés locaux d’entreprises de technologie.

Mais souvent, des pays démocratiques qui s’efforcent d’affirmer la primauté du droit, du moins au début, sont la source de fortes pressions pour accéder aux données chiffrées. Si les entreprises n’arrivent pas à affirmer leurs orientations dans de tels pays, les changements effectués pour saper le chiffrement peuvent facilement être reproduits par des pays où les institutions démocratiques sont plus faibles, et qui présentent un bilan peu reluisant en matière de droits de la personne, en utilisant souvent un langage juridique semblable, mais avec des idées différentes quant à l’ordre public et à la sécurité de l’État, mais aussi de ce qui constitue un contenu inadmissible, de l’obscénité à l’indécence au discours politique. Cela est très dangereux. Ces pays qui présentent un bilan peu reluisant en matière de droits de la personne prétendront néanmoins qu’ils ne sont pas différents. Ce sont des pays souverains et ils percevront leurs besoins en matière d’ordre public comme tout aussi urgents. Ils soutiendront que si Apple donne l’accès à quelque État-nation en vertu des lois locales de cet État, Apple doit aussi donner l’accès à d’autre pays, au moins sous les mêmes conditions.

Les pays du Groupe des cinq chercheront à analyser les messages

Par exemple, le Groupe des cinq, une alliance composée des services de renseignement du Canada, de la Nouvelle-Zélande, de l’Australie, du Royaume-Uni et des États-Unis, a averti en 2018 qu’il « oeuvrera à la mise en place de mesures technologiques, d’application, législatives et autres mesures pour atteindre des solutions d’accès légal » si les entreprises ne donnaient pas volontairement accès aux messages chiffrés. Plus récemment, le Groupe des cinq est passé du terrorisme aux contenus pédopornographiques (CSAM) comme justification, mais la demande pour un accès non chiffré reste la même, et il est peu probable que le Groupe des cinq soit satisfait sans changements pour assister aussi les enquêtes policières et celles portant sur les activités terroristes.

La législation sur les pouvoirs d’enquête (IPA) du Royaume-Uni, qui donne suite à la menace du Groupe des cinq, autorise son ministre à délivrer des « avis de capacité technique », qui oblige les opérateurs de services de télécommunication à concevoir la capacité technique d’« apporter de l’aide pour mettre en application un mandat d’interception, un mandat d’interférence sur l’équipement, et un mandat ou une autorisation d’obtenir des données de communication ». Alors que le Parlement du Royaume-Uni prenait l’IPA en considération, nous avions averti qu’« une entreprise pourrait être obligée de distribuer une mise à jour afin de faciliter l’exécution d’un mandat d’interférence sur l’équipement, et être aussi obligée de ne pas le signaler à leurs clients ».

En vertu de l’IPA, le ministre doit prendre en considération « la faisabilité technique de se conformer à l’avis ». Mais, vu l’infrastructure nécessaire au déploiement des changements proposés par Apple, il lui est plus difficile de dire qu’une surveillance plus grande n’est pas techniquement réalisable. Avec le nouveau programme d’Apple, nous craignons que le Royaume-Uni tente d’obliger une mise à jour qui pourrait augmenter la fonctionnalité actuelle du programme d’analyse d’iMessage, avec des cibles algorithmiques différentes et une capacité de notification élargie. Dans la mesure où la fonction de sécurité des communications d’iMessage est entièrement une création d’Apple, Apple ne peut que trop facilement changer ses propres critères de marquage avant signalement. Apple pourrait recevoir l’ordre d’intégrer à l’analyse des messages son programme iPhoto de correspondance des empreintes d’images. De même, les critères qui définissent quels comptes activeront l’analyse ainsi que la destination du signalement des occurrences positives sont entièrement à la portée du contrôle d’Apple.

L’Australie a suivi l’exemple avec sa législation sur l’assistance et l’accès, qui permet, elle aussi, des exigences de fournir une assistance et des capacités techniques, ce qui introduit la possibilité troublante de saper le chiffrement. Bien que la législation comprenne des protections, une coalition d’organismes de la société civile, d’entreprises de technologie et d’associations professionnelles, dont la FFÉ et, aussi incroyable qu’il soit, Apple, a expliqué quelles étaient insuffisantes.

En effet, dans le propre document d’Apple remis au gouvernement australien, Apple a averti que « le gouvernement pourrait chercher à obliger les fournisseurs à installer ou à tester des logiciels ou des équipements, faciliter l’accès aux équipements des clients, remettre des codes sources, supprimer des formes de protection électronique, modifier les caractéristiques d’un service, ou à substituer un service, entre autres choses ». Si seulement Apple pouvait se souvenir que les techniques en question pourraient aussi être utilisées pour tenter d’imposer ou de changer la portée du programme d’analyse d’Apple.

Bien que le Canada n’a pas encore adopté une exigence explicite pour l’accès en clair aux textes, le gouvernement canadien étudie activement des obligations de filtrage pour les différentes plateformes en ligne, ce qui fait planer le spectre d’un ensemble d’obligations plus agressives qui ciblerait les applications de messagerie privée.

Les régimes de censure sont en place et prêts à se lancer

Pour le Groupe des cinq, la demande porte principalement sur des capacités de surveillance, mais l’Inde et l’Indonésie descendent déjà la pente de la dérive que représente la censure des contenus. Les nouvelles directives intermédiaires et le nouveau code d’éthique pour les médias numériques du gouvernement indien (« Règlement de 2021 »), en vigueur plus tôt cette année, imposent directement aux plateformes des exigences dangereuses de préanalyse des contenus. La règle 4(4) impose le filtrage des contenus et exige que les fournisseurs « s’efforcent de mettre en œuvre des mesures fondées sur la technologie », dont des outils automatisés et d’autres mécanismes, afin d’identifier proactivement les renseignements qui ont été interdits en vertu du règlement.

La défense du règlement de 2021, rédigée par l’Inde en réponse aux critiques des trois rapporteurs spéciaux de l’ONU, avait pour but de mettre en évidence les dangers très réels pour les enfants et passe sous silence le mandat plus large des règles d’analyse et de censure. Le règlement de 2021 impose une application proactive et automatique de ses dispositions de retrait des contenus, et exige le blocage proactif de tout contenu jugé interdit précédemment en vertu du droit indien. Ces lois comprennent globalement celles qui protègent « la souveraineté et l’intégrité de l’Inde, la sécurité de l’État; les relations amicales avec les États étrangers; l’ordre public; la décence ou la moralité ». Ce n’est pas une dérive hypothétique. Il n’est pas difficile de voir comment cette formulation pourrait s’avérer dangereuse pour la liberté d’expression et la dissidence politique. En effet, les antécédents de l’Inde avec sa législation pour la prévention des activités illicites, qui aurait été utilisée pour arrêter des universitaires, des écrivains et des poètes qui auraient dirigé des manifestations et publié des messages politiques sur les réseaux sociaux, mettent ce danger en évidence.

L’Inde pourrait sans surprise affirmer que le programme d’analyse d’Apple était un bon début sur la route de la conformité, auquel il manquerait quelques peaufinages pour qu’il réponde au mandat plus large du règlement de 2021. Apple a promis de protester contre tout élargissement du programme d’analyse et pourrait plaider devant les tribunaux, comme WhatsApp et d’autres l’ont fait, que le règlement de 2021 devrait être annulé, où qu’Apple ne corresponde pas à la définition régie par le règlement de 2021 d’intermédiaire vers les médias sociaux. Mais le règlement indien illustre à la fois le désir gouvernemental et la caution juridique envers la préanalyse des contenus chiffrés, et les changements d’Apple ne font que faciliter le glissement vers cette dystopie.

C’est malheureusement une tendance toujours croissante. L’Indonésie a elle aussi adopté le règlement ministériel MR5 pour exiger que les fournisseurs de services (dont les fournisseurs de services de « messagerie instantanée ») fassent en sorte que leur système « ne contienne aucune [information] interdite; et […] ne facilite pas la dissémination d’[information] interdite ». D’après le MR5, toute information qui contrevient à n’importe quelle disposition d’une loi ou d’un règlement indonésiens, ou qui crée de l’« anxiété communautaire » ou encore « perturbe l’ordre public » est interdite. Le MR5 impose aussi des sanctions disproportionnées, dont le blocage général des systèmes de ceux qui ne réussissent pas à faire en sorte qu’aucune information ou contenu interdit se trouve dans leur système. L’Indonésie pourrait aussi voir la fonction d’analyse d’iMessage comme un outil de conformité à leur règlement MR5 et exercer une pression sur Apple pour qu’elle adopte une version à plus large portée et plus invasive dans leur pays.

La pression augmentera

La pression pour étendre le programme d’Apple à plus de pays et de types de contenu ne fera que se poursuivre. À l’automne 2020, dans l’Union européenne, la fuite d’une série de documents en provenance de la Commission européenne laissait présager que le Parlement européen adopterait une loi antichiffrement, peut-être cette année. Heureusement, il existe un filet de sécurité dans l’UE. En vertu de la directive sur le commerce électronique, les États membres de l’UE n’ont pas le droit d’imposer une obligation générale de surveiller les renseignements que les utilisateurs transmettent ou stockent, comme indiqué dans l’article 15 de la directive sur le commerce électronique (2000/31/CE). En effet, la Cour de justice de l’Union européenne (CJUE) a déclaré explicitement que l’on ne peut pas obliger les intermédiaires à surveiller leurs services d’une manière générale afin de détecter ou de prévenir l’activité illicite de leurs utilisateurs. Une telle obligation serait incompatible avec l’équité et la proportionnalité. Malgré cela, dans un document interne qui a fait l’objet d’une fuite publié par Politico, la Commission européenne s’est engagée à un plan d’action pour la détection obligatoire de contenus pédopornographiques (CSAM) par les fournisseurs de service en ligne concernés (attendu pour décembre 2021), indiquant que l’analyse côté client est la solution, ce qui pourrait potentiellement s’appliquer aux applis sécurisées de messagerie confidentielle, et profitant de la notion que cela préserve la protection du chiffrement de bout en bout.

Pour les personnes chargées de l’élaboration des politiques gouvernementales qui n’ont eu de cesse de demander aux entreprises de travailler plus fort sur l’aspect technologique, réécrire la formulation de façon plus soignée est aussi valable. Le résultat final d’accès à des communications non chiffrées est l’objectif, et s’il peut être atteint en laissant sans doute un chiffrement de bout en bout dont la définition s’en trouve réduite, pour elles, c’est encore mieux.

Un élargissement des paramètres d’apprentissage automatique pour qu’ils cherchent d’autres types de contenus, l’adoption par iMessage de la fonction de correspondance des empreintes d’images iCloud Photos, ou une modification des drapeaux de configuration pour ne pas juste analyser les comptes d’enfants, mais de quiconque est tout ce qu’il faudrait pour qu’Apple agrandisse l’étroite porte dérobée qu’elle est en train de mettre en place. Apple a à sa disposition un système fin prêt qui n’attend qu’une pression externe pour effectuer les changements nécessaires. La Chine, et d’autres pays sans doute, a déjà des systèmes de classification des empreintes d’images et du contenu afin de marquer des messages comme inadmissibles en vertu de leurs lois, même s’ils sont protégés par la législation internationale en matière de droits de la personne. Les cas d’abus sont faciles à imaginer : les gouvernements qui interdisent l’homosexualité pourraient exiger que l’on apprenne au système de classification à restreindre les contenus d’apparence LGBTQ+, ou un régime autoritaire pourrait exiger que l’outil de classification puisse repérer des images satiriques populaires ou des tracts de protestation.

Maintenant qu’Apple l’a construit, ils viendront. Avec de bonnes intentions, Apple a ouvert la voie vers une faiblesse imposée de la sécurité dans le monde entier, permettant et renforçant les arguments qu’il est acceptable, si les intentions sont assez bonnes, d’analyser votre vie personnelle et vos communications privées. Nous exhortons Apple à reconsidérer leur approche et à revenir au mantra qu’elle avait affiché de façon si ostentatoire et si mémorable sur un panneau publicitaire à la conférence du CES 2019 à Las Vegas : Ce qui se passe sur votre iPhone reste sur votre iPhone.

SIGN THE PETITION

TELL APPLE: DON'T SCAN OUR PHONES

Read further on this topic:

Related Issues