La vie privée et les droits menacés par les technologies de surveillance

Des villes où les caméras pullulent, des appareils qui nous écoutent, des réseaux sociaux qui collectent et vendent nos données, des plateformes qui exploitent l'intelligence artificielle pour créer des images pornographiques de célébrités : il ne s'agit pas là de scénarios de séries policières , mais de la transposition de la réalité interconnectée et numérique dans laquelle nous vivons. L'exposition accrue à laquelle nous conduisent l'intelligence artificielle, les dispositifs de sécurité et la cybercriminalité est un sujet qui doit être surveillé de près, car la vie privée et les droits de millions de personnes sont en jeu.
En matière de caméras de surveillance et de systèmes de reconnaissance faciale, la Chine figure incontestablement parmi les pays leaders. Son infrastructure de surveillance, optimisée par l'IA et conçue pour la surveillance de masse et le maintien de la « stabilité sociale », n'est cependant pas la seule au monde à poursuivre ces objectifs. Les États-Unis, Israël, la Hongrie, la Turquie, la Russie, le Japon et la Corée du Sud sont tout aussi engagés dans ce domaine, et les entreprises américaines , en particulier, jouent un rôle clé dans la fourniture du matériel sous-jacent à ces systèmes de surveillance intelligents. Toutefois, l'ensemble du secteur de la vidéosurveillance est en pleine mutation, comme le confirme une récente étude mondiale menée par la société américaine Axis Communications.
Pour plus de 60 % des acteurs du secteur, l'IA et l'IA générative façonneront profondément l'avenir de l'industrie en matière de sécurité, de veille stratégique (grâce à l'utilisation de données sensorielles en complément des sources vidéo) et d'efficacité opérationnelle. Quels facteurs renforceront l'importance et l'impact des algorithmes et modèles LLM ? Le rapport met en lumière deux éléments clés : l'accélération de la transition vers les architectures hybrides, qui combinent la rapidité de traitement des données issues de l'IA embarquée avec l'évolutivité à long terme du cloud, et le recours croissant aux systèmes de reconnaissance faciale, encadré par une réglementation visant à garantir leur application de manière éthique (du moins en théorie).
Aux États-Unis, la vidéosurveillance intelligente est un sujet controversé, reflétant une approche fragmentée de la réglementation de la vie privée (largement laissée à la discrétion des États) et un débat public qui cherche depuis longtemps un équilibre entre les impératifs de sécurité (notamment en matière de prévention de la criminalité et du terrorisme) et le risque d'une militarisation de la surveillance. Dans ce contexte, New York est devenu un exemple frappant de l'utilisation généralisée de caméras de vidéosurveillance équipées de la technologie de reconnaissance faciale (plus de 25 000 seraient installées, la plupart étant actives dans les arrondissements de Brooklyn et du Bronx) pour maintenir l'ordre public et prévenir la criminalité. Les conséquences sur les droits individuels sont bien connues, tout comme l'Autorité italienne de protection des données, qui est intervenue ces derniers mois pour infliger une amende à Clearview AI, une entreprise fournissant aux forces de l'ordre du monde entier une vaste base de données d'informations collectées sur Internet. Cette base de données permet de comparer les images capturées par les caméras et de rechercher des correspondances potentielles parmi les personnes déjà connues des services de police et les récidivistes potentiels.
« Le risque d’abus », explique Andrea Baldrati, associée fondatrice de BSD Legal et fondatrice de Privacy Week, « réside dans la collecte de données à l’insu des personnes et leur agrégation par des systèmes algorithmiques afin d’établir un profil de l’individu. Cela peut également se produire en temps de guerre : on sait, par exemple, que l’armée israélienne utilise depuis des années l’apprentissage automatique, et plus récemment des modèles LLM, pour surveiller les individus et leurs comportements. Ceci ouvre la voie à une utilisation indiscriminée de la technologie qui sape l’un des principes de la démocratie : la présomption d’innocence et la protection contre les accusations de culpabilité pour un crime non encore commis. » En Europe, cependant, le cas le plus frappant est celui de la Hongrie, qui a adopté au printemps dernier de nouvelles lois (en contradiction avec la loi sur l’intelligence artificielle) visant à étendre l’utilisation de la technologie de reconnaissance faciale et à autoriser la surveillance des personnes participant à des manifestations pacifiques désapprouvées par le gouvernement central, telles que les marches des fiertés LGBTQ+.
ilsole24ore


