Les élections dans le monde entier sont confrontées à une menace évolutive de la part d’acteurs étrangers, qui fait appel à l’intelligence artificielle.
Les pays qui tentent d’influencer les élections des autres sont entrés dans une nouvelle ère en 2016, lorsque les Russes ont lancé une série de campagnes de désinformation sur les médias sociaux visant l’élection présidentielle américaine. Au cours des sept années qui ont suivi, un certain nombre de pays – au premier rang desquels la Chine et l’Iran – ont utilisé les médias sociaux pour influencer des élections étrangères, tant aux États-Unis qu’ailleurs dans le monde. Il n’y a aucune raison de s’attendre à ce que les années 2023 et 2024 soient différentes.
Mais il y a un nouvel élément : l’IA générative et les grands modèles de langage. Ceux-ci ont la capacité de produire rapidement et facilement des quantités infinies de textes sur n’importe quel sujet, dans n’importe quel ton et de n’importe quel point de vue. En tant que expert en sécuritéje pense que c’est un outil particulièrement adapté à la propagande de l’ère Internet.
Tout cela est très récent. ChatGPT a été introduit en novembre 2022. Le GPT-4, plus puissant, a été lancé en mars 2023. D’autres IA de production de langage et d’images ont à peu près le même âge. On ne sait pas exactement comment ces technologies modifieront la désinformation, quelle sera leur efficacité ou quels seront leurs effets. Mais nous sommes sur le point de le découvrir.
Une conjonction d’élections
La saison électorale va bientôt commencer en plein essor dans une grande partie du monde démocratique. Soixante et onze pour cent des personnes vivant dans des démocraties voteront lors d’une élection nationale d’ici la fin de l’année prochaine. Parmi eux, l’Argentine et la Pologne en octobre, Taiwan en janvier, l’Indonésie en février : L’Argentine et la Pologne en octobre, Taiwan en janvier, l’Indonésie en février, l’Inde en avril, l’Union européenne et le Mexique en juin et les États-Unis en novembre. Neuf démocraties africaines, dont l’Afrique du Sud, organiseront des élections en 2024. L’Australie et le Royaume-Uni n’ont pas de dates fixes, mais les élections auront probablement lieu en 2024.
Nombre de ces élections revêtent une grande importance pour les pays qui ont mené des opérations d’influence sur les médias sociaux par le passé. La Chine se préoccupe beaucoup de Taïwan, Indonésie, Inde et de nombreux pays africains. La Russie se préoccupe du Royaume-Uni, de la Pologne, de l’Allemagne et de l’Union européenne. l’UE en général. Tout le monde se soucie des États-Unis.
Et cela ne concerne que les plus grands acteurs. Chaque élection nationale américaine depuis 2016 a amené avec elle un pays supplémentaire qui a tenté d’influencer le résultat. D’abord, il n’y avait que la Russie, puis la Russie et la Chine, et plus récemment ces deux pays plus l’Iran. À mesure que le coût financier de l’influence étrangère diminue, de plus en plus de pays peuvent participer à l’action. Des outils tels que ChatGPT réduisent considérablement le prix de la production et de la distribution de la propagande, mettant cette capacité à la portée du budget d’un plus grand nombre de pays.
Interférence électorale
Il y a quelques mois, j’ai assisté à une conférence réunissant des représentants de toutes les agences de cybersécurité des États-Unis. Ils ont parlé de leurs attentes concernant l’ingérence dans les élections en 2024. Ils s’attendaient à voir apparaître les acteurs habituels – la Russie, la Chine et l’Iran – ainsi qu’un nouvel acteur important : les “acteurs nationaux” : les “acteurs nationaux”. Il s’agit là d’un résultat direct de la réduction des coûts.
Bien entendu, mener une campagne de désinformation ne se résume pas à générer du contenu. La partie la plus difficile est la distribution. Un propagandiste a besoin d’une série de faux comptes sur lesquels il peut publier des messages, et d’autres comptes pour les propulser dans le courant dominant, où ils peuvent devenir viraux. Des entreprises comme Meta ont beaucoup progressé dans l’identification de ces comptes et dans leur suppression. Le mois dernier, Meta a annoncé qu’elle avait supprimé 7 704 comptes Facebook, 954 pages Facebook, 15 groupes Facebook et 15 comptes Instagram associés à une campagne d’influence chinoise, et identifié des centaines d’autres comptes sur TikTok, X (anciennement Twitter), LiveJournal et Blogspot. Mais il s’agit d’une campagne qui a débuté il y a quatre ans et qui a produit de la désinformation avant l’apparition de l’IA.
La désinformation est une course aux armements. Les attaquants et les défenseurs se sont améliorés, mais le monde des médias sociaux est également différent. Il y a quatre ans, Twitter était une ligne directe avec les médias, et la propagande sur cette plateforme était un moyen de faire basculer le récit politique. Une étude de la Columbia Journalism Review a révélé que la plupart des grands organes d’information utilisaient des tweets russes comme sources d’opinions partisanes. Ce Twitter, que pratiquement tous les rédacteurs en chef lisaient et sur lequel tous ceux qui étaient quelqu’un postaient, n’existe plus.
De nombreux organes de propagande sont passés de Facebook à des plateformes de messagerie telles que Telegram et WhatsApp, ce qui les rend plus difficiles à identifier et à supprimer. TikTok est une plateforme plus récente, contrôlée par la Chine, qui convient mieux aux vidéos courtes et provocantes, que l’IA rend beaucoup plus faciles à produire. Et la génération actuelle d’IA générative est en train d’être mise à l’épreuve. connectée à des outils qui faciliteront également la diffusion du contenu.
Les outils d’IA générative permettent également de nouvelles techniques de production et de distribution, telles que la propagande de bas niveau à grande échelle. Imaginez un nouveau compte personnel alimenté par l’IA sur les médias sociaux. Pour l’essentiel, il se comporte normalement. Il publie des articles sur sa fausse vie quotidienne, rejoint des groupes d’intérêt et commente les articles des autres, et se comporte généralement comme un utilisateur normal. Et de temps en temps, pas très souvent, il dit – ou amplifie – quelque chose de politique. Ces persona botscomme les appelle l’informaticienne Latanya Sweeney, ont une influence négligeable. Mais répliqués par milliers ou millions, ils en auraient beaucoup plus.
La désinformation sous stéroïdes d’IA
Il ne s’agit là que d’un scénario parmi d’autres. Les officiers militaires de Russie, de Chine et d’ailleurs chargés de l’ingérence dans les élections sont susceptibles d’avoir leurs meilleurs éléments qui pensent aux autres. Et leurs tactiques seront probablement beaucoup plus sophistiquées qu’elles ne l’étaient en 2016.
Des pays comme la Russie et la Chine ont l’habitude de tester les cyberattaques et les opérations d’information sur des pays plus petits avant de les déployer à grande échelle. Lorsque cela se produit, il est important de pouvoir identifier ces tactiques. Pour contrer les nouvelles campagnes de désinformation, il faut pouvoir les reconnaître, et pour les reconnaître, il faut les rechercher et les cataloguer dès maintenant.
Dans le monde de la sécurité informatique, les chercheurs reconnaissent que le partage des méthodes d’attaque et de leur efficacité est le seul moyen de construire des systèmes de défense solides. Le même type de raisonnement s’applique à ces campagnes d’information : Plus les chercheurs étudient les techniques employées dans des pays lointains, mieux ils peuvent défendre leur propre pays.
Les campagnes de désinformation à l’ère de l’IA seront probablement beaucoup plus sophistiquées qu’elles ne l’étaient en 2016. Je pense que les États-Unis doivent mettre en place des mesures permettant de relever les empreintes digitales et d’identifier les informations produites par l’IA. propagande à Taïwanoù un candidat à la présidence affirme qu’un faux enregistrement audio l’a diffamé, et dans d’autres endroits. Sinon, nous ne les verrons pas lorsqu’ils arriveront ici. Malheureusement, les chercheurs sont plutôt ciblés et harcelé.
Peut-être que tout se passera bien. L’ère de l’IA générative a connu d’importantes élections démocratiques sans problème de désinformation notable : primaires en Argentine, élections au premier tour en Équateur et élections nationales en Thaïlande, en Turquie, en Espagne et en Grèce. Mais plus tôt nous saurons à quoi nous attendre, mieux nous pourrons faire face à ce qui arrivera.
Bruce Schneier est maître de conférences adjoint en politiques publiques, Harvard Kennedy School.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire le article original.
Retour à l’accueil Worldnet