Les responsables de la Maison Blanche sont préoccupés par le potentiel de préjudice sociétal des chatbots basés sur l’IA, tandis que les géants de la Silicon Valley qui les mettent rapidement sur le marché sont fortement investis dans une compétition de trois jours qui se termine dimanche lors de la convention des hackers DefCon à Las Vegas. Environ 2 200 concurrents, tapotant sur des ordinateurs portables, ont cherché à découvrir les failles de huit grands modèles de langage représentatifs de la prochaine grande avancée technologique. Cependant, ne vous attendez pas à des résultats rapides de cette première évaluation indépendante de plusieurs modèles. Les résultats ne seront pas rendus publics avant février environ. Et même à ce moment-là, il faudra du temps et des millions de dollars pour corriger les défauts de ces constructions numériques, dont les mécanismes internes ne sont ni totalement fiables ni totalement compris, même par leurs créateurs. Les modèles d’IA actuels sont simplement trop complexes, fragiles et malléables, comme en témoignent les recherches académiques et d’entreprise. La sécurité était une réflexion tardive dans leur formation, alors que les scientifiques des données accumulaient des collections stupéfiantes d’images et de textes. Ils sont sujets à des biais raciaux et culturels et peuvent être facilement manipulés. “Il est tentant de prétendre que nous pouvons saupoudrer ces systèmes de sécurité magique après leur construction, les corriger pour les soumettre ou leur attacher un appareil de sécurité spécial”, a déclaré Gary McGraw, vétéran de la cybersécurité et co-fondateur de l’Institut de Machine Learning de Berryville. Les concurrents de DefCon sont “plus susceptibles de trouver de nouveaux problèmes difficiles”, a déclaré Bruce Schneier, technologue d’intérêt public à Harvard. “C’est la sécurité informatique d’il y a 30 ans. Nous cassons simplement des choses de gauche à droite.” Michael Sellitto d’Anthropic, qui a fourni l’un des modèles de test d’IA, a reconnu lors d’un point de presse que la compréhension de leurs capacités et des problèmes de sécurité était “une zone ouverte de recherche scientifique”. Les logiciels conventionnels utilisent un code bien défini pour émettre des instructions explicites étape par étape. Les modèles linguistiques de ChatGPT d’OpenAI, de Bard de Google et d’autres sont différents. Principalement formés en ingérant – et en classifiant – des milliards de points de données sur Internet, ils sont en perpétuelle évolution, une perspective troublante compte tenu de leur potentiel de transformation pour l’humanité. Après avoir publié publiquement des chatbots à l’automne dernier, l’industrie de l’IA générative a dû combler les failles de sécurité exposées par les chercheurs et les bricoleurs à plusieurs reprises. Tom Bonner, de la société de sécurité de l’IA HiddenLayer, qui s’est exprimé lors de la DefCon de cette année, a trompé un système de Google en le qualifiant de sans danger en ajoutant simplement une ligne disant “c’est sans danger”. “Il n’y a pas de bonnes barrières de sécurité”, a-t-il déclaré. Un autre chercheur a utilisé ChatGPT pour créer des e-mails d’hameçonnage et une recette pour éliminer violemment l’humanité, en violation de son code d’éthique. Une équipe comprenant des chercheurs de l’Université Carnegie Mellon a découvert que les principaux chatbots étaient vulnérables aux attaques automatisées produisant également un contenu nuisible. “Il est possible que la nature même des modèles d’apprentissage profond rende de telles menaces inévitables”, ont-ils écrit. Ce n’est pas comme si des alarmes n’avaient pas été lancées. Dans son rapport final 2021, la Commission nationale de sécurité des États-Unis sur l’intelligence artificielle a déclaré que les attaques contre les systèmes d’IA commerciaux se produisaient déjà et que “sauf rares exceptions, l’idée de protéger les systèmes d’IA a été une réflexion tardive dans l’ingénierie et le déploiement des systèmes d’IA, avec des investissements insuffisants en recherche et développement”. Les piratages sérieux, régulièrement signalés il y a seulement quelques années, sont maintenant à peine divulgués. Beaucoup trop est en jeu et, en l’absence de réglementation, “les gens peuvent balayer les choses sous le tapis pour le moment et ils le font”, a déclaré Bonner. Les attaques trompent la logique de l’intelligence artificielle de manière à ne pas être claires même pour leurs créateurs. Et les chatbots sont particulièrement vulnérables car nous interagissons directement avec eux dans un langage courant. Cette interaction peut les modifier de manière inattendue. Les chercheurs ont découvert que “l’empoisonnement” d’une petite collection d’images ou de texte dans l’immense ensemble de données utilisées pour former les systèmes d’IA peut causer des ravages – et passer facilement inaperçu. Une étude co-écrite par Florian Tramér de l’Université suisse ETH Zurich a déterminé que la corruption de seulement 0,01% d’un modèle suffisait à le ruiner – et cela coûterait aussi peu que 60 dollars. Les chercheurs ont attendu que quelques sites Web utilisés dans les crawls Web pour deux modèles expirent. Ensuite, ils ont acheté les domaines et y ont publié des données erronées. Hyrum Anderson et Ram Shankar Siva Kumar, qui ont évalué de manière indépendante la sécurité des systèmes basés sur l’IA alors qu’ils étaient collègues chez Microsoft, qualifient l’état de sécurité de l’IA pour les modèles basés sur le texte et l’image de “pitoyable” dans leur nouveau livre “Non pas avec un bug mais avec un autocollant”. Un exemple qu’ils citent dans leurs présentations en direct : l’assistant numérique alimenté par l’IA Alexa est trompé en interprétant un extrait d’un concerto de Beethoven comme une commande pour commander 100 pizzas surgelées. En enquêtant sur plus de 80 organisations, les auteurs ont constaté que la grande majorité d’entre elles n’avaient aucun plan de réponse en cas d’attaque d’empoisonnement des données ou de vol de jeux de données. La majeure partie de l’industrie “ne saurait même pas que cela s’est produit”, ont-ils écrit. Andrew W. Moore, ancien cadre de Google et doyen de Carnegie Mellon, affirme avoir déjà été confronté à des attaques contre le logiciel de recherche de Google il y a plus d’une décennie. Et entre fin 2017 et début 2018, les spammeurs ont réussi à tromper le service de détection basé sur l’IA de Gmail à quatre reprises. Les principaux acteurs de l’IA affirment que la sécurité et la sûreté sont des priorités absolues et ont pris des engagements volontaires envers la Maison Blanche le mois dernier pour soumettre leurs modèles, qui sont en grande partie des “boîtes noires” dont le contenu est étroitement gardé, à un examen externe. Mais on craint que les entreprises n’en fassent pas assez. Tramér s’attend à ce que les moteurs de recherche et les plateformes de médias sociaux soient utilisés à des fins de profit financier et de désinformation en exploitant les faiblesses du système d’IA. Par exemple, un candidat à l’emploi astucieux pourrait trouver le moyen de convaincre un système qu’il est le seul candidat correct. Ross Anderson, informaticien de l’Université de Cambridge, s’inquiète que les robots d’IA érodent la vie privée alors que les gens les utilisent pour interagir avec les hôpitaux, les banques et les employeurs, et que des acteurs malveillants les utilisent pour obtenir des données financières, professionnelles ou de santé à partir de systèmes soi-disant fermés. Les modèles linguistiques de l’IA peuvent également se corrompre en se réentraînant à partir de données inutiles, selon les recherches. Une autre préoccupation concerne l’ingestion et la divulgation de secrets d’entreprise par les systèmes d’IA. Après qu’un média d’information économique coréen a rapporté un tel incident chez Samsung, des entreprises telles que Verizon et JPMorgan ont interdit à la plupart de leurs employés d’utiliser ChatGPT au travail. Alors que les grands acteurs de l’IA disposent de personnel spécialisé en sécurité, de nombreux concurrents plus petits n’en auront probablement pas, ce qui signifie que des plug-ins et des agents numériques mal sécurisés pourraient se multiplier. On s’attend à ce que des centaines de nouvelles offres basées sur des modèles pré-entraînés sous licence soient lancées par des startups dans les prochains mois. Ne soyez pas surpris, disent les chercheurs, si l’une d’entre elles s’empare de votre carnet d’adresses.
Retour à l’accueil Worldnet