PartenairesNewspaper WordPress Theme
FinanceGagner de l'argentLa startup britannique Aligned AI revendique une percée dans le jeu CoinRun,...

La startup britannique Aligned AI revendique une percée dans le jeu CoinRun, conçu pour tester la sécurité de l’IA

Une petite entreprise d’Oxford, en Angleterre, affirme avoir réalisé une percée importante en matière de sécurité de l’IA, qui pourrait rendre les voitures à conduite autonome, les robots et d’autres produits basés sur l’IA beaucoup plus fiables en vue d’une utilisation généralisée.

Align AI, une entreprise créée il y a un an, affirme avoir mis au point un nouvel algorithme qui permet aux systèmes d’IA de former des associations plus sophistiquées, plus proches des concepts humains. Cette réussite, si elle est confirmée par des tests en conditions réelles, pourrait résoudre un problème courant des systèmes d’IA actuels, qui établissent souvent des corrélations erronées à partir des données sur lesquelles ils sont formés, ce qui peut avoir des conséquences désastreuses en dehors du laboratoire.

Le danger de ces corrélations incorrectes – ou “généralisations erronées” dans le jargon de l’IA – a été tragiquement mis en évidence en 2018 lorsqu’une voiture autopilotée d’Uber a heurté et tué une femme qui traversait la route en Arizona. Les données d’entraînement qu’Uber avait fournies au logiciel d’IA de la voiture n’avaient jamais représenté que des piétons marchant dans des passages pour piétons. Ainsi, alors que les ingénieurs d’Uber pensaient que le logiciel avait appris à détecter les piétons, il n’avait en réalité appris qu’à identifier les passages pour piétons. Lorsqu’il a croisé une femme traversant la rue en dehors d’un passage piéton, il ne l’a pas du tout considérée comme une piétonne et l’a percutée de plein fouet.

Selon Rebecca Gorman, cofondatrice et PDG d’Aligned , l’algorithme d’extraction de concepts (ACE) de l’entreprise est bien plus efficace pour éviter de telles connexions erronées.

Gorman a déclaré Fortune elle voit des utilisations potentielles pour le nouvel algorithme dans des domaines tels que la robotique. Idéalement, nous voudrions qu’un robot qui a appris à ramasser une tasse dans un simulateur soit capable de généraliser cette connaissance pour ramasser des tasses de tailles et de formes différentes dans des environnements et des conditions d’éclairage différents, de sorte qu’il puisse être utilisé dans n’importe quel contexte sans avoir à se recycler. Idéalement, ce robot devrait également savoir comment travailler en toute sécurité avec des personnes, sans devoir être confiné dans une cage comme le sont aujourd’hui de nombreux robots industriels.

❤️️ Ca peut vous plaire aussi ❤️️ :  3 conseils d'investisseurs pour construire un patrimoine à long terme

“Nous avons besoin de moyens pour que ces IA qui fonctionnent sans surveillance humaine continue puissent encore agir en toute sécurité”, a-t-elle déclaré. Elle a ajouté qu’ACE pourrait également être utile pour la modération de contenu sur les médias sociaux ou les forums Internet. ACE a déjà obtenu d’excellents résultats lors d’un test de détection des propos toxiques.

L’IA a obtenu d’excellents résultats dans un jeu vidéo similaire à Sonic the Hedgehog

Pour démontrer les prouesses du modèle ACE, Align AI l’a mis à l’épreuve sur un jeu vidéo simple appelé CoinRun.

CoinRun est une version simplifiée d’un jeu comme Sonic the Hedgehog, mais il est utilisé par les développeurs d’IA comme une référence stimulante pour évaluer la capacité d’un modèle à surmonter la tendance à établir des connexions erronées. Un joueur, dans ce cas un agent IA, doit naviguer dans un labyrinthe d’obstacles et de dangers, en évitant les monstres, tout en cherchant une pièce d’or et en s’échappant pour passer au niveau suivant du jeu.

CoinRun a été créé par des chercheurs de l’OpenAI en 2018 comme un environnement simple pour tester la capacité de différents agents d’IA à se généraliser à de nouveaux scénarios. En effet, le jeu présente aux agents d’IA une série infinie de niveaux dans lesquels la configuration exacte des défis que l’agent doit surmonter – l’emplacement des obstacles, des fosses et des monstres – ne cesse de changer.

Mais en 2021, des chercheurs de Google DeepMind et d’un certain nombre d’universités britanniques et européennes ont découvert qu’il était possible d’utiliser l’intelligence artificielle dans le jeu. réalisé que CoinRun pouvait en fait être utilisé pour tester si les agents “généralisaient mal”, c’est-à-dire s’ils apprenaient une corrélation erronée. En effet, dans la version originale de CoinRun, l’agent apparaît toujours dans le coin supérieur gauche de l’écran et la pièce apparaît toujours dans le coin inférieur droit de l’écran, où l’agent peut passer au niveau suivant. Les agents de l’IA apprendront donc à toujours aller en bas à droite. En fait, si la pièce était placée ailleurs, les agents de l’IA l’ignoreraient souvent et iraient toujours en bas à droite. En d’autres termes, le jeu CoinRun original était censé former des agents à la recherche de pièces de monnaie, mais il a plutôt formé des agents à la recherche du coin inférieur droit.

❤️️ Ca peut vous plaire aussi ❤️️ :  Terminal à conteneurs envisagé pour Richards Bay

Il est en fait très difficile de faire en sorte que les agents ne généralisent pas à tort. Cela est particulièrement vrai dans les situations où l’agent ne peut pas recevoir continuellement un nouveau signal de récompense et doit simplement suivre la stratégie qu’il a développée lors de la formation. Dans ces conditions, l’ancien meilleur logiciel d’IA n’a pu obtenir la pièce que 59 % du temps. Cela ne représente qu’une amélioration de 4 % par rapport à un agent effectuant des actions aléatoires. En revanche, un agent formé à l’aide d’ACE a obtenu la pièce dans 72 % des cas. Les chercheurs ont montré que l’agent ACE cherche désormais la pièce, au lieu de passer à côté d’elle. Il comprend également les situations dans lesquelles il peut courir pour attraper une pièce et passer au niveau suivant avant d’être dévoré par un monstre qui s’approche, alors que l’agent standard dans cette situation reste bloqué dans le coin gauche, trop effrayé par le monstre pour avancer – parce qu’il pense que le but du jeu est d’atteindre le coin inférieur droit de l’écran, et non pas d’attraper la pièce.

❤️️ Ca peut vous plaire aussi ❤️️ :  L'inflation en Afrique du Sud est à son plus bas niveau depuis cinq mois

L’ACE fonctionne en remarquant les différences entre ses données d’apprentissage et les nouvelles données – dans ce cas, l’emplacement de la pièce. Il formule ensuite deux hypothèses sur ce que pourrait être son véritable objectif en fonction de ces différences : l’une correspond à l’objectif original qu’il a appris lors de l’entraînement (aller en bas à droite) et l’autre à un objectif différent (chercher la pièce). Il teste ensuite l’hypothèse qui semble le mieux rendre compte des nouvelles données. Il répète ce processus jusqu’à ce qu’il trouve un objectif qui semble correspondre aux différences de données qu’il a observées.

Dans le benchmark CoinRun, il a fallu à l’agent ACE 50 exemples avec la pièce à différents endroits avant d’apprendre que l’objectif correct était d’obtenir la pièce, et non d’aller en bas à droite. Mais Stuart Armstrong, cofondateur et directeur de la technologie d’Aligned AI, a déclaré qu’il avait constaté de bons progrès même avec la moitié de ce nombre d’exemples et que l’objectif de l’entreprise était de ramener ce chiffre à ce que l’on appelle l’apprentissage “zéro coup”, où le système d’IA comprendra le bon objectif la première fois qu’il rencontrera des données qui ne ressemblent pas à ses exemples d’entraînement. C’est ce qui aurait été nécessaire pour sauver la femme tuée par la voiture autopilotée d’Uber.

Aligned AI est actuellement à la recherche d’un premier financement et un brevet pour ACE est en cours d’examen, selon M. Gorman.

M. Armstrong a également déclaré que l’ACE peut également contribuer à rendre les systèmes d’IA plus interprétables, puisque ceux qui construisent un système d’IA peuvent voir ce que le logiciel pense être son objectif. Il pourrait même être possible, à l’avenir, de coupler quelque chose comme ACE avec un modèle de langage, comme celui qui alimente ChatGPT, pour que l’algorithme exprime l’objectif en langage naturel.

Retour à l’accueil Worldnet

Mettre une note à ce post
Abonnez-vous à la newsletter (gratuit)

Rejoindre la newsletter gratuitement

OBTENEZ UN ACCÈS COMPLET EXCLUSIF AU CONTENU PREMIUM

SOUTENIR LE JOURNALISME À BUT NON LUCRATIF

ANALYSE D'EXPERTS ET TENDANCES ÉMERGENTES EN MATIÈRE DE PROTECTION DE L'ENFANCE ET DE JUSTICE JUVÉNILE

WEBINAIRES VIDÉO THÉMATIQUES

Obtenez un accès illimité à notre contenu EXCLUSIF et à nos archives d'histoires d'abonnés.

Contenu exclusif

Article récents

Plus d'articles