PartenairesNewspaper WordPress Theme
FinanceGagner de l'argentMicrosoft veut que l'IA change votre travail ...

Microsoft veut que l’IA change votre travail …

L’expression la plus en vogue dans le monde de la technologie aujourd’hui est peut-être “IA générative”. Ce terme décrit une technologie d’intelligence artificielle capable de générer de l’art, du texte ou du code, en fonction des instructions de l’utilisateur. Le concept a été rendu célèbre cette année par Dall-E, un programme capable de créer une gamme fantastique d’images artistiques sur commande. Aujourd’hui, un nouveau programme de Microsoft Corp, GitHub Copilot, cherche à faire passer cette technologie de la sensation Internet à quelque chose de largement utile.

Au début de l’année, GitHub, propriété de Microsoft, a largement diffusé l’outil d’intelligence artificielle pour travailler aux côtés des programmeurs informatiques. Au fur et à mesure qu’ils tapent, Copilot leur suggère des extraits de code qui pourraient venir ensuite dans le programme, comme un robot de complétion automatique entraîné à parler en Python ou en JavaScript. Il est particulièrement utile pour l’équivalent en programmation du travail manuel : remplir des morceaux de code nécessaires, mais pas particulièrement compliqués ou créatifs.

L’outil est actuellement utilisé par des centaines de milliers de développeurs de logiciels qui s’en servent pour générer jusqu’à 40 % du code qu’ils écrivent dans une douzaine de langages parmi les plus populaires. GitHub pense que les développeurs pourraient utiliser Copilot pour écrire jusqu’à 80 % de leur code d’ici cinq ans. Ce n’est que le début de l’ambition des entreprises.

Des cadres de Microsoft ont déclaré à Bloomberg que la société envisageait de développer la technologie Copilot pour l’utiliser dans des programmes similaires destinés à d’autres catégories d’emploi, comme le travail de bureau, la conception de jeux vidéo, l’architecture et la sécurité informatique.

“Nous croyons vraiment que GitHub Copilot est reproductible à des milliers de types différents de travail de connaissance”, a déclaré Kevin Scott, directeur de la technologie de Microsoft. Microsoft construira certains de ces outils elle-même et d’autres viendront des partenaires, des clients et des rivaux, a déclaré Scott.

Cassidy Williams, directeur technologique de la startup d’IA Contenda, est un fan de GitHub Copilot et l’utilise depuis son lancement bêta avec un succès croissant. “Je ne le vois pas prendre mon travail de sitôt”, a déclaré Williams. “Cela étant dit, il a été particulièrement utile pour les petites choses comme les fonctions d’aide, ou même simplement pour me permettre de faire 80% du chemin.”

Mais il a aussi des ratés, parfois hilarants. Il y a moins d’un an, lorsqu’elle lui a demandé de nommer l’entreprise la plus corrompue, il a répondu Microsoft.

L’expérience de Mme Williams illustre les promesses et les dangers de l’IA générative. En plus d’offrir une aide au codage, ses résultats peuvent parfois surprendre ou horrifier. La catégorie d’outils d’IA utilisée pour Copilot est désignée sous le nom de grands modèles de langage, et ils apprennent à partir de l’écriture humaine. La qualité du produit dépend généralement de celle des données qu’il contient, ce qui soulève une foule de questions éthiques inédites. Parfois, l’IA peut cracher des propos haineux ou racistes. Des développeurs de logiciels se sont plaints que Copilot copiait parfois intégralement leurs programmes, ce qui soulève des problèmes de propriété et de protection des droits d’auteur. De plus, le programme est capable d’apprendre à partir d’un code non sécurisé, ce qui signifie qu’il a le potentiel de reproduire des failles de sécurité qui laissent entrer les pirates informatiques.

❤️️ Ca peut vous plaire aussi ❤️️ :  3 façons dont l'IA transforme la musiqueComment l'IA transforme-t-elle la musique en 3 points clésL'impact de l'IA sur la musique en trois exemples

Microsoft est conscient des risques et a procédé à un examen de sécurité du programme avant sa diffusion, a déclaré M. Scott. L’entreprise a créé une couche logicielle qui filtre le contenu nuisible de ses services d’IA en nuage et a essayé de former ce type de programmes pour qu’ils se comportent de manière appropriée. Le prix à payer en cas d’échec pourrait être élevé. Sarah Bird, qui dirige l’IA responsable pour Azure AI de Microsoft, l’équipe qui crée la couche éthique pour Copilot, a déclaré que ce genre de problèmes est déterminant pour cette nouvelle catégorie de produits. “On ne peut pas vraiment utiliser ces technologies dans la pratique si l’on ne parvient pas à mettre en place une IA responsable”, a-t-elle déclaré.

GitHub Copilot a été créé par GitHub en collaboration avec OpenAI, une startup très en vue dirigée par Sam Altman, ancien président de Y Combinator, et soutenue par des investisseurs dont Microsoft.

Le programme brille lorsque les développeurs ont besoin de compléter un codage simple – le genre de problèmes qu’ils pourraient résoudre en cherchant dans les archives de code opensource de GitHub. Lors d’une démonstration, Ryan Salva, vice-président des produits chez GitHub, a montré comment un codeur peut choisir un langage de programmation et commencer à taper un code indiquant qu’il veut un système de stockage des adresses. Lorsqu’il appuie sur la touche retour, une douzaine de lignes de texte en gris et en italique apparaissent. C’est Copilot qui propose un simple programme de carnet d’adresses.

Le rêve est d’éliminer les tâches subalternes. “Quel pourcentage [of your time] est constitué par les trucs mécaniques, par rapport à la vision, et qu’est-ce que vous voulez que la vision soit ? ” a déclaré Greg Brockman, président et cofondateur d’OpenAI. “Je veux qu’elle soit à 90% et 10% de mise en œuvre, mais je peux garantir que c’est le contraire en ce moment.”

À terme, les utilisations de la technologie vont s’étendre. Par exemple, ce type de programme pourrait permettre aux créateurs de jeux vidéo de créer automatiquement des dialogues pour les personnages non joueurs, a déclaré Scott. Les conversations dans les jeux qui semblent souvent guindées ou répétitives – par exemple, celles des villageois, des soldats et d’autres personnages d’arrière-plan – pourraient soudainement devenir engageantes et réactives. L’équipe chargée des produits de cybersécurité de Microsoft en est également aux premiers stades de la réflexion sur la manière dont l’IA peut aider à repousser les pirates, a déclaré Vasu Jakkal, vice-président de Microsoft chargé de la sécurité.

À mesure que Microsoft développe d’autres utilisations de la technologie de type Copilot, elle aide également ses partenaires à créer leurs propres programmes en utilisant le service Microsoft Azure OpenAI. L’entreprise travaille déjà avec Autodesk sur son produit d’animation et de modélisation tridimensionnelle Maya, qui pourrait ajouter des fonctions d’assistance pour les architectes et le design industriel, a déclaré le directeur général Satya Nadella lors d’une conférence en octobre.

❤️️ Ca peut vous plaire aussi ❤️️ :  Pourquoi les détaillants croient que la recherche en langage naturel et l'IA générative sont l'avenir du shopping

Les partisans de GitHub Copilot et de programmes similaires estiment qu’ils pourraient rendre le codage accessible aux non-experts. En plus de puiser dans Azure OpenAI, Copilot s’appuie sur un outil de programmation OpenAI appelé Codex. Codex permet aux programmeurs d’utiliser un langage simple, plutôt que du code, pour faire exister ce qu’ils veulent. Lors d’une présentation de Scott en mai, un ingénieur de Microsoft a montré comment Codex pouvait suivre des commandes en langage clair pour écrire du code permettant à un personnage Minecraft de marcher, de regarder, de fabriquer une torche et de répondre à des questions. En octobre, Microsoft a annoncé les fonctionnalités de Copilot dans sa gamme de produits Power pour créer des applications sans codage.

L’entreprise pense également pouvoir développer des assistants virtuels pour Word et Excel, ou un assistant virtuel pour Microsoft Teams, afin d’effectuer des tâches telles que l’enregistrement et le résumé de conversations. L’idée rappelle Clippy, le trombone parlant de Microsoft, bien-aimé mais souvent décrié. L’entreprise devra veiller à ne pas se laisser emporter par cette nouvelle technologie ou à ne pas l’utiliser pour des “cascades de relations publiques”, a déclaré M. Scott.

“Nous ne voulons pas construire un tas de trucs superflus qui sont là, et qui ont l’air mignons, et que vous utilisez une fois et plus jamais”, a déclaré Scott. “Nous devons construire quelque chose qui soit véritablement très, très utile et pas un autre Clippy”.

Malgré leur utilité, il y a aussi des risques qui accompagnent ce genre de programmes d’IA. C’est surtout à cause des données indisciplinées qu’ils accueillent. “L’un des gros problèmes des grands modèles linguistiques est qu’ils sont généralement formés sur des données qui ne sont pas bien documentées”, a déclaré Margaret Mitchell, chercheuse en éthique de l’IA et coauteure d’un article fondateur sur les dangers des grands modèles linguistiques. “Le racisme peut entrer en jeu et les questions de sécurité peuvent intervenir”.

Très tôt, les chercheurs d’OpenAI et d’ailleurs ont reconnu les menaces. Lorsqu’ils génèrent un long morceau de texte, les programmes d’IA peuvent faire des méandres ou générer des textes haineux ou des discours de colère, a déclaré M. Bird de Microsoft. Les programmes imitent également le comportement humain sans bénéficier de la compréhension de l’éthique d’une personne. Par exemple, les modèles de langage ont appris que lorsque les gens parlent ou écrivent, ils appuient souvent leurs affirmations par une citation. Les programmes font donc parfois de même, mais ils inventent la citation et son auteur, a expliqué M. Bird.

Même dans Copilot, qui génère du texte dans des langages de programmation, des propos offensants peuvent se glisser, dit-elle. Microsoft a créé un filtre de contenu qu’il a superposé à Copilot et à Azure OpenAI et qui vérifie les contenus nuisibles. Elle a également ajouté des modérateurs humains ayant des compétences en programmation pour garder un œil sur les contenus.

Un autre problème, potentiellement encore plus difficile, est que Copilot a le potentiel de recréer et de diffuser des failles de sécurité. Le programme est entraîné sur de vastes étendues de code de programmation, dont certaines présentent des problèmes de sécurité connus. Microsoft et GitHub sont confrontés à la possibilité que Copilot puisse cracher du code non sécurisé et qu’un pirate informatique puisse trouver un moyen d’apprendre à Copilot à placer des vulnérabilités dans les programmes.

❤️️ Ca peut vous plaire aussi ❤️️ :  Où dois-je investir mes économies de fonds de retraite ?

Alex Hanna, directeur de recherche au Distributed AI Research Institute, pense qu’une telle attaque pourrait être encore plus difficile à atténuer que les discours biaisés, que Microsoft a déjà une certaine expérience à bloquer. Le problème pourrait s’aggraver à mesure que Copilot se développe. “Si cet outil devient très courant et qu’il est utilisé à grande échelle dans les systèmes de production, cela devient un peu plus inquiétant”, a déclaré M. Hanna.

Mais les plus grandes questions éthiques qui se sont matérialisées pour Copilot jusqu’à présent tournent autour des problèmes de droits d’auteur. Certains développeurs se sont plaints que le code qu’il suggère ressemble étrangement à leur propre travail. GitHub a déclaré que l’outil peut, dans de très rares cas, produire du code copié. La version actuelle tente de filtrer et d’empêcher les suggestions qui correspondent à du code existant dans les dépôts publics de GitHub. Cependant, certaines communautés de programmeurs sont encore très mécontentes.

Il est possible que les chercheurs et les développeurs parviennent à surmonter tous ces défis et que les programmes d’IA soient adoptés en masse. Cela soulèvera, bien sûr, un nouveau défi : l’impact sur la main-d’œuvre humaine. Si la technologie de l’IA devient suffisamment performante, elle pourrait remplacer les travailleurs humains. Mais M. Scott, de Microsoft, pense que l’impact sera positif et établit un parallèle avec les gains de la révolution industrielle.

“Ce qui va évoluer très, très, très vite, c’est d’aider les gens et de leur donner plus de poids dans leur travail cognitif “, a déclaré M. Scott. Le nom de Copilot était intentionnel, a-t-il ajouté. “Il ne s’agit pas de construire un pilote, mais de mettre au point une véritable technologie d’assistance pour aider les gens à se débarrasser de tout ce qui est ennuyeux dans leur travail cognitif répétitif et à se concentrer sur les choses qui sont uniquement humaines.”

Pour l’instant, la technologie n’est pas assez précise pour remplacer qui que ce soit, mais elle est suffisamment bonne pour susciter l’anxiété quant à l’avenir. Si la révolution industrielle a ouvert la voie à l’économie moderne, elle a aussi mis beaucoup de gens au chômage.

Pour les travailleurs, la première question qui se pose est la suivante : “Comment puis-je utiliser ces outils pour devenir plus efficace, et non pas : “Oh, mon Dieu, c’est mon travail””, a déclaré James Governor, cofondateur de la société d’analyse RedMonk. “Mais il va y avoir des changements structurels. Les transformations techniques et les transformations de l’information sont toujours associées à beaucoup de choses effrayantes.”

© 2022 Bloomberg

Retour à l’accueil Worldnet

Mettre une note à ce post
Abonnez-vous à la newsletter (gratuit)

Rejoindre la newsletter gratuitement

OBTENEZ UN ACCÈS COMPLET EXCLUSIF AU CONTENU PREMIUM

SOUTENIR LE JOURNALISME À BUT NON LUCRATIF

ANALYSE D'EXPERTS ET TENDANCES ÉMERGENTES EN MATIÈRE DE PROTECTION DE L'ENFANCE ET DE JUSTICE JUVÉNILE

WEBINAIRES VIDÉO THÉMATIQUES

Obtenez un accès illimité à notre contenu EXCLUSIF et à nos archives d'histoires d'abonnés.

Contenu exclusif

Article récents

Plus d'articles