PartenairesNewspaper WordPress Theme
FinanceGagner de l'argentComment les entreprises protègent les données à l'ère de l'intelligence artificielle

Comment les entreprises protègent les données à l’ère de l’intelligence artificielle

Alors que l’intelligence artificielle se répand dans le monde des affaires comme une traînée de poudre, les données sur lesquelles l’IA se nourrit deviennent de plus en plus vitales pour les entreprises.

Des questions de confidentialité et de sécurité aux problèmes éthiques et au biais de formation, la gamme de considérations liées aux données et à l’IA est large et se développe encore. Pour de nombreuses entreprises, cela signifie repenser leurs politiques et leurs pratiques, même si elles n’ont pas officiellement adopté la technologie de l’IA au sein de l’organisation.

Les entreprises ne réalisent pas à quel point les données internes sont déjà utilisées au sein de leur organisation pour les outils d’IA, a déclaré Dorit Dor, responsable de la technologie de Check Point, lors de la conférence Fortune Brainstorm Tech à Deer Valley, dans l’Utah, cette semaine. “Leurs données et leurs informations sont déjà là-bas”, a-t-elle dit.

Dor s’est jointe à des dirigeants de PagerDuty, Salesforce et Signal pour partager leurs points de vue et leurs expériences sur le sujet des données à l’ère de l’IA lors d’un panel de groupe lors de la conférence.

❤️️ Ca peut vous plaire aussi ❤️️ :  Le mois le plus actif pour le shopping depuis la pandémie a donné un coup de pouce aux rues commerçantes.

Alors que les employés expérimentent des outils comme ChatGPT, ils alimentent l’outil d’IA avec des données internes. Cela signifie que les entreprises sont confrontées à d’importants problèmes de fuite de données qui pourraient compromettre à la fois les informations concurrentielles exclusives et les données personnelles des clients. “Il n’y a pas de séparation nette que les entreprises traditionnelles attendraient des bases de données sécurisées”, a déclaré Clara Shih, PDG de l’activité IA de Salesforce, à propos de certains des outils d’IA utilisés par les employés de différentes entreprises.

Shih a expliqué comment les grands modèles linguistiques qui alimentent les outils d’IA génératifs nécessitent autant de contexte que possible de la part de l’utilisateur afin de produire des réponses les plus pertinentes et précises possible. “Si vous ne faites pas attention à la façon dont vous l’architectez, par défaut, le contexte que vous donnez dans la requête finit par être appris par le modèle lui-même.”

Sean Scott, directeur du développement de produits de PagerDuty, a exprimé la même préoccupation, mais a souligné qu’il est essentiel de suivre les meilleures pratiques en matière de sécurité. “Cela commence par quelle est votre politique ? Quels sont vos joyaux de la couronne ? Quelles données voulez-vous protéger ? Quelles données voulez-vous vous assurer qu’elles sont super protégées ? “, a déclaré Scott, ajoutant que les employés doivent être éduqués et que des mesures de surveillance doivent être mises en place pour veiller au respect des politiques.

❤️️ Ca peut vous plaire aussi ❤️️ :  Le pétrole prolonge sa chute en-dessous de 90 $ alors que les préoccupations de taux d'intérêt éclipsent la tension

Se protéger contre les données des modèles mystères

Alors que la protection des données internes contre les fuites est cruciale, les entreprises doivent également faire face à la qualité des données externes qu’elles ingèrent. La plupart des modèles d’IA linguistiques larges disponibles sont des “boîtes noires”, selon Meredith Whittaker, présidente de Signal. “Ils savent quelles sont les données, vous ne savez pas quelles sont les données”, a-t-elle déclaré.

Les entreprises qui souhaitent mettre en œuvre ces outils d’IA dans leurs opérations courent le risque d’obtenir des résultats incorrects ou offensants en raison des données mystérieuses. “Ce que nous pouvons faire, c’est peaufiner avec d’autres données qui pourraient façonner le modèle pour qu’il corresponde à un domaine, ou qu’il soit spécifiquement conçu pour quelque chose, ou qu’il soit moins offensant”, a déclaré Whittaker. “Mais je pense que nous devons être clairs sur le manque d’agence dans ces questions.”

❤️️ Ca peut vous plaire aussi ❤️️ :  L'Afrique du Sud fait la queue pour les prétendants aux grandes puissances

Whittaker, qui est conseillère auprès de la FTC des États-Unis, a appelé à davantage de réglementation pour couper le flux de données problématiques et limiter ce qui pénètre “dans le système sanguin”.

Dor de Check Point a mis en garde contre le fait que la réglementation est seulement un début. “La réglementation ne viserait qu’à relever le niveau minimum requis, elle ne vous mettrait jamais dans un espace vraiment sûr”, a déclaré Dor.

En attendant, Dor a déclaré que la majeure partie du fardeau de la gestion des données à l’ère de l’IA repose sur les épaules des RSSI (responsables de la sécurité de l’information) déjà surchargés des entreprises.

“Les RSSI étaient épuisés auparavant, maintenant ils ont soudainement cette mission avec de nombreux éléments dont ils ne connaissent pas vraiment grand-chose, comme tous les aspects juridiques”, a-t-elle ajouté.

Retour à l’accueil Worldnet

Mettre une note à ce post
Abonnez-vous à la newsletter (gratuit)

Rejoindre la newsletter gratuitement

OBTENEZ UN ACCÈS COMPLET EXCLUSIF AU CONTENU PREMIUM

SOUTENIR LE JOURNALISME À BUT NON LUCRATIF

ANALYSE D'EXPERTS ET TENDANCES ÉMERGENTES EN MATIÈRE DE PROTECTION DE L'ENFANCE ET DE JUSTICE JUVÉNILE

WEBINAIRES VIDÉO THÉMATIQUES

Obtenez un accès illimité à notre contenu EXCLUSIF et à nos archives d'histoires d'abonnés.

Contenu exclusif

Article récents

Plus d'articles