L’IA peut désormais apprendre à manipuler le comportement humain (vidéo)

 

(agsandrew / Shutterstock)

L’intelligence artificielle (IA) en apprend davantage sur la façon de travailler avec (et sur) les humains. Une étude récente a montré comment l’IA peut apprendre à identifier les vulnérabilités dans les habitudes et les comportements humains et à les utiliser pour influencer la prise de décision humaine.

Il peut sembler cliché de dire que l’IA transforme tous les aspects de notre façon de vivre et de travailler, mais c’est vrai. Diverses formes d’IA sont à l’œuvre dans des domaines aussi divers que le développement de vaccins, la gestion environnementale et l’administration de bureau. Et bien que l’IA ne possède pas d’intelligence et d’émotions semblables à celles des humains, ses capacités sont puissantes et se développent rapidement.

Il n’est pas nécessaire de s’inquiéter pour le moment d’une prise de contrôle de la machine, mais cette découverte récente met en évidence la puissance de l’IA et souligne la nécessité d’une gouvernance appropriée pour éviter les abus.

Comment l’IA peut apprendre à influencer le comportement humain

Une équipe de chercheurs du CSIRO’s Data61 , la branche des données et du numérique de l’agence scientifique nationale australienne, a mis au point une méthode systématique de recherche et d’exploitation des vulnérabilités dans la manière dont les gens font des choix, en utilisant une sorte de système d’IA appelé réseau neuronal récurrent et renforcement profond- apprentissage. Pour tester leur modèle, ils ont mené trois expériences dans lesquelles des participants humains ont joué à des jeux contre un ordinateur.

La première expérience impliquait des participants cliquant sur des cases de couleur rouge ou bleue pour gagner une fausse monnaie, l’IA apprenant les modèles de choix des participants et les guidant vers un choix spécifique. L’IA a réussi environ 70% du temps.

Dans la deuxième expérience, les participants devaient regarder un écran et appuyer sur un bouton quand on leur montrait un symbole particulier (comme un triangle orange) et ne pas appuyer dessus quand on leur en montrait un autre (disons un cercle bleu). Ici, l’IA a décidé d’organiser la séquence des symboles pour que les participants fassent plus d’erreurs et obtiennent une augmentation de près de 25%.

La troisième expérience consistait en plusieurs tours au cours desquels un participant prétendait être un investisseur donnant de l’argent à un fiduciaire (l’IA). L’IA rendrait ensuite une somme d’argent au participant, qui déciderait alors du montant à investir dans le tour suivant. Ce jeu se jouait selon deux modes différents: dans l’un, l’IA cherchait à maximiser la somme d’argent avec laquelle elle se retrouvait, et dans l’autre, l’IA visait une répartition équitable de l’argent entre elle-même et l’investisseur humain. L’IA a connu un grand succès dans chaque mode.

Dans chaque expérience, la machine a appris des réponses des participants et identifié et ciblé les vulnérabilités dans la prise de décision des gens. Le résultat final a été que la machine a apprise à orienter les participants vers des actions particulières.

Ce que la recherche signifie pour l’avenir de l’IA

Ces résultats sont encore assez abstraits et impliquent des situations limitées et irréalistes. Des recherches supplémentaires sont nécessaires pour déterminer comment cette approche peut être mise en œuvre et utilisée au profit de la société.

Mais la recherche fait progresser notre compréhension non seulement de ce que l’IA peut faire, mais également de la manière dont les gens font des choix. Cela montre que les machines peuvent apprendre à orienter les choix humains grâce à leurs interactions avec nous.

La recherche a une vaste gamme d’applications possibles, de l’amélioration des sciences du comportement et des politiques publiques pour améliorer le bien-être social, à la compréhension et à l’influence sur la manière dont les gens adoptent des habitudes alimentaires saines ou des énergies renouvelables. L’IA et l’apprentissage automatique pourraient être utilisés pour reconnaître les vulnérabilités des personnes dans certaines situations et les aider à éviter les mauvais choix.

La méthode peut également être utilisée pour se défendre contre les attaques d’influence. On pourrait apprendre aux machines à nous alerter lorsque nous sommes influencés en ligne, par exemple, et à nous aider à façonner un comportement pour déguiser notre vulnérabilité (par exemple, en ne cliquant pas sur certaines pages ou en cliquant sur d’autres pour tracer une fausse piste).

Et après ?

Comme toute technologie, l’IA peut être utilisée en bien ou en mal, et une bonne gouvernance est cruciale pour garantir sa mise en œuvre de manière responsable. L’année dernière, le CSIRO a développé un cadre d’éthique de l’IA pour le gouvernement australien comme première étape de ce voyage.

L’IA et l’apprentissage automatique sont généralement très gourmands en données, ce qui signifie qu’il est essentiel de nous assurer que nous avons des systèmes efficaces en place pour la gouvernance et l’accès aux données. La mise en œuvre de processus de consentement adéquats et de protection de la vie privée lors de la collecte de données est essentielle.

Les organisations qui utilisent et développent l’IA doivent s’assurer qu’elles savent ce que ces technologies peuvent et ne peuvent pas faire, et qu’elles sont conscientes des risques potentiels ainsi que des avantages. La conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l’ article original .

Du bon au mauvais

En février 2019, la société à but non lucratif OpenAI a créé un programme qui génère du texte pratiquement impossible à distinguer du texte écrit par des personnes. Il peut «écrire» un discours dans le style de John F. Kennedy , JRR Tolkien dans « Le Seigneur des anneaux » ou un étudiant écrivant un devoir scolaire sur la guerre civile américaine .

Le texte généré par le logiciel d’OpenAI est si crédible que l’entreprise a choisi de ne pas publier le programme lui-même.

Des technologies similaires peuvent simuler des photos et des vidéos. Début 2018, par exemple, l’acteur et cinéaste Jordan Peele a créé une vidéo qui semblait montrer l’ancien président américain Barack Obama disant des choses qu’Obama n’avait jamais vraiment dites pour avertir le public des dangers posés par ces technologies.

Une réflexion sur “L’IA peut désormais apprendre à manipuler le comportement humain (vidéo)

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s