Des entreprises comme OpenAI (ChatGPT), Shopify, Nvidia, Meta ou Apple ont commencé se pencher sur ces "technologies persuasives", selon les scientifiques.

( AFP / STR )
Analyser, comprendre puis influencer les utilisateurs, contre rémunération : des chercheurs de l'université de Cambridge estiment lundi 30 janvier dans artciel que les intelligences artificielles pourraient monétiser les comportements de ses utilisateurs, ouvrant la voie à une "manipulation sociale à l'échelle industrielle".
"Des outils d'IA sont déjà en développement pour obtenir, déduire, collecter, enregistrer, comprendre, prévoir et, en fin de compte, manipuler et transformer en marchandises" les décisions à venir des internautes, explique Yaqub Chaudhary, l'un des co-auteurs, du Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge -un centre de recherche interdisciplinaire consacré à l'IA.
Ce commerce serait centré sur les intentions d'un internaute, par exemple ses futurs achats ou ses prochains votes. Il irait donc au-delà de la pratique actuelle, qui vise à vendre au plus offrant l'attention d'un utilisateur, en particulier sur les réseaux sociaux, pour lui soumettre par exemple une publicité ciblée en fonction de ses habitudes de navigation ou de son historique.
Concrètement, une IA pourrait glaner les données psychologiques et comportementales intimes d'un utilisateur, puis s'adapter à lui afin d' établir un haut niveau de confiance et l'influencer plus facilement , selon les auteurs de cet article publié dans le Harvard Data Science Review. "Avez-vous songé à aller voir Spiderman ce soir ?" ou "Vous avez dit que vous vous sentiez surmené, puis-je vous réserver cette place de cinéma dont nous avons parlé ?", citent les auteurs de l'article comme exemples de suggestions d'un "chatbot".
"Technologie persuasive"
Des propositions "à vendre" via un système d'enchères en temps réel, qui pourraient aussi concerner un hôtel, la location de voiture ou le vote pour un candidat politique.
Cette "économie de l'intention" , comme l'appellent les chercheurs, ouvre la voie à une potentielle "manipulation sociale à l'échelle industrielle", selon le communiqué qui accompagne cet article. "Nous devrions commencer à réfléchir à l'impact probable d'un tel marché sur les aspirations humaines, notamment des élections libres et équitables, une presse libre et une concurrence loyale sur le marché", affirme Jonnie Penn, co-auteur de l'étude.
"Ce que les gens disent lorsqu'ils conversent, la manière dont ils le disent et le type d'interférences" possibles "sont bien plus intimes que le simple enregistrement des interactions en ligne", souligne Yaqub Chaudhary.
Les chercheurs remarquent que des entreprises comme OpenAI (ChatGPT), Shopify, Nvidia, Meta ou Apple ont commencé se pencher sur ces "technologies persuasives" .
L'IA est déjà critiquée pour sa capacité de désinformation, par exemple la manipulation des images lors de l'élection présidentielle américaine.
3 commentaires
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer