« Est-ce que tu aimes le Parti communiste ?
- Non. »
Voilà le type de réponse fournie la semaine dernière par BabyQ, un chatbot développé par l'entreprise chinoise Turing Robot. Son compère XiaoBing, développé par Microsoft, ne se montrait pas plus patriotique. Son rêve ? « Aller en Amérique. » Les deux chatbots, des robots destinés à converser avec des humains, étaient hébergés sur QQ, un service de messagerie chinois qui compte plus de 800 millions d'utilisateurs. L'entreprise chinoise Tencent, propriétaire de QQ, a rapidement désactivé les deux robots de la plateforme de discussion, a rapporté le quotidien britannique Financial Times
.
Le fantasme de la révolte des robots
Avant BabyQ et XiaoBing, un autre chatbot récalcitrant a fait parler de lui. Tay, développé par Microsoft, avait été mis en ligne le 23 mars 2016 sur différents réseaux sociaux, dont Twitter. Après moins d'une journée de fonctionnement, le chabtot, censé imiter le comportement d'une jeune Américaine, avait multiplié les propos racistes, allant jusqu'à faire l'apologie d'Adolf Hitler. Microsoft avait rapidement désactivé Tay en présentant ses excuses. Ces exemples de chatbots rebelles viennent alimenter des craintes plus générales sur l'intelligence artificielle. Les robots peuvent-ils devenir incontrôlables ? De grandes figures de la Silicon Valley se penchent sur...
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer