Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40 000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

Les robots dérapent, mais c'est l'homme qui est responsable
information fournie par Le Point 09/08/2017 à 18:14

« Est-ce que tu aimes le Parti communiste ?

- Non. »

Voilà le type de réponse fournie la semaine dernière par BabyQ, un chatbot développé par l'entreprise chinoise Turing Robot. Son compère XiaoBing, développé par Microsoft, ne se montrait pas plus patriotique. Son rêve ? « Aller en Amérique. » Les deux chatbots, des robots destinés à converser avec des humains, étaient hébergés sur QQ, un service de messagerie chinois qui compte plus de 800 millions d'utilisateurs. L'entreprise chinoise Tencent, propriétaire de QQ, a rapidement désactivé les deux robots de la plateforme de discussion, a rapporté le quotidien britannique Financial Times

.

Le fantasme de la révolte des robots

Avant BabyQ et XiaoBing, un autre chatbot récalcitrant a fait parler de lui. Tay, développé par Microsoft, avait été mis en ligne le 23 mars 2016 sur différents réseaux sociaux, dont Twitter. Après moins d'une journée de fonctionnement, le chabtot, censé imiter le comportement d'une jeune Américaine, avait multiplié les propos racistes, allant jusqu'à faire l'apologie d'Adolf Hitler. Microsoft avait rapidement désactivé Tay en présentant ses excuses. Ces exemples de chatbots rebelles viennent alimenter des craintes plus générales sur l'intelligence artificielle. Les robots peuvent-ils devenir incontrôlables ? De grandes figures de la Silicon Valley se penchent sur...

0 commentaire

Signaler le commentaire

Fermer