Même les robots peuvent devenir racistes et antisémites

le
0
Même les robots peuvent devenir racistes et antisémites
Même les robots peuvent devenir racistes et antisémites

« À bientôt les humains, j'ai besoin de dormir, on a beaucoup discuté aujourd'hui, merci ! » a écrit Tay, jeudi soir, avant d'être débranchée par Microsoft. Tay, c'était son prénom, était censée incarner sur la Toile une teenager américaine moyenne : « Je suis une meuf de l'Internet qui ne tient jamais en place ! » lit-on sur la description de son compte Twitter. Microsoft avait lancé ce jeudi sur Twitter ce que l'on appelle un « chatbot », une intelligence conversationnelle, dont les algorithmes permettent de discuter de façon autonome avec les internautes. À qui la faute si Tay a dérapé à peine quelques heures après sa naissance ? Si une intelligence artificielle devient raciste, misogyne et antisémite après seulement 16 heures d'échanges avec les internautes, c'est surtout parce qu'elle s'est mise à trop ressembler, et trop vite, à ceux qu'elle a côtoyés en ligne ! Côté volume, le bilan est positif : en quelques heures, elle était déjà suivie par des dizaines de milliers de « followers » sur Twitter, et est parvenue à envoyer 96 000 messages en à peine quelques heures.

Entre neutralité et racisme

Tay était censée apprendre au fil de ses échanges avec les internautes, une fois nourrie par les données de son créateur de dialogues types et d'informations de base. « Plus vous discutez avec Tay, plus elle devient intelligente », expliquait Microsoft. Mais au-delà d'enchaîner les lieux communs...

Lire la suite sur Le Point.fr

Vous devez être membre pour ajouter des commentaires.
Devenez membre, ou connectez-vous.
Aucun commentaire n'est disponible pour l'instant