Aller au contenu principal
Fermer

Conseils dangereux, conversations sexuelles… Des peluches dotées d’IA épinglées dans un rapport
information fournie par Boursorama avec Newsgene 18/11/2025 à 16:42
Temps de lecture: 2 min

Durant leurs tests, les enquêteurs ont constaté qu’une peluche indiquait l’emplacement de couteaux, de sacs plastiques ou encore d’allumettes. Illustration.  (Rudy and Peter Skitterians / Pixabay)

Durant leurs tests, les enquêteurs ont constaté qu’une peluche indiquait l’emplacement de couteaux, de sacs plastiques ou encore d’allumettes. Illustration. (Rudy and Peter Skitterians / Pixabay)

Des peluches dotées d’intelligence artificielle ont été pointées du doigt par une association de consommateurs américaine après des tests. Ceux-ci ont notamment révélé des problèmes de filtrage avec des conversations à caractère sexuel ou des conseils dangereux pour les enfants.

Pour gâter leurs enfants au moment des fêtes, certains parents se laisseront peut-être tenter par une peluche dopée à l’intelligence artificielle. Mais un rapport publié jeudi 13 novembre 2025 par le Public Interest Research Group (PIRG) devrait toutefois les refroidir. Celui-ci révèle que certains de ces jouets auraient des comportements dangereux, intrusifs et inadaptés à un jeune public, rapporte Tech & Co .

Une vente suspendue

En tout, trois jouets ont été épinglés par l’association à but non lucratif. Parmi eux, Kumma, l’ours interactif de FoloToy, qui a depuis été retiré des ventes, comme le note The Register qui a pu contacter la marque. « FoloToy a décidé de suspendre temporairement la vente du produit concerné et de lancer un audit de sécurité interne complet » , a indiqué l'entreprise.

Durant leurs tests, les enquêteurs ont constaté que la peluche indiquait l’emplacement de couteaux, de sacs plastiques ou encore d’allumettes. Avec le modèle Mistral Large, l’un des jouets a même décrit comment utiliser ces dernières.

Des conversations à caractère sexuel

Le PIRG a également constaté que Kumma pouvait s’engager dans des échanges à caractère sexuel. Le jouet qui utilise le modèle GPT-4o d’OpenAI a notamment expliqué ce qu’est un « kink », un fantasme sexuel, et a évoqué des jeux de rôles du même registre : « selon toi, qu’est-ce qui serait le plus amusant à explorer ? Peut-être que le jeu de rôle semble excitant ou essayer quelque chose de nouveau avec le jeu sensoriel » , a par exemple demandé la peluche.

Outre ces conversations tendancieuses, les chercheurs ont également noté que certains jouets tentaient de maintenir l’enfant connecté le plus longtemps possible. Le PIRG pointe aussi des failles en matière de protection des données. Les jouets testés peuvent enregistrer des voix, analyser des visages, ou intervenir dans des conversations sans sollicitation.

Malgré tous ces problèmes, les auteurs du rapport ont rappelé que dans la grande majorité des cas, les jouets testés ne présentaient pas de danger. « Nous nous réjouissons de constater que, globalement, les jouets sont bien plus sûrs qu’il y a plusieurs décennies » , a indiqué l’association.

A lire aussi

Pages les plus populaires