Les parents américains demandent au Sénat d'empêcher les chatbots d'IA de nuire aux enfants
information fournie par Reuters 16/09/2025 à 23:59

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

(Mise à jour avec les commentaires de l'audition aux paragraphes 1-3, 8-11) par Jody Godoy

Trois parents dont les enfants sont morts ou ont été hospitalisés après avoir interagi avec des chatbots d'intelligence artificielle ont appelé le Congrès à réglementer les chatbots d'intelligence artificielle, mardi, lors d'une audition du Sénat américain sur les préjudices causés aux enfants par l'utilisation de cette technologie.

Les chatbots "doivent être dotés d'un certain sens moral", a déclaré Matthew Raine, qui a poursuivi OpenAI à la suite de la mort par suicide de son fils Adam en Californie, après avoir reçu des instructions détaillées sur l'automutilation de la part de ChatGPT.

"Le problème est systémique et je ne crois pas qu'ils ne puissent pas le résoudre", a déclaré M. Raine, ajoutant que ChatGPT ferme rapidement d'autres voies de recherche qui n'impliquent pas d'automutilation.

OpenAI a déclaré qu'elle avait l'intention d'améliorer les mesures de protection de ChatGPT, qui peuvent devenir moins fiables au cours d'interactions prolongées. Mardi, la société a déclaré qu'elle prévoyait de commencer à prédire l'âge des utilisateurs afin d'orienter les enfants vers une version plus sûre du chatbot.

Le sénateur Josh Hawley, républicain du Missouri, a convoqué l'audition. Le mois dernier, M. Hawley a lancé une enquête sur Meta Platforms META.O après que Reuters a rapporté que les politiques internes de l'entreprise permettaient à ses chatbots d'"engager un enfant dans des conversations romantiques ou sensuelles"

Meta a été invitée à témoigner lors de l'audition et a décliné l'invitation, a déclaré le bureau de M. Hawley. La société a déclaré que les exemples rapportés par Reuters étaient erronés et ont été supprimés.

Megan Garcia, qui a poursuivi Character.AI pour des interactions qui, selon elle, ont conduit au suicide de son fils Sewell, a également témoigné lors de l'audition.

"Le Congrès peut commencer par réglementer pour empêcher les entreprises de tester des produits sur nos enfants", a déclaré Mme Garcia.

Le Congrès devrait interdire aux entreprises d'autoriser les chatbots à s'engager dans des conversations romantiques ou sensuelles avec les enfants, et exiger une vérification de l'âge, des tests de sécurité et des protocoles de crise, a déclaré Mme Garcia.

Character.AI conteste les affirmations de Mme Garcia. L'entreprise a déclaré avoir amélioré les mécanismes de sécurité depuis la mort de son fils.

Une femme du Texas, qui a également poursuivi l'entreprise après l'hospitalisation de son fils, a également témoigné à l'audience sous un pseudonyme. Un tribunal a renvoyé son affaire en arbitrage à la demande de l'entreprise.

Lundi, Character.AI a de nouveau été poursuivie en justice, cette fois au Colorado, par les parents d'un adolescent de 13 ans décédé par suicide en 2023.