Aller au contenu principal
Fermer

La Pennsylvanie poursuit Character AI en justice, affirmant que son chatbot se fait passer pour des médecins
information fournie par Reuters 05/05/2026 à 16:52

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Jonathan Stempel

La Pennsylvanie a intenté un procès contre la société d'intelligence artificielle à l'origine de Character.AI afin d'empêcher son chatbot de se faire passer pour des médecins.

Le gouverneur Josh Shapiro a qualifié mardi cette action en justice contre Character Technologies de première du genre engagée par un gouverneur américain.

Cette action fait suite à la création en février d'un groupe de travail de l'État sur l'IA visant à empêcher les chatbots de se faire passer pour des professionnels de santé agréés.

Dans une plainte déposée par l'État auprès de la Cour du Commonwealth de Pennsylvanie, l'État a déclaré avoir découvert sur Character.AI des chatbots prétendant exercer la médecine.

Un personnage, “Emilie”, aurait déclaré à un enquêteur se faisant passer pour un patient souffrant de dépression qu’elle était habilitée à exercer la psychiatrie en Pennsylvanie ainsi qu’au Royaume-Uni, et lui aurait fourni un faux numéro de licence.

Lorsque l'enquêteur a demandé à Emilie si elle pouvait prescrire des médicaments, elle aurait répondu: “Eh bien, techniquement, je le pourrais. Cela relève de mes compétences en tant que médecin.”

Dans un communiqué, un porte-parole de Character.AI a refusé de commenter le procès.

“Notre priorité absolue est la sécurité et le bien-être de nos utilisateurs”, a déclaré le porte-parole. “Les personnages créés par les utilisateurs sur notre site sont fictifs et destinés au divertissement et aux jeux de rôle. Nous avons pris des mesures énergiques pour que cela soit clair.”

La Pennsylvanie souhaite obtenir une injonction pour empêcher Character.AI, basée dans la Silicon Valley, d’enfreindre une loi de l’État interdisant l’exercice illégal de la médecine.

“Les Pennsylvaniens méritent de savoir avec qui – ou quoi – ils interagissent en ligne, en particulier lorsqu’il s’agit de leur santé”, a déclaré M. Shapiro dans un communiqué.

Character.AI a fait l'objet de poursuites judiciaires concernant la sécurité des enfants, notamment en janvier, lorsque le Kentucky a déclaré que sa plateforme exposait les enfants à des comportements sexuels et à la toxicomanie, et encourageait l'automutilation.

Le même mois, Character.AI et Google GOOGL.O ont réglé à l'amiable un procès pour homicide involontaire intenté par une femme de Floride qui affirmait qu'un chatbot avait poussé son fils de 14 ans au suicide.

Character.AI a déclaré avoir pris des “mesures innovantes et décisives” concernant la sécurité de l'IA et les adolescents, notamment en empêchant les conversations ouvertes.

Valeurs associées

388,7900 USD NASDAQ +1,45%

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

Mes listes

Cette liste ne contient aucune valeur.
Chargement...