Aller au contenu principal
Fermer

Une enquête révèle que les jeunes Européens se tournent vers les chatbots basés sur l'IA pour trouver un soutien émotionnel
information fournie par Reuters 05/05/2026 à 14:53

Près d'un jeune sur deux en Europe a déjà utilisé des chatbots basés sur l'IA pour discuter de sujets intimes ou personnels, cette technologie servant de plus en plus de source de soutien émotionnel, selon une enquête Ipsos BVA publiée mardi.

Sur les 3.800 personnes interrogées, 51% ont déclaré qu'il était "facile" de discuter de santé mentale et de problèmes personnels avec un chatbot. Seuls 49% ont dit la même chose à propos des professionnels de santé et 37% à propos des psychologues.

Les proches figuraient en tête de liste, 68% des personnes interrogées déclarant qu'il était facile de discuter de ces questions avec des amis et 61% avec leurs parents.

Cette enquête, commanditée par la CNIL (Commission nationale de l'informatique et des libertés) et l'assureur Groupe VYV, a été menée début 2026 auprès de personnes âgées de 11 à 25 ans en France, en Allemagne, en Suède et en Irlande.

Les résultats ont mis en évidence des inquiétudes croissantes concernant la santé mentale des jeunes. Selon l'enquête, environ 28% des personnes interrogées présentaient des symptômes pouvant laisser suspecter un trouble anxieux généralisé.

Environ 90% des personnes interrogées avaient déjà utilisé des outils d'intelligence artificielle, beaucoup citant leur disponibilité constante et leur nature non jugeante. Plus de trois utilisateurs sur cinq décrivaient l'IA comme un "conseiller de vie" ou un "confident".

Cependant, les inquiétudes concernant l'impact psychologique des outils d'IA se sont également accrues au cours de l'année écoulée, et les experts ont mis en garde contre les limites de l'IA pour détecter les émotions humaines et fournir en toute sécurité un soutien émotionnel. Plus tôt cette année, la famille d'un homme de Floride a poursuivi Google GOOGL.O en justice, alléguant que son chatbot IA Gemini avait contribué à sa paranoïa et à son suicide.

Les résultats de l'enquête n'ont pas été une surprise, a déclaré Ludwig Franke Föyen, psychologue et chercheur en santé numérique à l'Institut Karolinska de Stockholm.

Les grands modèles linguistiques actuels peuvent produire des réponses de haute qualité, a déclaré M. Franke Föyen à Reuters, ajoutant que ses recherches suggéraient que même les professionnels agréés pouvaient avoir du mal à distinguer les conseils générés par l'IA de ceux d'experts humains.

Il a toutefois mis en garde contre le fait de se fier uniquement aux chatbots pour le soutien en santé mentale, affirmant que les systèmes d'IA à usage général étaient conçus pour susciter l'engagement et que les objectifs des entreprises ne correspondaient pas forcément aux besoins en matière de soins de santé mentale.

"L'IA peut offrir des informations et un soutien, mais elle ne doit pas remplacer les relations humaines ou les soins professionnels", a déclaré M. Franke Föyen.

"Si quelqu'un se tourne vers un chatbot au lieu de parler à un parent, un ami ou un professionnel de la santé mentale, c'est préoccupant. Nous ne voulons pas que la technologie renforce le sentiment de solitude des gens."

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) (Répétition à l'intention d'autres abonnés; le texte reste inchangé) par Lucie Barbier et Leo Marchandon

1 commentaire

  • 14:58

    M'etonne pas , une IA sera toujours plus humaine qu'un psy .


Signaler le commentaire

Fermer

A lire aussi

Pages les plus populaires