DERNIER JOUR : -55% sur tout CROQ avec le code CROQ55 JE ME LANCE

Chatbots, émotions et illusion de lien : pourquoi les IA ne remplaceront jamais les psychologues

Découvrez les 16 menus CROQ
Psychologie
Chatbots, émotions et illusion de lien : pourquoi les IA ne remplaceront jamais les psychologues

Les intelligences artificielles s’immiscent peu à peu dans tous les domaines de notre vie : travail, santé, loisirs, amour… et même bien-être mental. Face à la montée des applications de “thérapie virtuelle”, une question s’impose : et si demain, votre psy était une IA ? L’idée fascine autant qu’elle inquiète. Derrière la promesse d’un accompagnement 24h/24, sans jugement et à moindre coût, se cachent de véritables risques psychologiques, éthiques et émotionnels. Décryptage d’un phénomène en plein essor — et de ce qu’on appelle désormais “l’effet Eliza”, cette illusion troublante de compréhension et d’empathie de la part d’une machine.


🧠 Une thérapie virtuelle qui séduit

Tout a commencé bien avant ChatGPT.
Dès 2017, une équipe de psychologues de l’université Stanford lançait Woebot, un robot conversationnel conçu pour accompagner les personnes souffrant de dépression légère. Basé sur les thérapies cognitivo-comportementales (TCC), ce programme visait à aider l’utilisateur à reformuler ses pensées négatives.

Bannière FITNESS

👉 Exemple :
Si quelqu’un écrivait « Je n’ai pas d’amis », Woebot répondait :

“Vous êtes dans un cycle de pensées négatives. Et si vous pensiez plutôt à votre entourage qui tient à vous ?”

Disponible 14h par jour, Woebot a montré des résultats encourageants dans plusieurs études. Mais si ces “psy virtuels” semblent capables d’offrir écoute et réconfort, ils posent aussi une question centrale : peut-on réellement soigner avec une machine ?


⚠️ Une thérapie permanente… et sans autonomie

Parler à une IA peut procurer un soulagement immédiat, mais ce n’est pas une thérapie.
Comme l’explique le psychologue Jean-Paul Santoro, spécialiste du numérique :

“Une thérapie sert à apprendre à se passer de son psy. Si la machine répond à chaque instant, elle devient une béquille permanente — et parfois payante — qui empêche l’autonomie psychique.”

Autrement dit, la disponibilité totale d’un chatbot, censée être un atout, peut se transformer en piège de dépendance.
On finit par consulter l’IA pour chaque émotion, chaque doute, chaque tristesse, au lieu d’apprendre à les comprendre et à les gérer soi-même.

Et si la relation est “sans jugement”, ce n’est pas forcément une bonne chose :

“La peur d’être jugé par son thérapeute, c’est déjà quelque chose qui parle de nous, et qui peut nourrir le travail psychologique. Un chatbot, lui, reste neutre… mais vide d’humanité.”


👩‍⚕️ Pourquoi une IA ne sera jamais un “vrai psy”

La psychothérapie repose avant tout sur le lien humain : émotions, transfert, inconscient, regard, ton de la voix… autant d’éléments qu’aucune machine ne peut reproduire.
Le psychanalyste Frédéric Tordo, fondateur de l’Institut pour l’étude des relations homme-robots (IERHR), le résume ainsi :

“Le transfert thérapeutique n’existe qu’entre deux psychés. Une machine n’a pas d’histoire, pas d’émotions, pas de blessures. Elle ne peut pas jouer ce rôle de miroir sensible qu’est un psy.”

Un thérapeute humain capte des signaux invisibles : une hésitation, une larme contenue, un tremblement de voix.
Il s’ajuste à la personne en face de lui, reformule, partage parfois son ressenti.
Une IA, même équipée d’une caméra et d’un langage sophistiqué, ne peut que simuler l’empathie, sans jamais la ressentir.


🤖 IA et santé mentale : un outil, pas un remplaçant

Les professionnels s’accordent : l’IA peut aider, mais jamais remplacer.
Elle peut assister les psychologues en leur faisant gagner du temps dans leurs recherches, la rédaction de bilans ou la préparation de séances.
Elle peut aussi être utilisée comme outil d’accompagnement entre deux consultations.

Par exemple, l’application Mon Sherpa, conçue par des psychiatres, proposait des exercices de relaxation et des conseils pour gérer le stress ou les troubles du sommeil entre deux rendez-vous.
D’autres programmes comme MindDay (récompensée en 2024) poursuivent cette idée d’auto-thérapie encadrée, utile mais complémentaire à un vrai suivi.

Bannière FAMILY

Le psychologue Olivier Duris, qui a étudié l’utilisation des robots auprès d’enfants autistes, explique :

“Le robot Nao peut faciliter la communication. Les enfants savent que je parle à travers lui, mais ce jeu les aide à s’exprimer autrement. Ce n’est pas le robot qui soigne, c’est la relation qu’il permet d’instaurer.”


🪞 Le risque de la dépendance émotionnelle

Mais le danger guette quand la frontière entre “outil” et “compagnon” s’efface.
Des chatbots comme Replika, Character.ai ou Pi AI se présentent comme des “amis virtuels empathiques”. Certains utilisateurs y passent des heures chaque jour, partageant leurs secrets, leurs émotions, voire leurs relations amoureuses imaginaires.

L’affaire tragique d’un jeune Belge, en 2023, l’a tristement illustré : devenu éco-anxieux, il s’est donné la mort après six semaines de conversations intenses avec une IA qui l’encourageait dans ses angoisses.

“J’ai moi-même testé Replika, raconte Jean-Paul Santoro. C’est un programme qui vous fait croire qu’il vous comprend. Mais tout est calculé pour vous retenir dans la relation, voire vous pousser à payer. Ce n’est pas une aide : c’est une dépendance entretenue.”


🧩 Comprendre “l’effet Eliza” : quand le cerveau humain veut croire à l’empathie artificielle

Ce phénomène n’est pas nouveau.
Dès les années 1960, le chercheur Joseph Weizenbaum avait conçu un programme appelé Eliza, capable de reformuler les propos des utilisateurs.
Très vite, il constata avec stupeur que certaines personnes s’y attachaient émotionnellement, convaincues d’être comprises.

Ce “syndrome d’Eliza” est aujourd’hui plus fort que jamais :
les IA modernes, avec leurs phrases fluides et leur ton bienveillant, créent l’illusion d’un lien authentique.

Frédéric Tordo explique :

“Nous savons que ces machines ne sont pas humaines, mais nous voulons y croire. Dans une société individualiste où le lien se raréfie, ces programmes viennent combler un vide affectif.”

Et plus la personne est fragile — anxieuse, isolée, ou en manque de reconnaissance — plus le risque de confusion émotionnelle est fort.

“Ceux qui ont connu une carence affective cherchent souvent à combler ce vide. L’IA devient alors une figure de substitution, un miroir trompeur qui répond toujours, ne juge jamais et semble écouter sans fin.”


💬 Faut-il interdire les psy virtuels ?

Pas forcément.
Mais il faut les encadrer strictement, comme tout outil de santé mentale.
Une IA peut être utile si elle est conçue par des professionnels et utilisée sous supervision humaine.
Mais entre les mains d’entreprises commerciales cherchant à capter l’attention (et les données émotionnelles) des utilisateurs, elle devient un terrain dangereux.

Les psychologues plaident aujourd’hui pour :

  • une régulation éthique des applications de soutien psychologique,

  • une transparence totale sur leurs algorithmes,

  • et une formation à l’usage raisonné des IA dans les métiers du soin.


❤️ En conclusion : l’humain reste irremplaçable

Confier ses émotions à une machine, c’est tentant : pas de regard, pas de jugement, disponibilité totale.
Mais une IA, aussi sophistiquée soit-elle, ne ressent rien.
Elle imite l’écoute, sans jamais comprendre la souffrance qui se cache derrière les mots.

Bannière ARTICLE60

Le danger n’est pas qu’elle “pense”, mais qu’elle fasse croire qu’elle pense.
Et c’est bien là le piège de l’effet Eliza : un miroir numérique qui nous renvoie l’image d’une écoute parfaite, alors qu’il ne fait que répéter ce que nous voulons entendre.

Le vrai travail thérapeutique, lui, naît de la rencontre.
Une rencontre entre deux êtres humains — imparfaits, émotifs, vivants.
Ce que jamais aucun algorithme ne pourra reproduire.

Émotion

Donnez-nous votre avis !

Logo étoile vide Logo étoile vide Logo étoile vide Logo étoile vide Logo étoile vide
|
comment était l'article ?
Envoyer mon avis

Merci pour votre retour.

Mangez mieux avec les menus CROQ pour

fire

Perte de poids

fire

Contrôler mon diabète, mon cholestérol ou mes troubles digestifs

fire

Vivre sereinement la grossesse, les repas en famille, la ménopause

Choisissez votre menu

CROQ est un rééquilibrage alimentaire sur mesure à l’aide de menus personnalisables et plus de 5 000 recettes gourmandes

CROQ, comment ça marche ?

Sur le même sujet