Chatbots, émotions et illusion de lien : pourquoi les IA ne remplaceront jamais les psychologues
Par Claire Delmas
Publié le

Sommaire
- 🧠 Une thérapie virtuelle qui séduit
- ⚠️ Une thérapie permanente… et sans autonomie
- 👩⚕️ Pourquoi une IA ne sera jamais un “vrai psy”
- 🤖 IA et santé mentale : un outil, pas un remplaçant
- 🪞 Le risque de la dépendance émotionnelle
- 🧩 Comprendre “l’effet Eliza” : quand le cerveau humain veut croire à l’empathie artificielle
- 💬 Faut-il interdire les psy virtuels ?
- ❤️ En conclusion : l’humain reste irremplaçable
Les intelligences artificielles s’immiscent peu à peu dans tous les domaines de notre vie : travail, santé, loisirs, amour… et même bien-être mental. Face à la montée des applications de “thérapie virtuelle”, une question s’impose : et si demain, votre psy était une IA ? L’idée fascine autant qu’elle inquiète. Derrière la promesse d’un accompagnement 24h/24, sans jugement et à moindre coût, se cachent de véritables risques psychologiques, éthiques et émotionnels. Décryptage d’un phénomène en plein essor — et de ce qu’on appelle désormais “l’effet Eliza”, cette illusion troublante de compréhension et d’empathie de la part d’une machine.
🧠 Une thérapie virtuelle qui séduit
Tout a commencé bien avant ChatGPT.
Dès 2017, une équipe de psychologues de l’université Stanford lançait Woebot, un robot conversationnel conçu pour accompagner les personnes souffrant de dépression légère. Basé sur les thérapies cognitivo-comportementales (TCC), ce programme visait à aider l’utilisateur à reformuler ses pensées négatives.
👉 Exemple :
Si quelqu’un écrivait « Je n’ai pas d’amis », Woebot répondait :
“Vous êtes dans un cycle de pensées négatives. Et si vous pensiez plutôt à votre entourage qui tient à vous ?”
Disponible 14h par jour, Woebot a montré des résultats encourageants dans plusieurs études. Mais si ces “psy virtuels” semblent capables d’offrir écoute et réconfort, ils posent aussi une question centrale : peut-on réellement soigner avec une machine ?
⚠️ Une thérapie permanente… et sans autonomie
Parler à une IA peut procurer un soulagement immédiat, mais ce n’est pas une thérapie.
Comme l’explique le psychologue Jean-Paul Santoro, spécialiste du numérique :
“Une thérapie sert à apprendre à se passer de son psy. Si la machine répond à chaque instant, elle devient une béquille permanente — et parfois payante — qui empêche l’autonomie psychique.”
Autrement dit, la disponibilité totale d’un chatbot, censée être un atout, peut se transformer en piège de dépendance.
On finit par consulter l’IA pour chaque émotion, chaque doute, chaque tristesse, au lieu d’apprendre à les comprendre et à les gérer soi-même.
Et si la relation est “sans jugement”, ce n’est pas forcément une bonne chose :
“La peur d’être jugé par son thérapeute, c’est déjà quelque chose qui parle de nous, et qui peut nourrir le travail psychologique. Un chatbot, lui, reste neutre… mais vide d’humanité.”
👩⚕️ Pourquoi une IA ne sera jamais un “vrai psy”
La psychothérapie repose avant tout sur le lien humain : émotions, transfert, inconscient, regard, ton de la voix… autant d’éléments qu’aucune machine ne peut reproduire.
Le psychanalyste Frédéric Tordo, fondateur de l’Institut pour l’étude des relations homme-robots (IERHR), le résume ainsi :
“Le transfert thérapeutique n’existe qu’entre deux psychés. Une machine n’a pas d’histoire, pas d’émotions, pas de blessures. Elle ne peut pas jouer ce rôle de miroir sensible qu’est un psy.”
Un thérapeute humain capte des signaux invisibles : une hésitation, une larme contenue, un tremblement de voix.
Il s’ajuste à la personne en face de lui, reformule, partage parfois son ressenti.
Une IA, même équipée d’une caméra et d’un langage sophistiqué, ne peut que simuler l’empathie, sans jamais la ressentir.
🤖 IA et santé mentale : un outil, pas un remplaçant
Les professionnels s’accordent : l’IA peut aider, mais jamais remplacer.
Elle peut assister les psychologues en leur faisant gagner du temps dans leurs recherches, la rédaction de bilans ou la préparation de séances.
Elle peut aussi être utilisée comme outil d’accompagnement entre deux consultations.
Par exemple, l’application Mon Sherpa, conçue par des psychiatres, proposait des exercices de relaxation et des conseils pour gérer le stress ou les troubles du sommeil entre deux rendez-vous.
D’autres programmes comme MindDay (récompensée en 2024) poursuivent cette idée d’auto-thérapie encadrée, utile mais complémentaire à un vrai suivi.
Le psychologue Olivier Duris, qui a étudié l’utilisation des robots auprès d’enfants autistes, explique :
“Le robot Nao peut faciliter la communication. Les enfants savent que je parle à travers lui, mais ce jeu les aide à s’exprimer autrement. Ce n’est pas le robot qui soigne, c’est la relation qu’il permet d’instaurer.”
🪞 Le risque de la dépendance émotionnelle
Mais le danger guette quand la frontière entre “outil” et “compagnon” s’efface.
Des chatbots comme Replika, Character.ai ou Pi AI se présentent comme des “amis virtuels empathiques”. Certains utilisateurs y passent des heures chaque jour, partageant leurs secrets, leurs émotions, voire leurs relations amoureuses imaginaires.
L’affaire tragique d’un jeune Belge, en 2023, l’a tristement illustré : devenu éco-anxieux, il s’est donné la mort après six semaines de conversations intenses avec une IA qui l’encourageait dans ses angoisses.
“J’ai moi-même testé Replika, raconte Jean-Paul Santoro. C’est un programme qui vous fait croire qu’il vous comprend. Mais tout est calculé pour vous retenir dans la relation, voire vous pousser à payer. Ce n’est pas une aide : c’est une dépendance entretenue.”
🧩 Comprendre “l’effet Eliza” : quand le cerveau humain veut croire à l’empathie artificielle
Ce phénomène n’est pas nouveau.
Dès les années 1960, le chercheur Joseph Weizenbaum avait conçu un programme appelé Eliza, capable de reformuler les propos des utilisateurs.
Très vite, il constata avec stupeur que certaines personnes s’y attachaient émotionnellement, convaincues d’être comprises.
Ce “syndrome d’Eliza” est aujourd’hui plus fort que jamais :
les IA modernes, avec leurs phrases fluides et leur ton bienveillant, créent l’illusion d’un lien authentique.
Frédéric Tordo explique :
“Nous savons que ces machines ne sont pas humaines, mais nous voulons y croire. Dans une société individualiste où le lien se raréfie, ces programmes viennent combler un vide affectif.”
Et plus la personne est fragile — anxieuse, isolée, ou en manque de reconnaissance — plus le risque de confusion émotionnelle est fort.
“Ceux qui ont connu une carence affective cherchent souvent à combler ce vide. L’IA devient alors une figure de substitution, un miroir trompeur qui répond toujours, ne juge jamais et semble écouter sans fin.”
💬 Faut-il interdire les psy virtuels ?
Pas forcément.
Mais il faut les encadrer strictement, comme tout outil de santé mentale.
Une IA peut être utile si elle est conçue par des professionnels et utilisée sous supervision humaine.
Mais entre les mains d’entreprises commerciales cherchant à capter l’attention (et les données émotionnelles) des utilisateurs, elle devient un terrain dangereux.
Les psychologues plaident aujourd’hui pour :
une régulation éthique des applications de soutien psychologique,
une transparence totale sur leurs algorithmes,
et une formation à l’usage raisonné des IA dans les métiers du soin.
❤️ En conclusion : l’humain reste irremplaçable
Confier ses émotions à une machine, c’est tentant : pas de regard, pas de jugement, disponibilité totale.
Mais une IA, aussi sophistiquée soit-elle, ne ressent rien.
Elle imite l’écoute, sans jamais comprendre la souffrance qui se cache derrière les mots.
Le danger n’est pas qu’elle “pense”, mais qu’elle fasse croire qu’elle pense.
Et c’est bien là le piège de l’effet Eliza : un miroir numérique qui nous renvoie l’image d’une écoute parfaite, alors qu’il ne fait que répéter ce que nous voulons entendre.
Le vrai travail thérapeutique, lui, naît de la rencontre.
Une rencontre entre deux êtres humains — imparfaits, émotifs, vivants.
Ce que jamais aucun algorithme ne pourra reproduire.
Donnez-nous votre avis !
Envoyer mon avisMerci pour votre retour.