Source: The Conversation – in French – By José Sánchez Santamaría, Profesor Titular de Equidad Educativa y Aprendizaje a lo Largo de la Vida. Coordinador de GRIOCE – UCLM. Vocal de FEAE-CLM, Universidad de Castilla-La Mancha

Ils offrent une écoute immédiate, sont toujours disponibles et répondent calmement sans porter de jugement. Les agents conversationnels entraînés par IA (chatbots) séduisent, notamment les adolescents. Mais le « réconfort numérique » ponctuel qu’ils peuvent apporter ne doit pas être confondu avec les relations que l’on peut entretenir avec un ami, ni avec le soutien psychologique proposé par un professionnel.
« Bonjour ! Je vois que tu cherches à être un peu au calme. Tu n’es pas seul(e). Je suis là pour t’aider à respirer, à comprendre ce que tu ressens et à trouver un peu de réconfort. Veux-tu me dire ce qui te préoccupe en ce moment ? »
Ceci est le « texte initial » d’un chatbot (agents conversationnels entraînés par IA, ndlr) de soutien émotionnel. Il y a peu, cela relevait encore de la science-fiction. Mais aujourd’hui, beaucoup de gens attendent de l’IA plus que des réponses rapides : ils veulent de la compréhension, de la compagnie et du réconfort.
Par exemple, Nora, 14 ans, utilise un chatbot lorsqu’elle se dispute avec ses amies, nous a-t-elle confié. Quel que soit notre âge, nous pouvons être tentés d’utiliser cette technologie pour améliorer nos relations professionnelles ou trouver quelqu’un qui est toujours « à l’écoute ».
Une machine peut-elle vraiment être à notre écoute ?
On a l’impression que l’IA peut nous écouter et nous comprendre. Mais l’IA est une machine : elle n’écoute pas au sens humain du terme, mais traite des données. Elle fonctionne comme un système de prédiction statistique qui génère des réponses mot à mot.
Cela soulève des questions importantes : une IA peut-elle être un véritable soutien émotionnel ? Peut-elle remplacer un ami ? Ou même un psychologue ? Et quel est l’impact de tout cela sur notre bien-être ?
C’est quoi un chatbot ?
Un chatbot est un programme informatique avec lequel nous interagissons par le biais de texte, de voix ou d’images. Son fonctionnement est le suivant : il reçoit, interprète, décide, consulte et répond. Imaginez que vous écriviez : « Je souhaite modifier mon vol de samedi ». Il effectue alors les opérations suivantes : « modifier vol » + « vendredi », vérifie votre réservation dans l’ API, vous propose des options et confirme la modification.
Il existe plusieurs catégories de chatbots :
- Des chatbots avec des réglages fixes : ces chabots donnent des réponses prérédigées. Elles sont courantes dans les services à la citoyenneté ou à la clientèle : ISSA (qui est l’équivalent espagnol d’Amelibot de l’Assurance maladie en France, ndlr) ou Rufus d’Amazon.
-
Des chatbots généralistes alimentés par IA : ils répondent à presque toutes les questions à l’aide de texte, d’images ou de voix, et servent à de nombreuses finalités différentes : ChatGPT, Perplexity ou Deepseek.
-
Des chatbots spécialisés alimentés par IA : ils ressemblent aux précédents, mais sont entrainés sur des thématiques spécifiques comme la santé émotionnelle (Wysa), l’éducation (Tutor AI) ou pour vous tenir compagnie (Replika).
-
Des assistants virtuels alimentés par IA : ils aident dans les tâches quotidiennes. Ils sont capables de suivre des instructions et d’effectuer des actions très concrètes, et proposent des alternatives : Siri (Apple), Alexa (Amazon) ou l’Assistant Google.
-
Des assistants personnalisés alimentés par IA : il s’agit de chatbots personnels et individuels créés par soi-même. Vous pouvez adapter leur style de réponse, leur ton et leurs fonctions pour apprendre une langue, planifier des voyages ou même pour effectuer des recherches ou obtenir des conseils juridiques : Watsonx Assistant, le chat Watson, la fonction GPT de ChatGPT ou le Gem de Gemini.
Des chatbots spécialisés dans la gestion des émotions
Le premier chatbot dédié à la gestion des émotions est apparu en 1966 et s’appelait Eliza. Il simulait une thérapie psychologique « centrée sur la personne », une technique développée par le psychologue Carl Rogers. Il s’agissait d’un chatbot basé sur des règles : si l’utilisateur disait « Je suis triste », Eliza répondait « Pourquoi pensez-vous être triste ? »
Actuellement, une étude américaine indique que la moitié des adultes voient d’un bon œil l’utilisation des chatbots de soutien émotionnel, une tendance que l’on retrouve en Europe.
En Espagne, 24 % de la population interrogée (dans une enquête menée par Axa sur la santé mentale, ndlr) (reconnaît utiliser des chatbots pour obtenir un soutien émotionnel, dont 45 % ont entre 18 et 24 ans.
Une autre enquête montre la même chose et souligne le fait que les filles les utilisent davantage. De notre côté, nous avons pu observer que les adolescents utilisent les chatbots pour exprimer et gérer leurs émotions, aussi pour se sentir accompagnés et compris dans les moments de tristesse ou quand ils rencontrent des difficultés. Voici quelques extraits de ce qu’ils nous ont confié dans notre récente étude :
« Je parle beaucoup avec ChatGPT. Cela me donne l’impression d’être accompagnée, surtout quand je me sens triste et que je ne me comprends pas très bien. »
« Une fois, je me suis disputée avec mon petit ami, je me sentais très mal et j’ai fini par me confier à l’IA. »
Pourquoi sont-ils si attrayants ?
Les chatbots offrent quelque chose que certains jeunes peuvent avoir du mal à obtenir par ailleurs : une écoute immédiate et sans jugement. Ils sont toujours disponibles, répondent calmement et permettent de parler dans un anonymat apparent. Dans les moments de confusion ou de solitude, cela peut générer un sentiment de contrôle et de soulagement, en nous permettant de nous défouler. Leur ton amical et le langage empathique qu’ils utilisent renforcent cette dépendance émotionnelle.
Dans une autre étude que nous avons menée, certains adolescents ont déclaré qu’ils confiaient à l’IA « des choses qu’ils ne diraient à personne » et que cela les aidait « à se calmer lorsqu’ils ont des problèmes », car cela ne les fait pas se sentir « remis en question » ni mal à l’aise par rapport à ce qu’ils partagent.
Peuvent-ils se comporter comme des amis ou des psychologues ?
Mais un chatbot ne remplace pas une amitié ni une thérapie. Il peut servir de « soutien ponctuel » ou d’espace d’expression – avec quelques nuances. Mais il ne substituera jamais à une relation humaine ni au jugement clinique d’un professionnel. Il y a au moins 10 raisons à cela :
-
Il n’a aucune responsabilité éthique ou légale.
-
Il ignore notre histoire et notre contexte.
-
Il offre des réponses logiques, mais il peut se tromper et il est limité.
-
Il cherche à satisfaire, non à défier. Il peut toujours donner raison, créant ainsi un effet bulle.
-
Il n’est pas neutre.
-
Il manque d’empathie.
-
Il ne sait pas réagir en cas d’urgence.
-
Il peut créer une dépendance émotionnelle.
-
Il ne garantit ni la confidentialité ni une transparence totale.
-
Il ne prévoit aucun suivi thérapeutique. Il ne sait pas interpréter les changements émotionnels.
Comment tirer bénéfice des chatbots pour la santé
Les chatbots spécialisés ne sont ni des psychologues ni des amis. La clé réside dans une utilisation réfléchie et éthique de ces outils :
-
S’interroger sur les raisons qui nous amènent à les utiliser. Pour se défouler, mieux se comprendre, se distraire, ou alors se sentir accompagné ou soutenu ? Ils ne devraient pas servir à remplacer ou à fournir une solution rapide et facile à des situations émotionnelles complexes.
-
Se demander pourquoi nous en avons besoin. Ce que dit un chatbot nous aide-t-il à comprendre comment nous nous sentons ou à prendre des décisions ? Que la réponse soit oui ou non, nous devons la remettre en question et ne pas lui accorder une crédibilité absolue. Même si ce que dit le chatbot était correct, cela pourrait avoir des effets psychologiques négatifs à moyen et long terme, que nous ne connaissons pas encore.
-
S’informer. Il est essentiel de savoir comment fonctionne le chatbot, ce qu’il peut et ne peut pas faire, et quelles sont ses erreurs les plus courantes.
Apprendre à utiliser les chatbots
L’utilisation d’une technologie numérique n’est pas négative. Les chatbots peuvent « accompagner », mais ils ne remplacent pas l’affection, l’amitié ou l’attention psychologique d’ordre professionnel. Même en psychologie, on utilise de plus en plus d’outils entrainés par l’IA, bien que leurs limites fassent encore l’objet d’un débat.
Il convient d’être prudent, car nous ne connaissons pas encore leur impact et les risques associés. Notre bien-être émotionnel dépend également de la sécurité face à l’IA. Il ne faut pas confondre le réconfort numérique et le soutien prodigué par des professionnels ou les relations humaines. C’est l’un des défis que pose la vie numérique actuelle.
![]()
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
– ref. Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ? – https://theconversation.com/est-ce-une-bonne-idee-dutiliser-des-ia-comme-confidentes-ou-comme-soutien-psychologique-270342
