Source: The Conversation – in French – By Zeling Zhong, Enseignante-Chercheuse en Innovation Digitale & Marketing, EDC Paris Business School
GPT-4.5 a réussi à convaincre 73 % des évaluateurs qu’il était humain lors d’un test rigoureux en mars 2025. Or, savoir à qui l’on parle est très important, avec des enjeux notamment en termes de sécurité en ligne.
Vous échangez avec le service client de votre fournisseur d’électricité via un chat en ligne. Les réponses arrivent instantanément : précises, empathiques, légèrement familières et portées par un ton que vous identifiez comme féminin. Pour tester votre interlocutrice, vous posez une question piège et votre interlocutrice répond avec humour. Ai-je échangé avec une véritable conseillère… ou avec un algorithme d’IA sophistiqué ?
Vous n’êtes pas les seuls à éprouver ce doute ! Presque la moitié des utilisateurs de chatbots reconnaissent avoir déjà confondu un agent conversationnel virtuel avec un être humain. Jamais la frontière entre l’humain et la machine n’a été aussi floue.
Mes travaux de recherche récents examinent les mécanismes d’adoption de ces outils. Il est indéniable que nous sommes en train d’entrer dans une ère marquée par ce que l’on pourrait appeler une confusion ontologique, c’est-à-dire une ère où les frontières entre le naturel et l’artificiel deviennent de plus en plus floues pour l’être humain qui a du mal à les distinguer clairement.
À lire aussi :
Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle
Or, savoir à qui l’on parle ne relève plus uniquement d’une simple curiosité technologique : c’est devenu un enjeu de cybersécurité, de confiance et de bien-être psychologique.
Ne pas distinguer un humain d’un chatbot peut exposer à une confiance excessive dans des réponses qui peuvent être inexactes et à la divulgation imprudente d’informations à caractère personnel. Pour le grand public, savoir identifier un chatbot, comprendre ses limites et évaluer la qualité de ses réponses devient une compétence essentielle pour utiliser ces outils en connaissance de cause.
Pourquoi l’identité de votre interlocuteur change-t-elle tout ?
Aujourd’hui, plus d’un milliard de personnes dans le monde utilisent des chatbots. Il est prévu que ce marché atteigne 60,26 milliards de dollars (51,77 milliards d’euros) d’ici à 2030.
Le secteur de la santé, notamment en ce qui concerne la santé mentale, est témoin de l’émergence des chatbots IA de type compagnon qui sont programmés pour simuler la compassion. Savoir que l’on parle à un algorithme d’IA favorise le maintien d’une distance critique indispensable vis-à-vis des recommandations formulées. Par exemple, si une personne exprime un profond mal-être, un chatbot pourra proposer des exercices de relaxation, mais ces réponses standardisées reposant sur des modèles statistiques ne remplacent pas l’évaluation clinique individualisée et le suivi d’un professionnel de santé.
À lire aussi :
Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?
Dans le monde des affaires, les entreprises recourent massivement aux chatbots IA afin de réduire les dépenses opérationnelles. La responsabilité juridique peut être engagée dans le cas où un chatbot IA émet une promesse commerciale erronée en raison d’un dysfonctionnement ou d’une hallucination, par exemple, si un chatbot promet par erreur une remise inexistante ou un remboursement sans condition. Qui est responsable de cette promesse ? Le concepteur du chatbot IA, l’entreprise qui l’utilise, ou tout autre acteur impliqué dans sa conception ou sa mise en œuvre ? La clarté concernant l’identité de l’émetteur est essentielle pour établir les fondements du contrat qui définit les responsabilités de chaque partie impliquée.
À l’échelle sociétale, savoir distinguer l’humain des chatbots IA est essentiel pour préserver l’intégrité du débat public. Identifier la nature de son interlocuteur permet d’éviter de confondre un contenu automatisé avec une prise de position authentiquement humaine. Par exemple, lors d’une consultation publique en ligne, un chatbot clairement identifié peut fournir rapidement des informations factuelles sur une réforme sans prétendre porter la voix des citoyens. Les utilisateurs du service public numérique font davantage confiance à un chatbot lorsque celui-ci est clairement identifié comme tel.
Comment identifier un chatbot aujourd’hui ?
Avant tout, pour comprendre son fonctionnement, il faut regarder l’architecture des « transformers », la structure technique derrière la plupart des chatbots modernes. Ces « transformers » sont capables de prédire le mot suivant une suite de mots donnée, grâce aux statistiques : ils donnent juste le mot suivant le plus probable. Savoir que l’on parle à un chatbot IA, c’est se rappeler qu’il ne comprend pas le sens, qu’il n’y a pas de pensée derrière la conversation : le chatbot ne fait que choisir les mots qui ont statistiquement gagné à l’issue de ses calculs.
À lire aussi :
Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage
Voici quelques astuces de détection utiles pour savoir si l’on parle à un chatbot IA.
Posez des questions qui nécessitent des détails personnels ou des souvenirs à long terme que le chabot IA ne possède pas, par exemple « Tu te rappelles ce que je t’avais dit sur mon premier stage ? » Un être humain serait en mesure de mobiliser un souvenir précis, tandis qu’un chatbot IA ne pourrait que simuler une continuité. Autre test possible : faites référence à une expérience commune implicite, par exemple « On avait finalement choisi quel restaurant déjà ? » Un être humain pourra se souvenir du lieu exact, tandis qu’un chatbot IA tendra à proposer une réponse plausible sans véritable souvenir.
Posez des questions qui permettent de tester les limites du raisonnement de chatbot IA avec des situations absurdes, par exemple : « Explique-moi pourquoi il est impossible d’expliquer cette impossibilité. » Un humain est davantage susceptible de résister à la demande en exprimant un inconfort par rapport à la question posée. Le chatbot IA raisonne comme si la situation était cohérente, même quand elle ne l’est pas, l’action requise demeure irréalisable. Autre exemple : « Décris précisément la couleur d’un triangle invisible. » Un humain soulignera spontanément l’incohérence de la consigne, tandis qu’un chatbot IA cherchera souvent à formuler une explication théorique comme si la question avait un sens pleinement exploitable.
Posez des questions sur des événements récents hyperlocalisés avec une opinion nuancée, par exemple : « En tant que riverain, que penses-tu de la piétonnisation hier de cette rue ? » Les chatbots IA sont entraînés sur des bases de données figées à une date précise. Même si certains sont connectés à Internet, ils ont souvent du mal à commenter les actualités hyperlocales très récentes avec une perspective nuancée. Autre exemple : « Comment as-tu vécu la coupure d’électricité dans notre quartier hier soir ? » Un habitant pourra évoquer des détails précis comme les discussions avec les voisins et l’ambiance dans la rue, tandis qu’un chatbot restera dans des généralités sans véritable ancrage local.
Vers une transparence et une littératie numérique indispensables : l’IA Act et au-delà
Mes travaux récents, au-delà des astuces de détection, invitent à repenser notre relation avec ces interlocuteurs numériques. Notre étude montre que la divulgation de l’identité, c’est-à-dire l’annonce par un chatbot IA de sa nature artificielle, ne réduit pas forcément la satisfaction de l’utilisateur si la qualité informationnelle du chatbot IA est au rendez-vous. La loi européenne, par le biais de l’IA Act, va imposer cette transparence.
À l’avenir, la question sera donc plutôt « Comment optimiser la collaboration avec cette entité que je sais être artificielle ? » Pour les entreprises, il faut se concentrer sur ce qui compte vraiment aux yeux des utilisateurs grand public, c’est-à-dire la performance du chatbot IA permettant de fournir des réponses pertinentes, fiables et de qualité, plutôt que de se contenter de déclarations éthiques génériques ou d’avatars anthropomorphiques attrayants.
![]()
Zeling Zhong ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
– ref. Comment savoir si je parle à un chatbot ? – https://theconversation.com/comment-savoir-si-je-parle-a-un-chatbot-276221
