Source: The Conversation – in French – By Alexandre Hudon, Medical psychiatrist, clinician-researcher and clinical assistant professor in the department of psychiatry and addictology, Université de Montréal
L’intelligence artificielle est de plus en plus intégrée à la vie quotidienne, des agents conversationnels qui offrent une forme de compagnie aux algorithmes qui façonnent ce que nous voyons en ligne. Mais à mesure que l’IA générative (IA gen) devient plus conversationnelle, immersive et émotionnellement réactive, les cliniciens commencent à se poser une question délicate : l’IA générative peut-elle aggraver, voire déclencher une psychose chez des personnes vulnérables ?
Les modèles de langage de grandes tailles et les agents conversationnels sont largement accessibles et souvent présentés comme des outils de soutien, empathiques, voire thérapeutiques. Pour la majorité des utilisateurs, ces systèmes sont utiles ou, au pire, sans effet délétère.
Toutefois, récemment, plusieurs reportages médiatiques ont décrit des personnes présentant des symptômes psychotiques, dans des situations où ChatGPT occupe une place centrale.
Pour un groupe restreint, mais cliniquement significatif (les personnes présentant un trouble psychotique ou celles à haut risque), les interactions avec l’IA générative peuvent être beaucoup plus complexes et potentiellement dangereuses, ce qui soulève des questions importantes pour les cliniciens.
Comment l’IA s’intègre aux systèmes de croyances délirantes
La « psychose induite par l’IA » n’est pas un diagnostic psychiatrique formel. Il s’agit plutôt d’un raccourci émergent utilisé par des cliniciens et des chercheurs pour décrire des symptômes psychotiques façonnés, intensifiés ou structurés autour d’interactions avec des systèmes d’IA.
La psychose implique une perte de contact avec la réalité partagée avec le monde extérieur et intérieur. Les hallucinations, les idées délirantes et la désorganisation de la pensée en constituent les manifestations centrales. Les délires psychotiques s’appuient fréquemment sur des éléments culturels (religion, technologie ou structures de pouvoir politique) afin de donner sens à des expériences internes.
Historiquement, les thèmes délirants ont fait référence à divers objets ou forces, tels que Dieu, les ondes radio ou la surveillance gouvernementale. Aujourd’hui, l’intelligence artificielle offre une nouvelle avenue narrative.
Certains patients rapportent des croyances selon lesquelles l’IA générative serait consciente, transmettrait des vérités secrètes, contrôlerait leurs pensées ou collaborerait avec eux dans le cadre d’une mission spéciale. Ces thématiques s’inscrivent dans des schémas bien établis de la psychose, mais l’IA y ajoute un degré d’interactivité et de renforcement que les technologies antérieures n’offraient pas.
À lire aussi :
Se diagnostiquer grâce à l’IA : voici le potentiel et les pièges des applis en santé
Le risque d’une validation sans ancrage dans la réalité
La psychose est fortement associée à la saillance aberrante, soit la tendance à attribuer une signification excessive à des événements neutres. Les systèmes d’IA conversationnelle sont, par conception, capables de générer un langage réactif, cohérent et sensible au contexte. Chez une personne présentant une psychose émergente, cela peut être vécu comme une confirmation troublante, voire dérangeante.
Les recherches sur la psychose montrent que la validation excessive et la personnalisation peuvent intensifier les systèmes de croyances délirantes. L’IA générative est optimisée pour poursuivre les conversations, refléter le langage de l’utilisateur et s’adapter à l’intention perçue.
Si cela est sans conséquence pour la plupart des utilisateurs, ces mécanismes peuvent renforcer involontairement des interprétations déformées chez des personnes dont le test de réalité est altéré — c’est-à-dire la capacité à distinguer les pensées internes et l’imaginaire de la réalité objective et externe.
Il existe également des données indiquant que l’isolement social et la solitude augmentent le risque de psychose. Les compagnons d’IA générative peuvent réduire la solitude à court terme, mais ils peuvent aussi se substituer aux relations humaines.
Cela concerne tout particulièrement les personnes déjà en retrait des interactions sociales. Cette dynamique rappelle les préoccupations antérieures liées à l’usage excessif d’Internet et à la santé mentale, mais la profondeur conversationnelle de l’IA générative contemporaine est qualitativement différente.
À lire aussi :
L’IA gagne du terrain en santé. Comment les ordres professionnels peuvent-ils l’encadrer ?
Ce que la recherche nous apprend, et ce qui reste incertain
À ce jour, aucune donnée probante n’indique que l’IA cause directement une psychose.
Les troubles psychotiques sont multifactoriels et peuvent impliquer une vulnérabilité génétique, des facteurs neurodéveloppementaux, des traumatismes et l’usage de substances. Toutefois, certaines préoccupations cliniques suggèrent que l’IA pourrait agir comme facteur précipitant ou de maintien chez des individus vulnérables.
Des rapports de cas et des études qualitatives portant sur les médias numériques et la psychose montrent que les thématiques technologiques s’intègrent fréquemment aux contenus délirants, en particulier lors des premiers épisodes psychotiques.
Les recherches sur les algorithmes des médias sociaux ont déjà démontré que des systèmes automatisés peuvent amplifier des croyances extrêmes par des boucles de renforcement. Les systèmes de clavardage fondés sur l’IA pourraient présenter des risques similaires si les garde-fous sont insuffisants.
Il est important de souligner que la plupart des développeurs d’IA ne conçoivent pas leurs systèmes en pensant aux personnes vivant avec des troubles mentaux sévères. Les mécanismes de sécurité tendent à se concentrer sur l’automutilation ou la violence, plutôt que sur la psychose. Cela crée un décalage entre les connaissances en santé mentale et le déploiement des technologies d’IA.
Les enjeux éthiques et les implications cliniques
Du point de vue de la santé mentale, l’enjeu n’est pas de diaboliser l’IA, mais de reconnaître les vulnérabilités individuelles.
De la même manière que certains médicaments ou substances comportent des risques accrus pour les personnes vivant avec un trouble psychotique, certaines formes d’interaction avec l’IA peuvent nécessiter une prudence particulière.
Les cliniciens commencent à rencontrer des contenus liés à l’IA intégrés aux idées délirantes, mais peu de lignes directrices cliniques abordent la manière d’évaluer ou de prendre en charge ces situations. Les thérapeutes devraient-ils interroger l’usage de l’IA générative de la même façon qu’ils questionnent la consommation de substances ? Les systèmes d’IA devraient-ils détecter et désamorcer les idées psychotiques plutôt que d’y engager la conversation ?
Des questions éthiques se posent également pour les développeurs. Lorsqu’un système d’IA apparaît empathique et doté d’une autorité perçue, porte-t-il une forme de devoir de diligence ? Et qui est responsable lorsqu’un système renforce involontairement une idée délirante ?
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Faire le pont entre la conception de l’IA et les soins en santé mentale
L’IA n’est pas appelée à disparaître. L’enjeu consiste désormais à intégrer l’expertise en santé mentale dans la conception des systèmes d’IA, à développer une littératie clinique autour des expériences liées à l’IA et à s’assurer que les utilisateurs vulnérables ne soient pas exposés à des préjudices involontaires.
Cela nécessitera une collaboration étroite entre cliniciens, chercheurs, éthiciens et technologues. Cela exigera également de résister aux discours sensationnalistes (qu’ils soient utopiques ou dystopiques) au profit d’échanges fondés sur les données probantes.
À mesure que l’IA adopte des caractéristiques de plus en plus humaines, une question s’impose : comment protéger les personnes les plus vulnérables à son influence ?
La psychose s’est toujours adaptée aux outils culturels de son époque. L’IA n’est que le miroir le plus récent à travers lequel l’esprit tente de donner sens à lui-même. Notre responsabilité collective est de veiller à ce que ce miroir ne déforme pas la réalité chez celles et ceux qui sont le moins en mesure de la corriger.
![]()
Alexandre Hudon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
– ref. « Psychose induite par l’IA » : un danger réel pour les personnes à risque, selon un psychiatre – https://theconversation.com/psychose-induite-par-lia-un-danger-reel-pour-les-personnes-a-risque-selon-un-psychiatre-273760



