Source: The Conversation – in French – By Fabrice Lollia, Docteur en sciences de l’information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
Si les adolescents se sont longtemps épanchés dans des journaux intimes, sur des blogs, ou dans des conversations entre amis, ils n’hésitent pas aujourd’hui à se confier à des intelligences artificielles. Une pratique à prendre en compte pour mieux en prévenir les risques.
Les grands modèles de langage comme ChatGPT et des plateformes spécialisées telles que Replika – où l’on peut personnaliser une IA en lui attribuant même un prénom, une voix – s’imposent peu à peu comme des confidents dans l’univers des adolescents. Toujours disponibles, capables de répondre sans jugement et de donner l’illusion d’une écoute attentive, ils séduisent des jeunes en quête de réconfort ou de conseils.
Cette apparente bienveillance n’est pas sans risques : dépendance affective, exposition à des réponses inadaptées, voire dangereuses, et fragilisation de la confidentialité des données personnelles.
Ce phénomène, encore largement sous-estimé, révèle l’émergence d’une nouvelle vulnérabilité qui appelle à une vigilance accrue. Comment comprendre que l’expression de l’intimité adolescente glisse vers ces dispositifs algorithmiques ? Et quelles en sont les implications communicationnelles, psychosociales et éthiques ?
Du journal intime au chatbot : mutation du support de la confidence
La confidence adolescente, longtemps inscrite dans le registre du journal intime, de l’échange entre amis, ou avec des adultes de confiance, migre aujourd’hui vers des artefacts techniques. On observe ici une forme de relation parasociale inversée où le chatbot donne l’illusion d’une réciprocité et d’une écoute bienveillante alors que ces réponses reposent uniquement sur des logiques algorithmiques.
Selon une enquête de Common Sens Media, près de 72 % des adolescents aux États-Unis ont déjà utilisé un « compagnon IA ». Plus de la moitié (52 %) en sont des usagers réguliers et 13 % en font un usage quotidien. Le divertissement (30 %) et la curiosité (28 %) dominent, mais une part significative touche à l’intime, la recherche de conseil (14 %) et surtout la capacité de confier l’indicible (12 %), c’est-à-dire ce qu’ils n’oseraient pas partager à leur entourage humain.
Ces données témoignent d’une omniprésence devenue presque invisible dans la vie quotidienne. Une étude récente confirme cette tendance en France. Elle révèle que 80 % des jeunes utilisent déjà l’intelligence artificielle dans leur quotidien, même si 93 % affirment qu’elle ne pourra jamais remplacer les interactions humaines.
Près d’un jeune sur cinq a testé des IA conversationnelles comme Character.Ai ou le chatbot MyAI de Snapchat. Ces dispositifs sont principalement utilisés comme « compagnons virtuels » (28 %) ou comme « coachs psychologiques » (16 %). Pour beaucoup d’adolescents, ils apparaissent comme un remède ponctuel à la solitude (35 %) ou à l’ennui (41 %).
Si les chiffres de l’étude indiquent que près de 75 % des adolescents ont déjà interagi avec un « compagnon virtuel IA », que ce soit pour discuter, pour flirter ou pour chercher un soutien émotionnel, ces usages relèvent de trois grandes fonctions :
-
la régulation émotionnelle (extérioriser l’anxiété, verbaliser ses doutes) ;
-
l’orientation pratique et intime (relations amoureuses, sexualité, conflits familiaux) ;
-
l’externalisation de soi (journalisation numérique, conversation sans jugement).
Ces pratiques concernent surtout les digital natives fortement connectés, mais aussi les adolescents qui hésitent à se confier à leurs proches. Par ailleurs, un sondage Odoxa signale que les plus jeunes font davantage confiance aux IA tandis que les plus âgés expriment une certaine vigilance.
On retrouve ici une logique classique décrite en sciences de l’information et de la communication où la technologie occupe l’espace laissé vacant par une communication interpersonnelle jugée insatisfaisante.
Des risques pluriels
Tout d’abord, il est démontré que certains adolescents développent de véritables attachements amoureux à l’IA, ce qui peut remodeler leurs attentes relationnelles et, donc, met en avant le risque affectif.
Le risque social est également à considérer dans la mesure où le recours massif aux chatbots peut isoler, habituant à ne plus accepter la contradiction due à l’entrée dans des bulles de filtres confirmant les affirmations.
Ensuite, les recherches ont montré que les LLM produisent parfois des réponses biaisées ou erronées appelées « hallucinations », ce qui renforce les risques de mauvaises orientations.
La médiatisation de cas impliquant des incitations à la violence ou au suicide par des chatbots souligne les risques critiques liés à ces technologies. Ces épisodes montrent que l’interaction avec une IA conversationnelle peut devenir un facteur aggravant pour des publics vulnérables et, notamment, pour les mineurs et pour les personnes atteintes de troubles psychiques sévères.
De plus, les confidences partagées exposent à des enjeux de vie privée et de traçabilité numérique, problématiques accentuées par l’âge et par la méconnaissance des conditions d’usage alimentant ainsi le risque informationnel.
Les adolescents exposent désormais leur intimité à des dispositifs algorithmiques conçus par des acteurs privés dont la finalité n’est pas l’accompagnement psychologique, mais la captation et la valorisation de données. La recherche montre que la mémoire numérique est toujours orientée dans la mesure où elle conserve, filtre et reconfigure les traces. En l’espèce, elle archive et met en forme la subjectivité adolescente, ce qui interroge profondément la construction identitaire et relationnelle des jeunes.
Face à ce constat, l’interdiction pure et simple apparaît illusoire. Trois pistes d’action semblent plus pertinentes :
-
un encadrement technique visant à intégrer des garde-fous spécifiques pour mineurs (redirection vers des ressources humaines, modérations renforcées) ;
-
une éducation à la communication permettant d’apprendre à décoder et à contextualiser ces usages à destination des jeunes, des enseignants et des parents ;
-
une gouvernance partagée associant familles, enseignants, institutions de santé et plateformes pour co-construire des normes adaptées.
Vers une intimité sous influence
Le recours massif aux intelligences artificielles met en jeu non seulement le développement psychologique des jeunes, mais aussi la reconfiguration des régimes de confiance de nos sociétés. L’authenticité de la relation humaine cède le pas à une forme de relation parasociale artificielle façonnée par des logiques techniques et économiques.
Face à ce basculement, trois chantiers apparaissent incontournables :
-
le chantier scientifique afin de documenter rigoureusement l’ampleur et l’effet de ces usages ;
-
le chantier pédagogique afin de doter les jeunes d’une littératie émotionnelle et numérique adaptée
-
le chantier politique pour encadrer les pratiques des plates-formes et préserver les droits des mineurs.
La question n’est donc pas de savoir si les adolescents vont continuer à se confier aux IA (c’est déjà le cas) mais plutôt de déterminer dans quelles conditions cette confidence peut être entendue sans devenir un risque majeur pour leur autonomie et leur santé psychique.
![]()
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
– ref. Les adolescents confient-ils désormais leurs secrets aux intelligences artificielles ? – https://theconversation.com/les-adolescents-confient-ils-desormais-leurs-secrets-aux-intelligences-artificielles-266004
