Source: The Conversation – France (in French) – By Youssef Souak, PhD – Assistant Professeur- INSEEC Business School, INSEEC Grande École

Utilisée dans un cadre professionnel, l’IA est souvent perçue comme un simple outil. Son usage peut pourtant avoir un impact sur la façon dont les individus construisent leur identité au travail. Les jeunes professionnels sont particulièrement exposés et pourraient rencontrer à terme des difficultés à reconnaître qui ils sont vraiment.
Votre CV est rédigé par ChatGPT. Votre profil LinkedIn, peaufiné par un algorithme. Vos mails professionnels sont corrigés en temps réel. Les conséquences de l’usage de l’intelligence artificielle (IA) dans un cadre professionnel ne se limitent pas à un gain de temps et d’efficacité. C’est votre identité professionnelle qui est en train de se redéfinir. Silencieusement. Profondément.
Il vaudrait mieux que ce ne soit pas à votre insu.
Être ou ne pas être authentique
Imaginez deux candidats à un même poste. L’un a rédigé sa lettre de motivation à la main, laborieusement, avec ses propres mots. L’autre a utilisé un assistant d’IA générative pour structurer, affiner et polir son discours en quelques minutes. Lequel est le plus compétent ? Lequel est le plus authentique ? Et surtout, lequel est le plus vraiment lui-même ?
Ces questions émergent aujourd’hui au cœur du marché du travail. De plus en plus, elles seront au centre du monde professionnel.
À lire aussi :
Salariés, chefs d’entreprises : l’IA va tout changer, profitez-en !
« L’intelligence artificielle générative (IA générative) est une catégorie d’IA qui se concentre sur la création de données, de contenus ou de choses artistiques, de façon indépendante. Elle diffère de l’IA classique, qui se concentre, quant à elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA générative vise à produire de nouvelles données qui ressemblent à celles créées par des êtres humains, que ce soit sous forme de textes, d’images ou encore de musique, par exemple»,
indique un article publié par Big média.
L’essor fulgurant des outils d’IA générative (Lechat, ChatGPT, Copilot, Claude…) transforme non seulement la manière dont nous travaillons, mais aussi la manière dont nous nous présentons, dont nous évaluons nos compétences, et dont nous construisons notre identité professionnelle.
C’est ce que révèle une étude qualitative menée auprès d’étudiants en alternance et de professionnels en activité dans des secteurs variés. À travers vingt-cinq entretiens approfondis, une double tension est apparue avec une fréquence remarquable : l’IA comme levier de professionnalisation… et l’IA comme source d’interrogation sur soi.
Qui parle ?
L’identité professionnelle n’est pas un fait donné. Elle se construit dans les interactions, les reconnaissances, les réussites accumulées. Depuis les travaux fondateurs du sociologue Claude Dubar, on sait que l’identité au travail résulte d’une transaction permanente entre ce que l’on pense être et ce que les autres reconnaissent en vous.
Or, l’IA vient perturber cette transaction. Quand une machine formule à votre place un argument que vous n’auriez pas trouvé seul, que reste-t-il de votre contribution réelle ? Que dit de vous le fait que vous ayez su bien poser la question ?
Quand un algorithme optimise votre profil LinkedIn de façon à en maximiser la visibilité, est-ce encore vous qui parlez ?
Plusieurs professionnels interrogés dans le cadre de notre étude expriment ce malaise avec une acuité saisissante. La frontière entre assistance et substitution devient floue, et avec elle, la frontière entre compétence réelle et compétence simulée.
« Quand j’utilise l’IA, j’ai l’impression que mon travail n’est pas honnête, que c’est pas vraiment moi qui l’ai fait. Le fait de tout donner à un outil remet en question mes propres capacités et la valeur que j’attribue à mon investissement. »
Étudiant en alternance dans le secteur financier.
Une forte tension identitaire
Ce témoignage n’est pas isolé. Il révèle une tension identitaire profonde entre l’identité « pour soi » – fondée sur l’effort, l’expertise, l’investissement personnel – et l’identité « pour autrui », c’est-à-dire l’image projetée vers les recruteurs, les collègues, les clients. L’IA peut soigner la seconde tout en fragilisant la première.
Cette fragilisation est d’autant plus insidieuse qu’elle opère à bas bruit. Ce n’est pas une perte de compétence objectivable, mais un ébranlement de la confiance en sa propre valeur. Ce que les psychologues nomment le « sentiment d’efficacité personnelle », théorisé par Albert Bandura, est mis à rude épreuve.
Ce phénomène a désormais un nom dans la littérature en sciences de gestion : la « menace de l’identité professionnelle » (Professional Identity Threat)
Une étude internationale publiée en 2025 dans la revue AI & Society confirme que plus un professionnel perçoit l’IA comme une menace pour son identité, moins il est enclin à l’adopter. Or, l’article montre également que les professionnels qui ont le plus besoin de maîtriser l’IA pour protéger leur position sont précisément ceux qui résistent le plus à l’adopter. Ceci crée un paradoxe productif et identitaire à la fois.
L’efficacité personnelle, une croyance ancrée dans l’expérience
Le sentiment d’efficacité personnelle désigne la conviction qu’a un individu de sa capacité à accomplir des tâches données. Ce n’est pas l’estime de soi en général mais une croyance spécifique, ancrée dans l’expérience : « Je suis capable de faire ce travail, même lorsque c’est difficile. »
Or, l’usage répété de l’IA peut progressivement éroder cette conviction. Plusieurs participants à notre étude décrivent un phénomène de dépendance progressive, presque invisible. On commence par vérifier un mail avec l’IA. Puis on ne sait plus envoyer un mail sans elle.
« Même si je suis sûre de moi, j’ai quand même ce réflexe automatique d’aller vérifier. Et ça crée une perte de confiance. Je me demande comment est-ce qu’avant je faisais sans l’IA ? »
Étudiante en alternance dans un cabinet de recrutement spécialisé dans la santé.
Plus ou moins de compétences
Ce témoignage illustre un paradoxe majeur. Conçue pour augmenter les capacités humaines, l’IA peut in fine les fragiliser psychologiquement. Non parce que l’individu perd réellement ses compétences, mais parce qu’il cesse de croire en elles indépendamment de l’outil.
Ce glissement est particulièrement préoccupant pour les jeunes professionnels en phase de construction identitaire. Ils n’ont pas encore accumulé suffisamment d’expériences fondatrices pour asseoir leur confiance sur un socle solide. L’IA risque alors de court-circuiter ce processus d’apprentissage par l’erreur et le dépassement de soi, pourtant essentiel au développement de l’identité professionnelle.
L’article de Nir Eisikovits et de Jacob Burley publié dans The Conversation, évoquait déjà les questions éthiques soulevées par l’utilisation de l’IA en contexte d’apprentissage d’étudiants du supérieur. Leur réflexion met en évidence le phénomène de « décharge cognitive » au cœur de la déstructuration du processus d’acquisition des connaissances.
En revanche, chez les professionnels expérimentés, l’équation semble différente. Forts d’un sentiment d’efficacité consolidé par des années de pratique, ils utilisent l’IA comme un amplificateur, non comme une béquille. Elle « professionnalise », « structure », « met des mots plus justes » – sans remettre en cause leur conviction d’être l’auteur véritable du travail produit.
Se vendre ou se trahir ?
Le personal branding ou marque personnelle, désigne la stratégie par laquelle un individu construit et diffuse une image professionnelle cohérente pour se différencier sur le marché du travail. LinkedIn en est l’arène principale, mais il s’étend à tout ce qui construit la réputation du salarié, aussi bien ses publications que ses interventions et autres recommandations.
L’IA transforme profondément les règles de ce jeu. Elle permet de produire des contenus « polishés », des profils optimisés, des CV sans fautes, quel que soit le niveau réel de l’individu. Elle démocratise la qualité de surface tout en risquant de niveler par le haut une concurrence déjà féroce.
Un révélateur de fragilité
L’un des enseignements les plus marquants de cette recherche est peut-être le suivant : loin d’inventer les fragilités identitaires, l’IA agit comme un révélateur. Quand un étudiant ressent que son travail « n’est pas vraiment lui » lorsqu’il utilise l’IA, c’est souvent le signe que son identité professionnelle n’est pas encore suffisamment ancrée pour résister à l’intermédiation technologique.
En revanche, ceux qui disposent d’une identité professionnelle solide, construite sur des expériences vécues, des réussites reconnues, une trajectoire cohérente, intègrent l’IA sans s’y perdre. Ils la décrivent comme « une version améliorée d’eux-mêmes », non comme un substitut.
Ce constat a des implications importantes pour les établissements d’enseignement supérieur. Former des étudiants à l’IA ne peut pas se réduire à leur apprendre des outils. Il faut les aider à construire, avant tout, une identité professionnelle assez robuste pour que l’IA reste un levier et ne devienne pas une prothèse.
Apprendre à construire une identité
Développer cette identité suppose de travailler la réflexivité : la capacité à observer ses propres actions, à reconnaître ce qui vient réellement de soi et ce que l’on projette sur une machine. Cela implique aussi de mettre en valeur les expériences fondatrices : les échecs, les négociations compliquées, les projets menés jusqu’au bout sans soutien extérieur.
Aux amateurs de science-fiction et aux autres, la question n’est pas tant de savoir si l’IA va « prendre » les emplois. Elle est autrement plus subtile et plus urgente : l’IA va-t-elle vampiriser les identités professionnelles des individus ?
Cet article est fondé sur une étude qualitative, menée entre décembre 2025 et janvier 2026, s’appuyant sur 25 entretiens semi-directifs approfondis auprès d’étudiants en alternance et de professionnels en activité (assurance, finance, commerce, droit, management, technologie). Les auteurs remercient Yaël Salomon, étudiante de l’Inseec Grande École, pour sa contribution à la collecte et à la retranscription des données empiriques qui fondent cette étude.
![]()
Claudia-Roxana RUSU est membre de laboratoire de recherche IRGO de l’Université de Bordeaux.
Demba Ousmane DIOUF et Youssef Souak ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
– ref. Quand l’IA trahit les identités professionnelles – https://theconversation.com/quand-lia-trahit-les-identites-professionnelles-277639
