Source: The Conversation – in French – By Harold NGUEGANG, Étudiant de doctorat en sciences de l’administration – Systèmes d’information organisationnels, Université Laval
Près de 80 % des travailleurs de bureau au pays disent utiliser les outils d’intelligence artificielle générative (IAG) pour accélérer leur productivité et améliorer leur travail. Cette pratique crée un fossé inquiétant, puisque trois quarts d’entre eux le font en dehors de tout cadre institutionnel. Ce faisant, ils exposent leurs organisations à des risques financiers et réputationnels majeurs.
Ce phénomène, baptisé « Shadow AI », révèle moins une défaillance individuelle des employés qu’un problème de gouvernance : Les entreprises doivent rapidement baliser l’usage des IAG en proposant à leurs employés des solutions sécurisées et contrôlées.
L’usage croissant des IAG
Le paysage technologique actuel est dominé par les IAG comme ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) et Microsoft Copilot. Parmi les entreprises, Statistique Canada indique que ces outils sont surtout utilisés pour l’analyse textuelle (35,7 %), l’analyse de données (26,4 %) et le déploiement d’agents conversationnels, comme les robots de clavardage (24,8 %).
L’essor des IAG continue de susciter un discours polarisé. Comme le mentionnent Rajiv Sabherwal et Varun Grover, deux professeurs émérites en systèmes d’information de l’université d’Arkansas, le discours entourant les IAG promet un gain de productivité, une accélération de l’innovation et une transformation profonde des activités professionnelles. Au même moment, divers rapports (notamment ceux du gouvernement canadien, du Centre canadien pour la cybersécurité, de Deloitte, ou d’IBM) mettent en garde contre les risques pour la sécurité, la conformité et la dépendance organisationnelle aux solutions externes.
Les travailleurs canadiens n’ont pas attendu que leurs employeurs encadrent l’utilisation des IAG. Selon une récente étude d’IBM, leur usage non contrôlé concerne la majorité des travailleurs à temps plein au pays.
Face à cette réalité, les entreprises ne peuvent plus se contenter d’observer, elles doivent agir.
À lire aussi :
Grok, l’IA de Musk, est-elle au service du techno-fascisme ?
# « Shadow AI »
Le Shadow AI est aujourd’hui une réalité documentée au Canada et à l’international. Les études de CybSafe and the National Cybersecurity Alliance, KPMG, et Salesforce confirment l’importance de cette pratique devenue une mode.
En septembre 2025, une étude d’IBM a ainsi révélé que 79 % des travailleurs de bureau au Canada utilisent des outils d’IAG dans leurs tâches professionnelles, mais que 25 % d’entre eux seulement recourent à des solutions approuvées par leur entreprise. Encore plus marquant, 54 % déclarent recourir à des outils personnels au moins une fois par semaine pour accomplir des tâches professionnelles.
Cette étude révèle également que 21 % utilisent exclusivement des outils personnels pour accomplir leurs tâches, tandis que 33 % combinent des outils personnels et ceux de leur entreprise. Ce contraste entre les pratiques individuelles et les pratiques organisationnelles officielles relatives aux IAG témoigne d’un vide stratégique significatif.
Des risques multiples
Les risques associés au Shadow AI sont multiples et empiriquement attestés. 57 % des répondants d’une enquête de TELUS Digital Experience ont admis avoir saisi des données sensibles (informations personnelles, contrats, codes sources) dans des outils d’IAG.
Les conséquences financières sont également présentes. Le rapport IBM Cost of a Data Breach 2025 estime à 308 000$ l’impact additionnel par incident de Shadow AI sur le coût des violations de données au cours de la dernière année dans les entreprises canadiennes.
Au-delà des pertes financières, des cas emblématiques illustrent les risques réputationnels : chez Samsung, des employés ont accidentellement divulgué un code source interne sensible via ChatGPT, tandis que deux avocats de New York ont été condamnés à une amende de 5000 $ pour avoir soumis un dossier juridique contenant des citations et des jurisprudences entièrement inventées par ChatGPT.
À lire aussi :
L’intelligence artificielle générative : savoir quand l’utiliser plutôt que comment
Causes du « Shadow AI »
La pratique du Shadow AI ne naît pas du simple désir de contourner les règles de l’entreprise. Elle illustre plutôt un écart entre les besoins opérationnels réels des employés et les possibilités offertes par les employeurs.
Le discours dominant sur les IAG, véhiculé par les entreprises technologiques comme Anthropic ou Microsoft, certains médias et des influenceurs, promeut un gain d’efficacité et de productivité. Cela suscite chez les employés une perception positive des IAG, qui sont vues alors comme un outil indispensable à leur performance qu’il faut adopter en l’absence de solutions institutionnelles.
Ce phénomène pourrait également s’expliquer par le décalage temporel entre le développement continu des IAG et la réactivité organisationnelle. Les employés évoluent plus rapidement que les institutions conçues pour les soutenir.
Les institutions, contraintes par des processus de validation, de conformité et de gestion des risques, tardent à répondre aux attentes des employés. Face à des processus bureaucratiques perçus comme lents, les employés contournent les canaux officiels pour accéder aux gains promis par les IAG. Ainsi, 46 % des travailleurs canadiens interrogés par IBM envisageraient de quitter leur entreprise pour une autre qui utilise l’IAG plus efficacement. Ceci souligne l’urgence stratégique de ce phénomène.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Institutionnalisation des IAG
Face au phénomène de Shadow AI, les entreprises doivent adopter une posture proactive d’institutionnalisation afin de le transformer en opportunité. Cette approche ne consiste pas à imposer l’usage des IAG, mais à formuler une position claire sur un continuum allant de l’interdiction stricte à l’utilisation libre. L’absence de ce positionnement constitue une faille stratégique dans l’institutionnalisation des IAG, exposant l’entreprise à des risques.
Pour une institutionnalisation efficace de l’IAG, nous proposons trois points complémentaires.
-
L’élaboration de politiques d’utilisation explicites, communiquées et régulièrement mises à jour, permet de clarifier les frontières entre usages autorisés et proscrits.
-
La formation et la sensibilisation constituent des leviers essentiels : les employés doivent développer non seulement des compétences techniques en matière de rédactique, mais également une compréhension profonde des enjeux organisationnels, éthiques et de sécurité.
-
Le choix et la mise en place d’outils d’IAG approuvés et sécurisés, notamment alignés sur les besoins de l’entreprise et sur la loi. Comme le souligne KPMG, les organisations avant-gardistes « transforment l’utilisation non autorisée de l’IA en un avantage stratégique et en un moteur d’innovation » (traduction libre).
Cette approche proactive permet de réduire les risques, de renforcer la confiance des employés et de cultiver une culture d’innovation responsable.
Perspectives : vers des IAG propriétaires
Une réflexion prospective sur le Shadow AI conduit naturellement à envisager le développement en interne d’outils d’IAG sur mesure. À l’exemple de Forvis Mazars, une multinationale experte en certification, comptabilité, fiscalité et services-conseils, certaines entreprises et gouvernements explorent le développement d’IAG internes adaptées à leurs besoins spécifiques.
Cette stratégie réduit l’exposition aux risques et offre plusieurs avantages : une maîtrise accrue de la confidentialité des données, une personnalisation de l’IAG en fonction des processus du métier, une réduction de la dépendance vis-à-vis des plates-formes externes et un renforcement de la souveraineté numérique. Toutefois, cette voie implique des investissements considérables en ressources techniques, financières et humaines, ainsi qu’une gouvernance éthique rigoureuse.
Les entreprises qui sauront transformer la pratique du Shadow AI en un levier stratégique, par une institutionnalisation réfléchie et inclusive des IAG, auront un avantage concurrentiel durable dans l’économie numérique émergente.
![]()
Harold Junior NGUEGANG TEWAMBA est membre du Centre de recherche en technologies de l’information et affaires (CeRTIA) de la Faculté des sciences de l’administration de l’Université Laval.
Gildas Agbon est membre étudiant de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (Obvia). Il a reçu des financements du Conseil de recherche en sciences humaines du Canada
– ref. Près de 80 % des travailleurs canadiens utilisent l’IA sans cadre institutionnel – https://theconversation.com/pres-de-80-des-travailleurs-canadiens-utilisent-lia-sans-cadre-institutionnel-251668
