Source: The Conversation – France in French (2) – By Stéphanie Gauttier, Professeur Associée en Systèmes d’Information, Responsable de l’équipe de recherche ‘Systèmes d’Information pour la société’ Chaire Digital Organization & Society, Grenoble École de Management (GEM)
Les agents d’IA sont capables d’effectuer différentes tâches de façon plus ou moins autonome. À mesure qu’ils sont intégrés à nos outils et à nos échanges personnels et professionnels, c’est toute la société qui doit décider ce qu’elle souhaite déléguer… et ce qu’elle préfère préserver.
En arrivant au bureau, un mail vous attend. Votre client voulait une mise à jour sur sa commande. Mais un agent IA a déjà consulté les données de livraison et envoyé un message de suivi. Vous n’avez rien eu à faire.
Ce n’est pas de la science-fiction. Les agents IA sont sur le point de transformer en profondeur nos façons de travailler. L’entreprise américaine de conseil Gartner estime que 15 % des décisions professionnelles quotidiennes seront prises par des agents IA d’ici 2028, et 33 % des entreprises utiliseront des agents IA (contre 1 % en 2024). Ces agents ne sont pas de simples assistants mais des entités capables d’agir, décider et parfois collaborer entre elles. Leur émergence pose des questions fondamentales sur le rôle des humains au travail.
Que sont les agents IA ?
Un agent IA est un logiciel (semi)-autonome qui utilise des techniques d’intelligence artificielle pour percevoir, prendre des décisions, accomplir des tâches et atteindre des objectifs prédéterminés, dans des environnements physiques ou numériques. Un agent IA peut agir pour le compte d’un utilisateur ou d’un autre système, par exemple un autre agent logiciel, en concevant son processus de travail et utilisant les outils disponibles.
Certains agents suivent une logique strictement scriptée, tandis que d’autres sont dotés d’une plus grande autonomie : ils déterminent eux-mêmes le bon moment pour agir en fonction du contexte, des objectifs et des informations disponibles. C’est cette autonomie qui caractérise l’« IA agentique ». Cette forme particulièrement autonome d’agent IA, qui ouvre de nouvelles possibilités mais soulève également des enjeux inédits en matière de conception, de contrôle et d’usage. Tous les agents IA ne forment pas une IA agentique, bien que la tendance aille en ce sens.
Par exemple, un « agent IA agentique » pourrait envoyer de lui-même un message aux clients de manière proactive si un message de retard du fournisseur est arrivé. Dans le contexte européen, une telle autonomie n’est pas interdite, mais elle relève des obligations de supervision humaine et de transparence imposées par l’AI Act (2024). Dans ce cadre, supervision ne signifie pas validation systématique de chaque action, mais capacité à tracer, contrôler et reprendre la main à tout moment.
Le marché mondial des agents IA, agentiques ou non, devrait représenter 47,1 milliards de dollars en 2030, 1,896 milliard de dollars en France en 2030.
Les agents IA s’appuient sur différentes briques d’intelligence artificielle : compréhension de requêtes, recherche d’informations, planification, action dans les systèmes, génération de texte. Parmi ces briques, les grands modèles de langage (LLM) jouent un rôle central, mais sont désormais utilisés par les agents IA de manière autonome, sans intervention humaine.
Les agents IA : vers une hyper automatisation du travail ?
Les agents IA fonctionnent en continu, sans fatigue ni pause. Ils permettent aux organisations d’étendre considérablement leur capacité d’action. À ce titre, ils incarnent la promesse d’une productivité accrue et d’une réduction des coûts.
À lire aussi :
Les robots collaboratifs, des collègues de travail comme les autres ?
Mais cette automatisation radicale réactive des craintes anciennes : déqualification, dilution des responsabilités, dépendance technologique, perte de contrôle. Ainsi, 75 % des citoyens français pensent que l’IA détruira plus d’emplois qu’elle n’en créera, et 63 % refusent aujourd’hui de se former à ces outils selon le Labo Société Numérique 2024. Aux États-Unis, seuls 23 % des adultes pensent que l’IA améliorera leur façon de travailler, contre 73 % des experts de l’IA.
La rupture est donc aussi sociale que technologique.
Les agents d’IA permettront-ils d’innover davantage ?
Automatiser les processus peut figer une manière de faire, plutôt que d’innover. Selon Eril Brynjolfsson, le véritable potentiel de l’IA réside dans son pouvoir d’augmenter les capacités humaines pour faire de nouvelles choses, pas de les remplacer.
Ainsi, plutôt que de remplacer les humains, les agents IA pourraient élargir leur champ d’action créatif, en leur suggérant des idées nouvelles, en automatisant l’exploration de variantes ou en testant rapidement des pistes qu’un humain seul n’aurait pas le temps d’examiner… par exemple pour ouvrir la voie à des avancées majeures, notamment dans le domaine de la biomédecine.
Mais pour cela, il faut qu’ils soient dignes de confiance. Le fait que 93 % des employés de bureau doutent encore de la fiabilité des résultats produits par l’IA ne relève pas seulement d’un problème d’adoption : cette méfiance renvoie à des failles concrètes des systèmes actuels, qu’il s’agisse d’erreurs, de biais, ou d’un manque de traçabilité et d’explicabilité.
Quelle responsabilité pour les agents d’IA ?
Face à des systèmes capables d’agir de manière autonome tout en faisant des erreurs, qu’il s’agisse de biais, de décisions inadaptées ou d’hallucinations, une question demeure : qui est responsable du résultat ?
Les agents, par nature, ne peuvent ressentir ni assumer la responsabilité de leurs actes. Pourtant, leur rôle peut rester invisible aux yeux des utilisateurs : les employés peuvent ignorer qu’un agent a pris une décision à leur place, ou se retrouver démunis face à un raisonnement biaisé qu’ils ne comprennent pas. Un autre risque tient à l’imprécision des consignes données par l’utilisateur, ou à la manière dont l’agent les comprend. Une interprétation erronée peut amener ce dernier à sélectionner un outil inadéquat ou à en faire un usage détourné, avec des effets indésirables. Ce type de dérive est parfois qualifié d’ « hallucination d’appel de fonction ». Enfin, une étude publiée dans Nature montre que les agents IA sont plus enclins que les humains à suivre des instructions manifestement non éthiques, ce qui demande la mise en place de garde-fous prohibitifs. Lorsque les agents travaillent en mode agentique, en toute autonomie et auto-orchestration, ces questions ont d’autant plus de poids.
Ce sont donc les organisations qui doivent prendre l’initiative de mettre en place des mécanismes de gouvernance robustes, pour assurer à la fois la conformité éthique des usages et le bien-être des salariés exposés à ces systèmes. Les actions des agents IA peuvent aussi des conséquences imprévues, dont les organisations restent responsables, ce qui impose de se doter d’un cadre de gouvernance adéquat. Cela suppose des actions concrètes : une gouvernance robuste de l’IA dans l’entreprise, un niveau suffisant de transparence, et des cadres réglementaires établis.
En pratique, il est essentiel de définir explicitement les responsabilités respectives des humains et des machines, et de former les employés — notamment à la littératie algorithmique — pour leur permettre d’agir en connaissance de cause. Il faut également permettre une collaboration contradictoire, avec un agent IA qui interroge et affine les recommandations de l’agent humain.
D’un point de vue technique, le recours à des audits indépendants et la mise en place de dispositifs d’alerte en cas de dysfonctionnement constituent des garanties indispensables pour un contrôle pertinent des agents IA.
Collaborer… sans humains ? Les limites d’un avenir de systèmes multiagents
Certaines entreprises envisagent de faire collaborer plusieurs agents IA spécialisés pour atteindre des objectifs communs : ce sont les systèmes multiagents. Par exemple, des agents IA pourraient travailler ensemble pour suivre votre réclamation client sur votre dernière commande en ligne, faire des recommandations, remonter la solution, et ajuster votre facture.
Pour y arriver, il reviendra à l’entreprise de bien orchestrer la collaboration entre les agents IA. Elle peut créer un réseau centralisé, avec un serveur qui contrôle les actions et informations des agents et qui peut prendre la main sur le système ; ou alternativement, un réseau décentralisé où les agents IA contrôlent leurs interactions entre eux. Outre les risques d’échec de coordination, l’organisation peut être confrontée à des conflits informationnels entre agents IA et des collusions, et des risques de sécurité.
Plus l’autonomie des agents est élevée, plus il devient essentiel de maintenir une forme de contrôle sur les tâches accomplies. Le règlement européen sur l’intelligence artificielle insiste sur l’importance qu’un humain dans la boucle puisse intervenir pour corriger, interrompre ou valider les actions de l’IA.
Mais le marché de l’agentique propose une autre solution. Des agents gardiens qui peuvent surveiller, guider, et intervenir dans le comportement des autres agents lorsque nécessaire. Ces agents-gardiens, ou contremaîtres, représenteraient 10 à 15 % du marché de l’IA agentique.
Faut-il alors imaginer un futur où les humains deviendraient les contrôleurs des contrôleurs ? Or, ce rôle de supervision sans implication directe dans l’action est loin d’être satisfaisant : il est souvent associé à une baisse de l’engagement et de l’épanouissement professionnel. Pire encore, plus nous déléguons les tâches formatrices à des systèmes automatisés, plus il devient difficile pour les humains d’intervenir efficacement lorsque l’IA échoue, faute d’entraînement ou de compréhension fine de la tâche.
La prochaine fois que vous engagerez une nouvelle tâche… prenez un instant pour vous demander : est-ce vous qui l’accomplirez encore d’ici peu, ou un agent IA à votre place ? Et surtout, en quoi cela changerait-il le sens que vous tirerez de votre travail ? À mesure que les agents IA s’installent dans nos outils et nos échanges, c’est toute la société qui doit décider de ce qu’elle souhaite déléguer… et de ce qu’elle préfère préserver.
![]()
Stéphanie Gauttier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
– ref. Et si votre prochain collègue était un agent IA ? – https://theconversation.com/et-si-votre-prochain-collegue-etait-un-agent-ia-262160
