Agents intelligents : quand 2025 réactive un imaginaire vieux de trente ans

Source: The Conversation – France (in French) – By Magali Gourlay-Bertrand, Enseignante en Management, Arts et Métiers ParisTech

La célèbre formule de Tancrède Falconeri dans le Guépard, « Il faut que tout change pour que rien ne change », peut-elle s’appliquer au monde de la tech ? En matière d’agents intelligents, si le contexte se modifie, les imaginaires persistent. Mais l’utopie d’hier est en train de se réaliser aujourd’hui.


« En vous connectant à votre ordinateur, vous voyez une liste de messages électroniques triés par ordre d’importance par votre assistant numérique personnel (PDA). Une liste similaire d’articles d’actualité vous est ensuite présentée ; l’assistant attire votre attention sur un article en particulier, qui décrit des travaux proches des vôtres. Après une discussion avec d’autres PDA, il a déjà récupéré pour vous un rapport technique pertinent depuis un site File Transfer Protocol (FTP), anticipant qu’il pourrait vous intéresser. »

Ce scénario ne date pas de 2025, mais de 1995. Il figure dans l’article fondateur Intelligent Agents : Theory and Practice, signé par Wooldridge et Jennings. Ce texte, cité plus de 12 000 fois sur Google Scholar, définit l’agent intelligent comme une entité dotée :

  • d’autonomie (agir sans intervention directe) ;
  • de réactivité (répondre aux stimuli) ;
  • de proactivité (poursuivre des buts) ;
  • et de sociabilité (interagir avec humains ou autres agents).

Autrement dit, un logiciel capable non seulement d’exécuter des tâches, mais aussi d’anticiper, de dialoguer et de coopérer dans un environnement distribué.

Et le « technoglobalisme » émergea

Cet imaginaire s’appuie sur des promesses techniques déjà esquissées, comme le Knowledge Navigator d’Apple (1987), cet assistant numérique dialoguant avec son utilisateur. En 1995, plusieurs projets prolongent cette ambition : au MIT, le projet Letizia explore une forme de navigation web assistée, et Microsoft tente d’humaniser l’ordinateur avec Bob. Dans le champ éducatif, AgentSheets ouvre la voie à des environnements multiagents interactifs.

Mais 1995, c’est aussi un moment charnière de la mondialisation. L’Organisation mondiale du commerce (OMC) succède à l’Accord général sur les tarifs douaniers et le commerce (General Agreement on Tariffs and Trade, ou GATT). L’Accord de libre-échange nord-américain (Alena) entre en vigueur. Le Marché commun du Sud (Mercosur) s’institutionnalise. Le G7 de Bruxelles consacre pour la première fois la « société de l’information ». L’Organisation de coopération et de développement économiques (OCDE) parle alors de « technoglobalisme » pour désigner l’interaction entre mondialisation économique et diffusion des technologies. Dans cette double dynamique – révolution numérique et accélération des flux mondiaux – l’agent intelligent s’impose comme la figure d’un futur du travail distribué, flexible et interconnecté.




À lire aussi :
« ChatGPT m’a dit que… » : l’illusion de la discussion avec l’IA nous mène à l’erreur


Cet imaginaire est également amplifié par la culture populaire de cette époque : Ghost in the Shell (1989) et Neon Genesis Evangelion (1995), ou encore les univers cyberpunk des romans Neuromancien de Gibson et Snow Crash de Stephenson, qui déploient des univers saturés de logiciels autonomes. Recherche, industrie et fiction participent d’un même imaginaire, dans lequel l’agent intelligent prend place comme une figure attendue du futur numérique.

La force des imaginaires sociotechnologiques

Il faut le rappeler : les agents intelligents, au sens strict, n’existent pas encore. Ni ChatGPT, ni Gemini, ni Copilot, ne réunissent les conditions posées par Wooldridge et Jennings, il y a trente ans. Aucun système n’allie aujourd’hui véritable autonomie, proactivité, réactivité et sociabilité.

Si vous préparez un voyage, ChatGPT peut répondre à vos questions, mais il ne va pas de lui-même comparer les vols ou réserver un hôtel. Même enrichi de plugins et d’extensions, ChatGPT reste un assistant conversationnel : il élargit ses capacités sans devenir pour autant un agent autonome capable d’anticiper, de s’ajuster ou de coopérer de sa propre initiative.

C’est là que réside la force des imaginaires technologiques. Comme l’ont montré Mads Borup et ses collègues, les attentes scientifiques et industrielles sont performatives. Elles structurent les investissements, attirent les talents et orientent les choix. Ces promesses fonctionnent comme des paris sur l’avenir, comme des « enchères » lancées pour rallier d’autres acteurs et ressources. L’idée de « superintelligence » ou « d’Artificial General Intelligence AGI », cette idée d’une intelligence artificielle (IA) capable de tout faire, joue à cet égard un rôle de parapluie protecteur, assez large pour abriter une diversité de tentatives.

IA et fantômes du passé

Et même lorsque ces projets échouent, ils laissent des traces durables, comme des « fantômes » du passé : des sentiers technologiques, des cadres de pensée et de conception qui nourrissent les promesses suivantes. C’est le principe de la « path dependency ». Exaltés en 1995, oubliés dans les années 2000, réincarnés avec Siri ou Alexa dans les années 2010, les agents intelligents ressurgissent aujourd’hui avec l’IA générative, selon un cycle de hype.

Cette résilience des imaginaires est confirmée par une vaste revue de littérature menée récemment par Hendriks, Karhunmaa et Delvenne. À partir de l’étude de plus de 300 articles académiques, ils montrent que la notion d’imaginaires sociotechniques – ces visions collectivement partagées et institutionnalisées de futurs désirables, portées par des représentations communes de l’ordre social et popularisées en 2015 par Jasanoff et Kim – s’est largement diffusée au-delà des Science and Technology Studies, dans des disciplines allant de la sociologie à l’anthropologie ou aux Media studies. L’idée que les technologies ne sont jamais neutres, mais qu’elles incarnent toujours une certaine conception de la société, s’est profondément ancrée dans les communautés scientifiques.

Hendriks et ses collègues identifient quatre axes analytiques, qui, appliqués aux agents intelligents, se déclinent de la manière suivante :

  • Le travail du futur se lit dans la manière dont ces systèmes sont toujours décrits comme inachevés mais inéluctablement en progrès et en cela performatifs, ce qui maintient vivante la promesse de leur accomplissement.

  • La question de la temporalité ne renvoie pas seulement aux cycles d’enthousiasme et d’oubli de hype, mais aussi à la persistance d’un même horizon narratif depuis 1995, malgré des incarnations techniques très différentes.

  • L’axe de la comparaison souligne que l’imaginaire de l’agent varie selon les échelles : il peut être conçu comme auxiliaire personnel (l’utilisateur individuel), comme levier de productivité (l’organisation) ou comme enjeu stratégique (les États et les blocs géopolitiques).

  • Le tournant spatio-matériel rappelle que ces visions ne tiennent pas seulement aux discours : elles s’ancrent dans des infrastructures – data centers, terminaux mobiles, plates-formes… – qui donnent corps aux promesses.

L’ombre de l’utopie

Aucun imaginaire ne va sans son ombre. Chaque utopie est hantée par sa dystopie : derrière l’assistant numérique bienveillant, surgit le spectre de la surveillance totale ; derrière l’abondance énergétique promise, la crainte d’une planète surconsommée ; derrière l’ami artificiel, la peur de l’isolement ou de la dépendance. Cet aller-retour constant entre espérance et crainte structure depuis trente ans la manière dont nos sociétés accueillent, financent et gouvernent les innovations.

France 24, 2020.

Un drame récent a brutalement rappelé les limites de ces systèmes. Aux États-Unis, un adolescent de 16 ans s’est suicidé après, présume-t-on, avoir suivi les conseils de ChatGPT, qu’il avait peu à peu investi comme ami, confident puis complice de son projet mortifère. Et ce ne serait pas un cas isolé. Ces faits tragiques interrogent : si déjà des systèmes incomplets suscitent de tels attachements, qu’en sera-t-il avec des agents plus aboutis ?

Une course à l’agent

En parallèle, l’industrie relance la promesse. Microsoft annonce l’avènement des human-agent teams, où chaque salarié devient un « agent boss », responsable de former et de superviser ses assistants numériques. Sam Altman, le CEO d’OpenAI, prédit une « intelligence trop bon marché pour être mesurée », annonçant un futur d’abondance. Google avance avec Project Mariner, la Chine mise sur Manus, l’Inde sur Kruti, et SoundHound dévoile Amelia 7.0. La course effrénée à l’agent intelligent s’accélère.

Comme en 1995, la culture populaire accompagne cet élan : la série Pantheon, diffusée cette année en France et adorée par les ingénieurs de la Silicon Valley, met en scène des intelligences numériques prolongées et Apple TV prépare une adaptation du roman culte Neuromancer. Trente ans après Wooldridge et Jennings, l’imaginaire des agents intelligents revient à ses sources littéraires, au moment même où l’industrie tente de les réaliser.

Trop d’attentes ?

Derrière la fascination, la question est politique : qui gouverne ces imaginaires ? Comme le rappellent les chercheurs Laurent Bibard et Nicolas Sabouret, « il n’y a pas de problème d’IA, il n’y a que le problème de nos attentes ». Autrement dit, ce ne sont pas les technologies elles-mêmes qui imposent une trajectoire, mais les récits et anticipations qui leur donnent sens et qui orientent les choix collectifs.

Les agents, réels ou rêvés, ne sont pas seulement une affaire technique : leurs infrastructures consomment massivement énergie et eau, et posent des défis de régulation. L’IA Act européen, entré en application cette année, tente d’en poser les premiers garde-fous.

En 1995, les agents intelligents s’inscrivaient dans l’élan de la mondialisation et de la dérégulation des marchés. En 2025, leur résurgence s’ancre dans un monde fracturé : tensions entre blocs (États-Unis, Chine, Europe, Inde), montée des populismes, multiplication des régulations. L’agent intelligent n’est plus le symbole d’une circulation fluide. Il devient un enjeu de souveraineté et de gouvernance globale, au cœur des rivalités technologiques. Jamais une technologie n’avait été si vite propulsée au rang d’enjeu politique global.

Les PDG de la tech parlent comme des chefs d’État ; les institutions réagissent en temps réel pour tenter de fixer des règles. Mais ce récit s’inscrit dans une tradition technosolutionniste, qui postule que chaque problème trouvera sa réponse dans l’innovation technique. À sa marge, certains courants, comme le dark enlightenment, idéologie néoréactionnaire, fantasment un futur gouverné par les élites technologiques plutôt que par les institutions démocratiques. L’agent intelligent devient une arme discursive, mobilisée pour légitimer de nouveaux ordres sociaux. La question n’est donc pas seulement qui gouverne ces imaginaires, mais jusqu’où ces imaginaires gouvernent nos choix, nos institutions et nos vies.

The Conversation

Magali Gourlay-Bertrand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Agents intelligents : quand 2025 réactive un imaginaire vieux de trente ans – https://theconversation.com/agents-intelligents-quand-2025-reactive-un-imaginaire-vieux-de-trente-ans-265042