IA : le piège d’un langage statistique qui ressemble au nôtre

Source: The Conversation – in French – By Mazarine Pingeot, Professeure de philosophie, Sciences Po Bordeaux

L’intelligence artificielle générative, telle que ChatGPT et consorts, produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.


Lorsqu’on questionne ChatGPT, Claude ou autre « Chat » sur n’importe quel sujet, il répond comme s’il était un interlocuteur omniscient. Pourtant, ce langage est produit de façon statistique, en intégrant la multiplicité des contextes – ce qui lui permet de répondre de façon adéquate et à chaque fois différente, en fonction du contexte d’énonciation –, en agrégeant d’immenses masses de données (les large langage models ou LLM). Cette spécificité introduit une nouvelle dimension : si la machine parle comme l’humain, alors même que le langage était perçu par un certain nombre de philosophes, au premier rang desquels René Descartes, comme l’indice de la pensée, et donc de la reconnaissance chez l’autre de son « humanité », comment distinguer l’humain de la machine ?

Cette question, à la base du test de Turing, pourrait paraître rhétorique, pourtant, nombreuses sont les pratiques qui attestent de cette confusion, l’intelligence artificielle (IA) générative étant parfois utilisée comme assistant, comme ami, et pouvant faire éventuellement fonction de psychologue. Ne serait-ce que dans notre manière de lui poser des questions, nous nouons avec elle un dialogue et sommes donc victimes d’une projection anthropomorphique fort naturelle dès lors que l’autre – machine ou humain – nous répond. La façon dont nous nous adressons à notre « chat » en témoigne : nous lui parlons parfois avec politesse, en utilisant souvent la deuxième personne du singulier « Tu ».

Comment repenser alors le langage s’il n’est plus l’indice d’une pensée consciente ? Et comment distinguer le langage humain du langage de la machine ? Dans sa structure, sa syntaxe, sa cohérence, il est identique.

Pourtant, le fait que les textes produits par l’IA générative soient bientôt majoritairement issus non plus de textes écrits par des humains, mais d’autres textes générés par l’IA pose un premier problème de référentialité.

Une production statistique déconnectée de la vérité

On le sait depuis les travaux du linguiste Roman Jakobson, le langage a plusieurs fonctions (informer, entrer en contact, créer du lien, de la beauté, etc.). La fonction référentielle est celle qui lie le langage au réel et qui en fait le lieu de la vérité au sens d’une adéquation entre un énoncé et la réalité dont il parle. C’est là, la fameuse définition de Thomas d’Aquin (env. 1225-1274) « Veritas est adaequatio rei et intellectus » (« La vérité est l’adéquation de la chose et de l’intellect »). Ainsi, « seuls des énoncés peuvent être vrais ou faux. Les choses, quant à elles, même si, par un abus de langage, il arrive qu’on les qualifie de “vraies” ou de “fausses”, sont réelles ou irréelles, authentiques ou artificielles. Mais elles ne sauraient être “vraies”» », peut-on lire dans l’article de l’Encyclopédie Universalis sur la vérité au sens général.

Ainsi, l’énoncé « il fait beau » a du sens s’il fait beau, et il est censé donner une information sur le temps qu’il fait, à des fins multiples (organiser sa journée, choisir de prendre ou non son vélo, etc.). À quoi sert de dire « il fait beau » si ce n’est pour communiquer cette information, ou pour créer un lien avec un autre du seul fait que je m’adresse à lui (on parle alors de fonction phatique du langage.

Certes, l’écriture va médiatiser l’idée même de communication mais elle demeure le vecteur d’un savoir, d’une information, d’une relation entre celui qui lit, celui qui écrit, et ce sur quoi porte l’écrit.

Voici que le langage pourtant s’émancipe de ses fonctions référentielle et phatique.

La production du langage s’autonomise de la réalité

L’énoncé produit par l’intelligence artificielle générative ne fait plus signe vers une extériorité, et ce de façon structurelle, puisqu’elle fonctionne de façon statistique, en prenant en compte le contexte, à partir de bases de données numériques. La médiation risque d’être exponentielle, si les textes produits par l’IA finissent par remplacer ceux produits par l’humain. L’IA générative produit à partir d’elle-même et de façon algorithmique un énoncé qui n’a, par définition, aucune intention communicative. Il est le fruit d’un calcul.

Quel enseignement en tirer ? Que la structure même de la production du langage s’autonomise de la réalité : on ne peut pas en vouloir à la machine de ne pas lever les yeux au ciel pour confirmer qu’il fait beau.

Ainsi c’est la condition même de la vérité qui est évacuée. Dans « Vérité et politique », la philosophe Hannah Arendt distingue la « vérité de fait » et la « vérité de raison », renvoyant cette dernière à la vérité scientifique, et la première à « ce qui a eu lieu », autrement dit un réel minimal, condition du commun. Or, c’est cette vérité que les idéologies totalitaires ont remise en question, substituant à la réalité un système plus au moins cohérent d’idées ou de croyances. Mais les démocraties de masse ne sont pas en reste : pour Arendt, la publicité propose elle aussi un substitut au réel.

Aujourd’hui, l’idéologie n’est plus nécessaire pour substituer au rapport au monde un discours délié du monde. C’est la condition même d’énonciation qui rend caduque la catégorie de « vérité de fait » puisque l’intelligence artificielle générative, dans son fonctionnement même, ne se réfère pas au réel pour produire du langage, même si un lien au second degré demeure, puisque la production statistique de LLM part d’énoncés produits hors LLM. La déliaison est consommée entre produire du langage (qui est pourtant supposé être le lieu de la vérité), et le réel sur lequel porte le langage.

Ainsi la post-vérité dans laquelle nous vivons désormais est structurellement consolidée : il ne s’agit pas seulement d’une indifférence à la vérité, il s’agit d’une production de contenu délié, ou indépendant de la possibilité même du vrai ou du faux, même si un grand nombre de textes qui nourrissent les LLM proviennent encore des humains. L’idéologie n’est pas dans ce qui est dit, produit, écrit : elle est dans l’émancipation d’une production du langage par rapport au réel et à l’idée même de référentialité. L’intelligence artificielle générative n’a pas inventé la post-vérité, mais par son fonctionnement, elle en consolide la structure.

Un langage formaté en amont par des entreprises privées ?

À cela s’ajoute le fait que cette production est le monopole d’entreprises privées. Nous vivons dans un monde capitaliste, nul ne l’ignore, dont le principe est que les moyens de production sont concentrés entre les mains de quelques-uns. C’est ce que Marx appelait l’infrastructure, la superstructure désignant toutes les autres sphères – la politique, la culture. Or, aujourd’hui, l’infrastructure produit du langage. Et le langage est sous-jacent à toutes les superstructures : comme le dit le linguiste Klemperer, il est le moyen de propagande le plus public et le plus secret à la fois. Public, puisque nous ne pouvons nous passer du langage pour vivre en société ; secret, parce que nous ne nous rendons pas compte à quel point le langage est traversé par des normes qui nous façonnent plus que nous les façonnons et que nous véhiculons à notre tour en parlant.

« À chaque époque correspondent des techniques de reproduction bien déterminées » écrivait Walter Benjamin. La technique influe sur l’usage de la langue : au XIXᵉ siècle, la presse de masse transformait la manière d’écrire, entraînant un nouveau genre littéraire – le roman – que Benjamin dans le Raconteur oppose au récit, mais aussi la prolifération d’une presse à sensation, s’intéressant aux faits divers et proposant une « narration » attractive.

Le langage serait donc de plus en plus inféodé à ses moyens de production techniques. Certes, on peut considérer qu’il l’était déjà dans son usage public, mais c’est désormais le cas également des usages intimes, professionnels, amicaux, autrement dit de quasiment tous les usages, y compris lorsqu’on n’a nul besoin de la technologie pour communiquer : il nous arrive de correspondre par mail lorsqu’on partage le même bureau, d’assister à des réunions en visioconférence alors que quelques mètres nous séparent, de communiquer par Instagram assis côté à côte… Ce qui a des conséquences décisives notamment sur la politique, et plus spécifiquement sur la démocratie, dont le matériau premier est précisément le langage et les différents droits qui lui sont associés.

« Être politique, écrit Hannah Arendt, vivre dans une polis, cela signifiait que toutes choses se décidaient par la parole et la persuasion et non pas par la force ni la violence. » Elle ajoutait que c’est en apparaissant aux yeux de tous que la parole devenait politique. Il fallait donc un espace pour que celle-ci soit entendue, un espace « public » pour « une parole politique ».

Mais qu’est-ce qu’un espace public et qu’une parole politique, lorsque le langage s’émancipe dans sa production, à la fois du réel, et du sujet d’énonciation ? En étant productrice autonome de langage sans référentialité, l’IA générative accomplit techniquement le fantasme d’une énonciation sans sujet.

Que le langage ne soit plus ce qui distingue la machine de l’humain a ainsi des conséquences à la fois politiques et métaphysiques. Le rapport au réel est en train de se transformer au profit de médiations invisibles qui privatisent le langage : celui-ci ne permet plus de reconnaître dans le destinateur ou le destinataire un « autrui ». Pourtant, le langage n’a de sens qu’à être adressé à un autre être humain. Pour la machine, il est asémantique. Sauver le sens du langage, c’est sauver l’idée même de sujet. C’est à cette condition qu’il gardera ses vertus émancipatrices.


Mazarine M. Pingeot est l’autrice d’Inappropriable. Ce que l’IA fait à l’humain, (Flammarion, février 2026).

The Conversation

Mazarine Pingeot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. IA : le piège d’un langage statistique qui ressemble au nôtre – https://theconversation.com/ia-le-piege-dun-langage-statistique-qui-ressemble-au-notre-276544