L’IA peut-elle rendre la justice ?

Source: The Conversation – France in French (3) – By Naoufel Mzoughi, Chargé de recherches en économie, Inrae

Au Canada, on expérimente des médiateurs automatisés. En Chine, des tribunaux s’appuient sur l’IA. En Malaisie, des tests de condamnations assistées par algorithmes sont en cours. Phonlamai Photo

Dans plusieurs pays, dont la France, la justice expérimente l’usage de l’intelligence artificielle. Quelle serait la légitimité d’une décision de justice rendue par un algorithme ? Serait-elle plus dissuasive ? Des chercheurs ont testé la perception d’une punition selon qu’elle émane d’un juge humain ou d’une IA.


L’idée de confier à des systèmes d’intelligence artificielle (IA) des décisions de justice ne relève plus de la science-fiction : au Canada, on expérimente des médiateurs automatisés ; en Chine, des tribunaux s’appuient sur l’IA ; en Malaisie, des tests de condamnations assistées par algorithmes sont en cours. Ces outils ne se limitent pas à un rôle d’assistance : dans certains contextes, ils influencent directement la sévérité des peines prononcées.

Au Québec, par exemple, une « cour virtuelle » résout déjà de nombreux petits litiges commerciaux. Il suffit de se connecter, d’indiquer les faits et un algorithme propose les issues financières les plus probables, offrant ainsi une solution extrajudiciaire et un dédommagement. Environ 68 % des dossiers sont réglés ainsi, en quelques semaines, ce qui évite les envois recommandés et le recours au juge de proximité. Certains États des États-Unis ont également recours au jugement fondé sur les données probantes (« evidence‑based sentencing »), qui s’appuie sur un algorithme capable d’estimer la durée optimale de la peine à infliger à un condamné, en cherchant à réduire au maximum la probabilité de récidive.

En France, plusieurs expériences sont en cours pour tester et intégrer de plus en plus l’IA dans le fonctionnement quotidien des juridictions, sachant que le ministère de la justice prévoit une charte pour un usage responsable de l’IA. Des applications concrètes sont déjà plus ou moins avancées – par exemple avec un système d’occultation automatique des données sensibles dans les décisions de justice, même si la vérification humaine reste indispensable ou des outils d’aide à la qualification pénale. Autre exemple, la réorganisation du tribunal de commerce de Paris mobilise l’IA avec l’ambition d’améliorer le traitement des litiges et libérer du temps pour les juges consulaires, notamment en plaçant les affaires ou en vérifiant les injonctions de payer. Dernière preuve en date de cet engouement, le ministère de la Justice s’est récemment doté d’une direction stratégique dédiée à l’intelligence artificielle.

À mesure que ces systèmes se déploient, de nombreuses questions surgissent. Par exemple, la justice repose beaucoup sur la confiance accordée au système. La légitimité conférée à l’IA en matière de décision de justice est donc cruciale. Autre point : l’un des rôles essentiels du droit pénal est de décourager les comportements hors-la-loi. Une amende pour stationnement sauvage, une peine de prison pour un délit grave : l’idée est qu’une sanction connue, proportionnée et prévisible empêche de franchir la ligne rouge, au moins pour une partie importante de la population. Cela amène à se demander si les sanctions prononcées par un algorithme paraissent plus, ou moins, dissuasives que celles d’un juge en chair et en os.

Pourquoi l’IA inspire la crainte… et parfois une certaine fascination

Concernant la légitimité de l’IA, ses partisans (comme des entreprises de la legal tech, des réformateurs au sein des institutions publiques ou certains chercheurs) avancent plusieurs arguments. Contrairement à un juge humain, susceptible d’être influencé par la fatigue, l’ordre des dossiers, ses valeurs ou même l’apparence d’un prévenu, l’algorithme se veut impartial. Son verdict repose sur des critères prédéfinis, sans états d’âme.

Cette impartialité accroît la prévisibilité des sanctions : un même acte conduit à une même peine, ce qui réduit les disparités entre décisions. Or, une sanction claire et attendue pourrait envoyer un signal plus fort aux citoyens et prévenir davantage les infractions. En outre, l’IA promet une justice plus rapide en automatisant certaines opérations comme la recherche documentaire, l’analyse ou l’aide à la rédaction : la célérité des sanctions, qui pourrait en découler, est bien connue pour jouer un rôle central dans leur efficacité dissuasive. Plusieurs experts reconnaissent que les IA permettent d’accélérer l’action de la justice.

Benoît Frydman, professeur à la faculté de droit de l’université libre de Bruxelles (ULB), « Comment l’IA transforme le droit et la justice ? », Collège de France, octobre 2025.

Enfin, si elles sont conçues de manière transparente et sur des données non biaisées, les décisions automatisées peuvent réduire les discriminations qui minent parfois les décisions de justice, comme celles liées à l’âge ou au genre. Par exemple, le chercheur Daniel Chen, explique que les IA pourraient permettre de corriger les biais des juges humains. Dans cette perspective, l’IA est alors présentée par divers acteurs (start-up de la legal tech, réformateurs pro-IA, experts) comme ayant la capacité de renforcer le sentiment de justice et, par ricochet, la force dissuasive des peines.

Quand la sanction devient trop « froide »

Mais la médaille a son revers. L’IA apprend essentiellement des données issues de jugements humains. Or, ces données peuvent être biaisées. Au lieu de corriger les injustices du passé, on risque de les ancrer, et ce dans un système encore plus opaque, difficile à contester, typique des armes de destruction mathématique (des algorithmes opaques, à grande échelle, qui prennent des décisions impactant gravement la vie de millions d’individus, tout en étant injustes car ils reproduisent et amplifient les inégalités sociales).

Et surtout, la justice, ce n’est pas qu’un calcul. Les juges incarnent une autorité morale. Leur rôle n’est pas seulement d’appliquer la loi, mais de porter un message à l’échelle de la société : dire publiquement ce qui est inacceptable, reconnaître la souffrance des victimes, condamner un comportement en termes éthiques. Cette dimension symbolique est particulièrement importante pour les crimes graves, où l’attente n’est pas seulement la sanction mais aussi l’expression collective d’un rejet moral. Or, l’IA ne peut transmettre ce message. Dans ces cas, elle pourrait être perçue comme moins légitime et donc moins dissuasive.

De plus, les juges ont une certaine latitude pour individualiser les peines, c’est-à-dire pour ajuster les peines en fonction d’éléments variés, souvent qualitatifs et subjectifs (personnalité du prévenu, circonstances et spécificités de l’infraction), difficiles à formaliser et à intégrer dans un système décisionnel relevant d’une IA.

Petits délits, actes criminels : l’IA et les juges à l’épreuve

Une expérience que nous avons conduite en France, en 2023, sur plus de 200 participants a cherché à tester si la perception d’une même punition varie selon qu’elle émane d’un juge humain ou d’une IA. Sur la base de scénarios d’infractions identiques et de sanctions identiques, les participants ont été affectés aléatoirement soit au cas où la décision avait été rendue par un juge humain, soit au cas où elle avait été rendue par une IA. Dans le cas banal d’une personne négligente laissant les excréments de son chien sur le trottoir, la même sanction apparaissait plus dissuasive si elle venait… d’une IA. Facile à juger, cette infraction mineure semble se prêter à un traitement algorithmique, clair et rapide. Mais dans le cas d’un incendie criminel, la sanction par l’IA n’était pas jugée plus dissuasive que celle d’un juge. Comme si, face à une faute lourde, l’autorité morale d’un magistrat restait indispensable.

Bien entendu, notre étude est une modélisation simplifiée de la réalité, dans un cadre épuré, qui passe sous silence de nombreux paramètres. Par exemple, un contrevenant potentiel ne connaît pas toujours la sanction encourue au moment où il envisage de passer à l’acte. Néanmoins, les études montrent que les individus ont une idée de ce qu’ils encourent en s’engageant dans certains comportements et qu’ils révisent leurs croyances en fonction de leurs propres expériences ou de celles vécues par d’autres.

Faut-il en conclure qu’il vaut mieux confier les délits mineurs aux machines et les crimes graves aux humains ? Pas forcément. Cependant, l’expérience révèle un point clé : nous n’attendons pas la même chose d’une sanction selon la gravité de l’infraction.

Peut-être que l’avenir de la justice réside non pas dans un remplacement, mais dans une alliance, dans l’exploitation intelligente d’une complémentarité. Les juges assurent une multitude de fonctions qui ne pourraient être effectuées par un algorithme. Ils représentent notamment une figure d’autorité humaine, garante d’un principe de justice démocratique et soucieuse du bien-être de la société, qui dépasse la simple répression pour représenter la volonté générale et garantir l’équilibre social. Entre autres missions, ils incarnent la société, interprètent les zones grises et sont chargés de transmettre le message moral de la sanction. L’IA pourrait les épauler en contribuant à renforcer la prise en compte automatisée de certains critères jugés préalablement pertinents. Elle pourrait augmenter la rapidité de la prise de décision et assurer une forme de cohérence des jugements en évitant des écarts trop importants entre sanctions pour une infraction similaire.

Une question de confiance

Derrière cette révolution judiciaire, il y a une question plus large : à qui faisons-nous confiance ? Si l’opinion perçoit l’algorithme comme une boîte noire, reproduisant les biais avec une froideur implacable, c’est l’autorité des systèmes juridique et judiciaire qui risque de vaciller.

La justice n’est pas seulement affaire de règles, c’est aussi une scène où la société dit ses valeurs. Tant que les algorithmes ne pourront pas endosser ce rôle symbolique, leurs sentences ne pourront pas remplacer celles énoncées par les juges. Mais s’ils sont conçus avec transparence, rigueur et contrôle humain, ces algorithmes pourraient rendre la justice plus prévisible, et potentiellement, plus dissuasive. Encore faut-il ne jamais oublier qu’au bout d’une ligne de code, ce n’est pas une donnée abstraite qui est jugée, mais un être humain bien réel.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’IA peut-elle rendre la justice ? – https://theconversation.com/lia-peut-elle-rendre-la-justice-269667