40 ans après la catastrophe nucléaire de Tchernobyl, l’insaisissable responsabilité

Source: The Conversation – France (in French) – By Antoine Weidmann, Doctorant en histoire contemporaine, Université Bordeaux Montaigne

Le 26 avril 1986, la centrale nucléaire de Tchernobyl bascule dans l’histoire. Qui est responsable de la catastrophe, la plus grave de l’histoire du nucléaire civil ? L’examen de la chaîne de responsabilités est complexe, entre défauts techniques et organisationnels et gouvernance politique partagée entre deux ministères. La catastrophe témoigne aussi d’une culture de la sûreté nucléaire bien différente de ce qu’elle est aujourd’hui en occident.


Il y a 40 ans, à 1h23 du matin, le 26 avril 1986, le réacteur N°4 de la centrale nucléaire Vladimir Ilitch Lénine, située à Tchernobyl, en actuelle Ukraine, explose. Cet évènement représente la catastrophe nucléaire la plus grave de l’histoire nucléaire soviétique et mondiale.

L’accident se produit au cours d’un test de sécurité de l’unité n°4 de la centrale, qui s’emballe alors à plus de 100 fois sa puissance nominale, conduisant à la fusion du cœur du réacteur puis à l’explosion de celui-ci. En cause, une série de défaillances humaines et techniques. La catastrophe prend de court toutes les autorités soviétiques par son ampleur. Après avoir, dans un premier temps, minimisé la gravité de l’accident, celles-ci sont rapidement confrontées à la réalité du désastre.

À ce moment précis, il n’est pas certain que les dirigeants aient pleinement conscience de toutes les conséquences de l’accident. Mais les défauts du complexe nucléaire soviétique, tant en matière de conception que de procédures, étaient connus, en tout cas par certains dirigeants et scientifiques.

Peut-on retracer la chaîne des responsabilités ayant conduit à l’accident ? L’exercice est périlleux : la responsabilité de l’accident repose sur un concours de circonstances, permis par les failles d’un système technique et organisationnel très différent de celui qui structure aujourd’hui la sûreté nucléaire en Europe.

La technologie RBMK, instable par conception

La construction de la centrale nucléaire Lénine à Tchernobyl débute en 1970. Elle aboutit à la mise en service de quatre réacteurs entre 1978 et 1984. En 1986, année de la catastrophe, un cinquième réacteur est encore en cours de construction depuis 1981. La centrale est située dans le nord de l’Ukraine proche de Kiev et de la frontière avec la Biélorussie. Son refroidissement par eau est assuré par la rivière Pripiat, un affluent du Dniepr qui se jette dans la mer Noire.

Les réacteurs de la centrale sont de type RBMK (pour Reaktor Bolshoy Moshchnosti Kanalnyi, soit réacteur de grande puissance à tubes de force, en français) comme environ la moitié du parc nucléaire soviétique à cette période. Il s’agit d’un réacteur refroidi à l’eau et modéré au graphite.

Cette technologie, propre à l’Union soviétique, dispose d’avantages, notamment en termes de maintenance et d’approvisionnement en isotopes, puisqu’il permet de produire du plutonium, utile dans le cadre d’un programme nucléaire militaire. Mais sa conception le rend instable.

En effet, le réacteur RBMK est conçu en faisant appel à un coefficient de vide positif. Il permet de caractériser l’évolution de la réactivité dans le cœur en cas de diminution de la densité du fluide caloporteur, par exemple en cas de fuite. Le coefficient de vide décrit donc la tendance spontanée du réacteur à augmenter sa puissance (coefficient positif), à rester dans un état stable (coefficient nul), ou à diminuer spontanément sa puissance (coefficient négatif, soit l’arrêt progressif de la réaction en chaîne), ce qui est le cas des réacteurs à eau pressurisée français.

De par ce coefficient de vide positif, les réacteurs RBMK sont fondamentalement instables et doivent être régulés grâce à l’action des opérateurs. De ce fait, il existe un risque d’emballement de la réaction en chaîne, pouvant jusqu’à conduire à la fusion du combustible nucléaire, comme cela fut le cas à Tchernobyl. Les ingénieurs soviétiques se devaient donc d’être très soucieux de la stabilité du réacteur.

D’autres contraintes techniques pèsent sur les opérateurs, comme la présence de graphite à l’extrémité des barres de contrôle, qui est inflammable. Ceci augmente la réactivité dans le cœur du réacteur au début de leur insertion, ce qui peut devenir déstabilisant si un grand nombre sont insérés en même temps, comme lors d’un arrêt d’urgence.

Ce n’est pas tout : le bouton AZ5, qui permet de déclencher la procédure d’arrêt d’urgence de la centrale RBMK, met plus de vingt secondes à fonctionner, ce qui accroît encore les risques de perte de contrôle de la réaction en chaîne.

Le bouton AZ5 (il s’agit du bouton recouvert d’un boîtier en métal, en haut de la console de pilotage, au milieu de la photographie) était supposé déclencher la procédure d’arrêt d’urgence de la centrale.
Kuba Daneck, CC BY

Au sein des centrales RBMK de l’époque, il existait une consigne informelle : ne pas diminuer la puissance du réacteur sous les 700 mégawatts (MW) thermiques de manière prolongée et toujours laisser trente barres de contrôle au minimum dans le cœur du réacteur. Ces consignes ont été outrepassées à Tchernobyl.




À lire aussi :
Que sont devenus les réacteurs RBMK ?


En 1975 déjà, des incidents sur une centrale RBMK

Après la catastrophe de Tchernobyl, dans un contexte de réformes politiques, Mikhaïl Gorbatchev, veut encourager la transparence sur la situation. Le 14 mai 1986, lors d’une allocution télévisée, il prend la parole pour rendre compte de la situation sur place, signe fort d’un changement des usages politiques soviétiques.

Suite aux pressions internationales – et en particulier de l’Agence internationale de l’énergie atomique (AIEA) –, le comité central du parti communiste conduit alors, dès juillet 1986, une enquête partiellement publique afin d’identifier les causes des évènements survenus dans le réacteur N°4.

Cette enquête apporte des éléments de culpabilité, toutefois répartis entre les concepteurs, les opérateurs et les régulateurs, tout en démettant une série de responsables hiérarchiques, jusqu’à Efim Slavski, à la tête du ministère de l’ingénierie mécanique semi-lourde (Sredmash), alors partiellement en charge de l’énergie nucléaire, cette responsabilité étant partagée avec le ministre de l’énergie de l’électrification (Minenergo).

Hans Blix, directeur général de l’AIEA (à gauche), serre la main de M. V.A. Legasov, premier directeur adjoint de l’Institut de l’énergie atomique Kurchatov, à l’occasion de la conférence organisée fin août 1986.
Katholitzky, Stefan (copyright), IAEA-ARC-AV-PH-01-02-A2789-003

A la fin de l’été 1986, un sommet est organisé à Vienne par l’AIEA, où les soviétiques annoncent révéler l’intégralité de la catastrophe pour obtenir une expertise occidentale.

Les scientifiques soviétiques ont alors une consigne de transparence, à rebours de la culture du secret qui prévalait jusqu’alors. Une telle autorisation de divulguer des éléments techniques, tout en préservant l’industrie nucléaire comme élément stratégique au développement soviétique, est inédite pour l’URSS.

La délégation soviétique, dans le rapport qu’elle présente aux experts, pointe quatre facteurs déterminants qui ont conduit à la catastrophe :

Vue de la ville abandonnée de Pripiat, en 1988.
Report on the Visit of a U. S. Nuclear Safety Delegation to the Soviet Union, August 19-31, 1988
  • des procédures suboptimales,

  • leur transgression par les opérateurs,

  • des conséquences radiologiques mal prises en compte,

  • ces dernières ayant mené à une évacuation tardive de la ville de Pripiat.

À la suite de la conférence, un groupe d’experts de l’AIEA est constitué. Il livre son rapport en septembre 1986. Par la suite, le rapport présenté par la délégation soviétique est classifié, après que certains passages aient été publiés dans la Pravda. Le rapport de l’AIEA y est également publié.

À noter que la technologie des réacteurs de type RBMK avait déjà été remise en cause plus de 10 ans avant la catastrophe. En 1975 déjà, plusieurs incidents étaient survenus sur la centrale de Leningrad, qui avaient alors été étouffés par les responsables locaux de la centrale. On retrouve des problèmes liés à la conception mais aussi à la qualité de la construction et à l’organisation.

Autrement dit : la délégation soviétique présente à la conférence de Vienne, en août 1986, ne peut dissimuler sa connaissance des problèmes soulevés par l’AIEA. Si la dimension technique est essentielle, couplée à l’enchaînement improbable des évènements, les experts de l’AIEA concluent que les principales causes de l’accident sont humaines et organisationnelles, même s’ils refusent dans le même temps de considérer qu’elles relèvent seulement de l’erreur humaine.

Culture du secret, absence de redondance… une approche différente de la sûreté nucléaire

Pour comprendre la catastrophe, il faut revenir sur la vision qu’a alors le système politique soviétique de la sûreté nucléaire.

La culture du secret, héritée du programme nucléaire militaire soviétique, n’a pas permis de récolter, comme ailleurs, les fruits des retours d’expérience d’incidents nucléaires. Au contraire, elle a créé une fracture importante dans la perception du risque entre les concepteurs et les opérateurs des centrales.

Ces derniers dépendent d’ailleurs de deux ministères distincts : les concepteurs des centrales dépendent du ministère de l’ingénierie mécanique semi-lourde (Sredmash) et les opérateurs du ministère de l’énergie et de l’électrification (Minenergo).

La culture du secret concerne surtout le premier (Sredmash), qui est l’héritier du programme nucléaire militaire. La rétention d’informations y est forte vis-à-vis du Minenergo. Or, l’industrie nucléaire soviétique s’est bâtie depuis les années 1950-1960 autour de la relation ambivalente de ces deux ministères, dont les chevauchements de compétences sont nombreux.

Le principe de redondance (qui consiste à doubler, voire tripler ou quadrupler les systèmes de sûreté pour faire face aux cas de dysfonctionnement) est globalement absent des centrales nucléaires soviétiques, tandis que de l’autre côté du rideau de fer, il en est une composante majeure.

La conception soviétique de la centrale nucléaire doit enfin être vue comme un système sociotechnique. De son élaboration à sa mise en œuvre opérationnelle, elle implique des méthodes de gestion très différentes de celles qui valent en Occident. Le facteur humain y est perçu comme une redondance dans le système de sûreté nucléaire permettant de pallier, grâce à l’existence de spécialistes à tous les échelons, les potentiels manquements de chacun d’entre eux.

Dans le même temps, la latitude d’intervention et de prise de décision laissée aux opérateurs des centrales est en réalité réduite par un carcan administratif rigide et contradictoire, conduisant à une relative impuissance de ces derniers.




À lire aussi :
Three Mile Island, Tchernobyl, Fukushima : le rôle des accidents dans la gouvernance nucléaire


Les corrections apportées aux centrales RBMK

Suite à la catastrophe de 1986, des améliorations palliatives sont apportées au design des réacteurs RBMK.

D’abord pour réduire les effets du coefficient de vide, qui reste toutefois toujours positif à l’issue de ces mesures.

  • Cela passe par l’addition entre 80 et 90 barres de contrôle inamovibles, qui remplacent une partie des crayons de combustible.

  • La consigne de laisser, au minimum, 26 à 30 barres de contrôle dans le cœur est relevée entre 43 et 48 barres.

  • Enfin le remplacement progressif du combustible est décidé pour augmenter sa qualité : il passe d’un enrichissement de 2 % à 2,4 % d’uranium.

Le système d’arrêt d’urgence est également modifié, avec un système d’arrêt rapide comprenant 24 nouvelles barres de contrôle et leur reconception.

Photographie dans le bâtiment du réacteur RMBK de la centrale nucléaire de Leningrad, en 2008.
RIA Novosti, CC BY-SA

De surcroît, de nouveaux systèmes d’alerte pour déclencher plus rapidement la procédure d’arrêt d’urgence sont installés. Le système de dépressurisation de la vapeur est aussi revu pour augmenter ses capacités de réduction de pression par condensation et évacuation.

Quarante ans après cette catastrophe, la Russie demeure le seul État à faire encore fonctionner des réacteurs RBMK, mais ce ne fut pas toujours le cas. L’Ukraine a interrompu la production électrique du dernier réacteur de Tchernobyl en l’an 2000, tandis que la Lituanie a fermé son dernier réacteur RBMK de la centrale d’Ignalina en 2009, dans le cadre de son adhésion à l’Union européenne.




À lire aussi :
Plus de trois décennies après Tchernobyl, la Russie joue crânement la carte nucléaire


The Conversation

Weidmann Antoine a reçu des financements de l’Université Bordeaux Montaigne.

ref. 40 ans après la catastrophe nucléaire de Tchernobyl, l’insaisissable responsabilité – https://theconversation.com/40-ans-apres-la-catastrophe-nucleaire-de-tchernobyl-linsaisissable-responsabilite-280477

« Nudges » et « boosts » : comment s’articulent-ils ?

Source: The Conversation – France (in French) – By Pascale Tugayé, Doctorante en management public, Université Côte d’Azur

« Nudge » et « boost » peuvent être utilisés pour obtenir un comportement particulier d’une personne. Mais comment ces deux leviers se combinent-ils ? Lequel utiliser ? Dans quelles conditions ?


Le « nudge » a acquis une grande visibilité depuis que Thaler et Sunstein ont développé le concept au début de ce siècle. Sur la base des travaux dans le domaine de l’économie comportementale de Richard Thaler, prix Nobel d’économie en 2017, de nombreuses expérimentations ont permis de se pencher sur nos processus de décision.

Moins médiatisé, le « boost » appartient à un autre champ d’intervention concernant les comportements. Inspiré des travaux de Gigerenzer sur les prises de décisions rapides et basées sur des informations faites d’idées schématiques, son but est de développer davantage des compétences basiques, très techniques mais pertinentes, dans le but de faire un choix plus construit.

Comportement réel ou désirable ?

En effet, le nudge est intégré au sein de ce que Thaler et Sunstein appellent une architecture de choix. Cette dernière doit être étudiée pas à pas et revisitée dans des contextes distincts comme une cantine, une rue voire un relevé de banque, pour mettre en évidence la différence observée entre le comportement réel chez les individus et le comportement désirable.




À lire aussi :
Mégots jetés au sol : quand l’effet des nudges part en fumée…


Par « désirable », il est entendu privilégié par la collectivité (par exemple, jeter moins de mégots dans l’espace public) ou tout simplement préféré sur le long terme par un individu concerné (finaliser un rapport difficile à rédiger). En l’occurrence, chacun se doit de prendre de nombreuses décisions quotidiennement.

Deux systèmes sont traditionnellement identifiés lors de la prise de décision individuelle. Le cerveau a l’habitude de prendre la majorité de ses décisions sur la base d’un système de pensée rapide et peu réflexif. C’est le fameux « système 1 » de pensée de Kahneman sur lequel sont en partie fondées les théories du nudge et du boost. Le « système 2 » de la pensée, quant à lui, nécessite une vraie réflexion coûteuse pour l’organisme, qu’il ne met en place que pour des problèmes complexes ou nouveaux.

Le nudge est conçu pour venir inciter les individus à prendre une décision plus favorable sans coercition, c’est-à-dire sans restreindre les possibilités qui s’offrent à chacun. Profondément ancrés dans une démarche de paternalisme – les hommes ont parfois besoin d’être orientés vers des choix plus pertinents – sans renoncer à l’espace de liberté de chacun, les nudges sont vus comme des instruments peu coûteux et complémentaires de démarches plus globales.

Le cousin malveillant

Souvent ludiques, ils se veulent imperceptibles et ne doivent être qu’un coup de pouce, une incitation douce, à mieux décider au sein du système rapide de pensée. Mais les nudges peuvent être considérés par certains comme des outils inquisiteurs et manipulateurs. En réponse, Thaler et Sunstein ont développé la notion de sludge (dont la traduction pourrait être boue épaisse). Soit le « cousin malveillant » du nudge qui aurait pour objectif de rendre les actions plus difficiles à réaliser, notamment par une complexification des procédures ou un temps de réalisation excessivement long. Ainsi, le simple fait de vous faire décocher l’autorisation de recevoir des actualités commerciales dans le cadre d’une offre promotionnelle est assimilable à une tentative de sludge.

Une intuition avantageuse

Le boost, de son côté, repose sur l’idée que le passage par un système de pensée long et complexe, dans certains cas, pourra nuire à l’individu et l’empêcher de prendre la meilleure décision. Gigerenzer prend l’exemple d’une expérience dans un hôpital pour orienter les patients avec une douleur cardiaque sur la base de 3 ou 19 critères. Le système frugal, basé sur 3 critères, permet de mieux traiter les patients dans leur ensemble et n’empêche pas de revoir un patient avec une problématique complexe pour des processus médicaux plus longs et complets. Le travail de Gigerenzer se base ainsi sur des méthodes dites heuristiques. Herzog et Hertwig ont récemment publié un article décrivant les processus heuristiques comme des règles générales très basiques délaissant certaines informations et permettant de faire des choix plus rapidement.

Revenons à notre exemple précédent : d’aucuns pourraient croire que poser trois questions à chaque patient ne suffirait pas à les orienter en cas d’urgence. Or, ces trois questions décisives seront mieux canalisées que 19 critères, de plus, elles sont basées sur des vérités scientifiquement démontrées : ces trois axes directeurs suffiront à guider l’intuition des professionnels. En étant orientés plus rapidement, les cas les plus urgents auront davantage de chance de guérison et les cas plus complexes feront des analyses plus poussées.

En réalité, tout un chacun peut initier un travail en réalisant une carte mentale (parfois aussi appelée carte heuristique) : ce schéma pourra servir de guide ou de synthèse d’une découverte. Il est rarement complet mais permet de tracer en quelques minutes les grands axes de la pensée. Le boost nous invite à apprécier notre intuition tout en l’aidant à dépasser ses limites : les biais. En effet, les décisions basées sur une pensée heuristique sont souvent assimilées à des biais cognitifs. Alison Gopnik explique que les bébés se forment à notre monde en calculant des probabilités. En grandissant, nous intégrons peu à peu les informations autour de nous en déduisant des probabilités de notre vécu. Nous nous créons des biais cognitifs sous forme de pensée heuristique, d’intuition, des autoroutes de la pensée pour aboutir plus facilement, au risque parfois d’adopter des comportements qui nous desservent.

Ces heuristiques rapides, lorsqu’elles sont réalisées sur la base de statistiques et probabilités démontrées comme dans un boost, permettent à chacun de prendre des décisions plus rationnelles. Ces boosts pourront prendre plusieurs formes détaillées par Herzog et Hertwig : apprentissage des réelles statistiques liées à une situation, création de règles de séparation financière entre vie privée et vie professionnelle, voire un self-nudge. Ce dernier boost bien précis consiste à observer notre architecture de choix et les biais qui nous causent des tracas. Il s’agit alors de prévoir des nudges soi-même pour parvenir à un meilleur comportement. Dans ce cas, l’adhésion de l’individu est entière. Concrètement, s’imposer une période sans notification et sans appel sur son poste de travail peut être une forme de self-nudge. L’individu boosté s’autorise cette intervention sur son espace de travail pour mieux achever son but.

Former ou inciter, faut-il choisir ?

Une analyse fine de plusieurs nudges à dimensions écologiques est parue en 2023 afin de savoir lesquels étaient les plus efficaces. Cette analyse réalisait une classification des nudges en fonction de deux leviers principaux que sont la faisabilité (comment ?) et la désirabilité (pourquoi ?).

Au sein du levier « faisabilité », il s’agit de jouer sur l’architecture de choix en cadrant l’information, ou en donnant de la visibilité au meilleur choix, ou encore en facilitant l’information. Ainsi, des hôtels asiatiques ont placé un autocollant à un seuil écoresponsable de remplissage en eau des baignoires. Cette première catégorie de nudges verts semble mieux fonctionner que les autres car elle réduirait la distance psychologique à la mise en œuvre d’une action.

Un effet boomerang

Au sein du levier de la désirabilité, se cache entre autres un type de nudge extrêmement connu et décrié qu’est celui de la désirabilité sociale : dévoiler aux yeux de tous sa conduite, en forçant chacun à employer des sacs poubelles transparents par exemple ; ou encore, être comparé à une norme parfois lointaine et vague, comme il a pu être observé sur certaines factures d’électricité décrivant l’écart de consommation d’un foyer à la norme. En dépit d’un effet positif avéré, ces dispositifs sont susceptibles de générer un effet contre-productif. C’est ce que certains chercheurs appellent un effet boomerang : se sentant manipulée, une frange de la population adopte par réaction le comportement non désiré. L’ensemble de ces types de nudges ne permettent pas aux individus de prendre du recul sur leur comportement.

France Culture 2022.

Au contraire, le boost fonctionne sur des cartes mentales et se propose de donner de nouvelles compétences. Il peut s’agir d’améliorer la compréhension de la fixation d’un prix pour un service complexe, par exemple. Certaines formes de boosts peuvent même être déclenchées volontairement par les individus ou bien par un tiers, à l’instar de ceux permettant de développer la motivation pour un apprentissage.

Nudge et boost visent chacun à modifier le système rapide de pensée. Le nudge joue au sein de la prise de décision sur l’action elle-même, alors que le boost reconfigure, via un processus légèrement plus énergivore lors de la découverte, les choix réalisés. S’il faut effectivement choisir l’outil, il s’agit toujours de composer avec les limites de l’esprit humain.

Un horizon temporel différent

Les effets des nudges semblent ne pas perdurer dans le temps. Ennui, lassitude, détérioration… Les nudges associés à la préservation de l’eau ou de l’énergie, par exemple, ont un effet direct et notable mais qui s’estompe en quelques mois.

Le boost, au contraire, n’a pas toujours d’effet direct sur les choix réalisés. Un temps d’adaptation ou de motivation est toléré entre le moment où un individu rencontre un boost et la mise en place du comportement rationnel et désirable. En revanche, le boost serait plus pérenne dans le temps. Il implique une meilleure compréhension des raisonnements heuristiques de l’individu et suppose un engagement de la part de l’individu boosté.

Les nudges et les boosts fonctionnent différemment mais ont tous deux pour objectif de faciliter les prises de décision rapides et efficaces au quotidien. Il existe encore des zones grises où chacun pourra déterminer ce qui relève du nudge ou du boost. Leurs effets sont souvent positifs, neutres et parfois, contre-productifs, surtout lorsque la logique sous-jacente est proche d’une certaine forme de manipulation. Dans tous les cas, ils ne peuvent suffire à eux-mêmes et doivent être considérés comme des outils possibles, par définition non neutres.

The Conversation

Tugayé Pascale est membre du laboratoire GRM et de l’Association des Doctorants Francophones en Gestion. Elle recevra des financements de la Chaire partenariale l’Eau dans les territoires des Alpes-Maritimes pour ses recherches.

ref. « Nudges » et « boosts » : comment s’articulent-ils ? – https://theconversation.com/nudges-et-boosts-comment-sarticulent-ils-268785

Ce que les paiements en cryptomonnaies exigés par l’Iran disent du rôle millénaire de la monnaie

Source: The Conversation – France (in French) – By Mikael Fauvelle, Associate Professor and Researcher, Department of Archaeology and Ancient History, Lund University

Alors que s’érode la domination du dollar américain, le recours aux cryptomonnaies met en lumière un des rôles historiques de la monnaie. PicsPD/Pixnio, CC BY

Du bronze aux cryptomonnaies, l’histoire montre que la monnaie sert d’abord à commercer à distance, entre inconnus. Les pratiques actuelles de l’Iran et de la Russie en offrent une illustration contemporaine.


Lorsque l’Iran a commencé à exiger un paiement en échange d’un passage sécurisé dans le détroit d’Ormuz, Téhéran a ouvert la porte à des règlements en cryptomonnaies. Même logique du côté du réseau opaque de pétroliers qui, depuis l’invasion à grande échelle de l’Ukraine en 2022, écoule clandestinement du pétrole russe sur les marchés mondiaux : ces flux sont souvent réglés de cette manière.

Partout dans le monde, les acteurs illicites se tournent de plus en plus vers les cryptomonnaies pour commercer en échappant aux sanctions américaines. En procédant ainsi, des États comme la Russie et l’Iran réactivent une fonction ancienne de la monnaie, déjà à l’œuvre dès l’âge du bronze : permettre des échanges entre inconnus, au-delà des frontières politiques.

Dans mon ouvrage Shell Money (2024, non traduit en français), qui explore certaines des plus anciennes formes de monnaie au monde, je montre que des dynamiques similaires traversent toute l’histoire.

Les monnaies modernes comme le dollar américain ou l’euro reposent sur la confiance accordée aux institutions financières des États — à l’image des premières pièces métalliques de l’Antiquité, frappées par les cités grecques pour lever l’impôt et rémunérer les soldats. À la préhistoire, en revanche, de nombreux systèmes monétaires se sont développés sans l’appui d’un pouvoir étatique, à l’image des lingots de bronze.

Cuivre, étain et échanges à longue distance

L’âge du bronze (environ 2500 à 500 av. J.-C.) est marqué par des voyages à longue distance et une forte connectivité interrégionale. Dans ce contexte, disposer d’un moyen d’échange commun était essentiel pour entretenir les réseaux commerciaux.

Car les outils en bronze étaient fabriqués à partir de cuivre et d’étain, deux ressources disponibles seulement dans certaines régions du monde ancien. En Europe du Nord, le cuivre provenait notamment du pays de Galles, des Alpes, de l’Autriche, de la Sardaigne ou de la péninsule Ibérique, tandis que l’étain venait principalement de Cornouailles et du Devon. Cela impliquait que, par exemple, tout le cuivre utilisé en Scandinavie devait être acheminé via des échanges à longue distance.

Une grande partie de ces échanges reposait sur des lingots de bronze — anneaux, barres ou têtes de hache — dont le poids et la forme étaient fortement standardisés d’une région à l’autre. Cette standardisation les rendait interchangeables, une propriété essentielle de toute forme de monnaie. Les objets en bronze étaient également fragmentés en unités de taille compatibles avec des échanges de type marchand.

Le besoin de monnaie à l’âge du bronze

Voyager à l’âge du bronze n’avait rien d’aisé. Les déplacements sur de longues distances étaient périlleux et pouvaient durer des mois. Un marchand itinérant n’avait aucun moyen de savoir si ses partenaires commerciaux seraient encore présents au moment du voyage de retour. Les formes de réciprocité propres aux communautés locales ne s’appliquaient plus : les échanges devaient devenir transactionnels.

Dans ce contexte, le bronze s’est imposé comme un moyen d’échange standardisé. En transportant des lingots de bronze, un voyageur pouvait commercer à grande distance, avec l’assurance que cette forme de valeur serait acceptée où qu’il se rende.

Dans d’autres régions du monde ancien, des coquillages et des perles de coquillage faisaient office de monnaie. Le caractère chinois (bèi) provient ainsi d’un pictogramme représentant un coquillage cauri, et entre aujourd’hui dans la composition de centaines de caractères liés à la finance, notamment ceux signifiant acheter, vendre, richesse ou profit. Importés depuis l’océan Indien, les cauris ont été utilisés comme monnaie en Chine sous la dynastie Zhou.

En Amérique du Nord, de petites perles de coquillage servaient également de monnaie et circulaient à l’intérieur du continent, à des milliers de kilomètres des littoraux où elles étaient collectées et produites. Ces exemples montrent que la monnaie d’échange ne se limitait pas aux métaux : elle pouvait émerger à partir de tout bien à la fois désirable et rare.

Le recul du dollar américain

La domination des monnaies fiduciaires émises par les États — c’est-à-dire non adossées à une matière première comme l’or — repose sur la confiance qu’elles inspirent, leur liquidité et le soutien institutionnel dont elles bénéficient.

Aujourd’hui, le commerce international est largement dominé par le dollar américain. Mais à mesure que le monde devient de plus en plus multipolaire — avec des centres de gravité concurrents en Amérique du Nord, en Europe et en Chine — on peut s’attendre à voir le rôle du dollar s’éroder.

En réalité, certains indices suggèrent que ce mouvement est déjà à l’œuvre. Le rôle du dollar comme principale monnaie de réserve mondiale — c’est-à-dire détenue en grandes quantités par les États et les banques centrales pour stabiliser leurs économies — est passé d’environ 70 % à la fin des années 1990 à moins de 60 % aujourd’hui. Une tendance appelée à se poursuivre, dans un contexte marqué par des signes d’isolement croissant des États-Unis, des tensions au sein de la coopération transatlantique, et la montée en puissance économique de la Chine.

Pour autant, la fragmentation politique ne signifie pas la fin du commerce international. L’histoire regorge de périodes — dès l’âge du bronze — où morcellement politique et dynamisme des échanges coexistaient. Pour ceux qui cherchent à s’affranchir du contrôle des États, cela pourrait se traduire par une évolution des formes de monnaie utilisées.

Video: Bloomberg Television.

De nouvelles formes de monnaie

Les différences sont nombreuses entre les cryptomonnaies contemporaines et les monnaies-marchandises de la préhistoire. Les cryptomonnaies restent peu utilisées et rarement acceptées dans les transactions du quotidien, leur valeur est très volatile et, comme les monnaies fiduciaires modernes, elles ne possèdent pas de « valeur d’usage » au sens où pouvaient en avoir des lingots de bronze ou même des perles de coquillage.

Elles n’en constituent pas moins, toutes deux, des formes de monnaie « par le bas » — c’est-à-dire non contrôlées par les États — qui existent en dehors de la supervision d’un gouvernement unique ou d’un grand acteur financier.

C’est précisément cette absence de contrôle étatique qui pousse des pays sous sanctions comme l’Iran ou la Russie à exiger des paiements en cryptomonnaies. À mesure que le levier financier des États-Unis s’affaiblit, ces transactions deviennent plus difficiles à bloquer ou à sanctionner, ce qui pourrait transformer en profondeur le financement des conflits à venir.

Dans ce contexte, les cryptomonnaies pourraient tirer leur épingle du jeu, en continuant d’assurer l’une des fonctions les plus anciennes de la monnaie : permettre de commercer avec des inconnus.

The Conversation

Mikael Fauvelle reçoit des financements de la Bank of Sweden Tercentenary Foundation et de la Marcus and Amalia Wallenberg Foundation. Il est l’auteur de « Shell Money: A Comparative Study » (Cambridge University Press).

ref. Ce que les paiements en cryptomonnaies exigés par l’Iran disent du rôle millénaire de la monnaie – https://theconversation.com/ce-que-les-paiements-en-cryptomonnaies-exiges-par-liran-disent-du-role-millenaire-de-la-monnaie-281264

Hazel Kyrk, l’économiste méconnue qui anticipa notre société de consommation moderne

Source: The Conversation – in French – By David Philippy, Maître de conférences en économie, Institut catholique de Paris (ICP)

Dès le début du XXᵉ siècle, Hazel Kyrk cherche à fournir aux consommateurs les outils de leur émancipation économique. Wikimediacommons

Dès 1923 dans sa Théorie de la consommation, Hazel Kyrk (1886-1957) anticipe l’émergence de la société de consommation en cherchant à analyser les raisons pour lesquelles les ménages états-uniens achètent des biens ou des services. Loin de se cantonner à l’étude du foyer et de la famille, comme beaucoup de femmes économistes de l’époque, son travail visionnaire influence encore aujourd’hui notre façon de penser la consommation.


Une question inutile, sans intérêt. Jusqu’aux années 1920, c’est ainsi que les économistes perçoivent l’étude de la consommation… Pour Adam Smith, le père fondateur de l’économie au XVIIIᵉ siècle, la consommation est seulement le « but ultime » de la production. Il n’y a donc pas lieu de l’étudier pour elle-même. À la fin du XIXᵉ siècle, les quelques rares économistes qui s’intéressent à l’étude de la consommation, comme Thorstein Veblen, sont peu entendus.

C’est dans ce contexte que, en 1923, Hazel Kyrk (1886-1957) publie son tout premier livre, Théorie de la consommation (A Theory of Consumption). Née dans une famille rurale modeste au cœur de l’État d’Ohio aux États-Unis, elle travaille un temps comme aide familiale chez l’économiste Leon Carroll Marshall (1879-1966). Rencontre décisive puisqu’elle conduit Hazel Kyrk à poursuivre ses études à l’Université de Chicago, où elle obtient son doctorat d’économie en 1920.

Tout au long de sa vie, la question qu’elle pose est la suivante : dans quelle mesure les consommateurs sont-ils libres de leurs choix ?

« Les consommateurs sont des animaux sociaux »

Dans sa Théorie de la consommation, Hazel Kyrk formule une critique audacieuse au concept du libre marché. Afin d’appréhender correctement comment les individus font leurs choix de consommation, nous dit-elle, il faut prendre en compte l’ensemble de leur environnement de décision, et ne pas se limiter à la seule loi de l’offre et de la demande. Selon l’économiste, les avancées en psychologie permettent de montrer que :

« Les consommateurs sont des animaux sociaux, membres de groupes sociaux, au sein d’une organisation sociale complexe. »

Pour ce faire, elle développe une théorie novatrice de la liberté du choix, prenant en compte les facteurs sociologiques, psychologiques et l’influence de la publicité. En l’articulant avec la question du pouvoir d’influence des entreprises, elle pose un regard attentif sur le développement du marketing.

L’une des pistes qu’elle suggère est notamment d’éduquer les consommateurs à reconnaître les mécanismes utilisés par les professionnels du marketing afin « de développer des défenses contre les méthodes indésirables en vogue ».

Le genre comme élément déterminant

Théorie de la consommation, publié en 1923.
McMaster University

Hazel Kyrk contribue de façon significative au développement du champ de l’économie de la consommation, dont elle est désormais devenue la figure de proue. Elle élabore des enquêtes nationales et d’analyses statistiques de grande ampleur sur la consommation des ménages états-uniens au sein de l’administration fédérale. Ses travaux nous permettent d’appréhender la façon dont le genre apparaît comme un élément déterminant dans la construction de la science économique comme discipline.

Dans les années 1920, la science économique est clairement une affaire d’hommes. Aux États-Unis, des femmes sont diplômées d’un doctorat en économie dès les années 1900. Les thèmes de leurs recherches sont à cette époque, encore très différents de ceux de leurs homologues masculins. Elles sont plutôt encouragées à se diriger vers les questions domestiques, le travail des femmes et des enfants et, bien entendu, la consommation. L’économiste Richard T. Ely souligne en 1936 :

« Ma femme s’était penchée sur l’économie de Patten. Elle sentait qu’elle devait faire sa part pour contribuer à une bonne consommation. »

À la fin du XIXᵉ siècle, la science économique s’institutionnalise comme discipline académique à part entière, notamment lors de la création de l’American Economic Association en 1885. Ce mouvement va de pair avec l’exclusion de certains thèmes de recherche, dont fait notamment partie l’étude de la consommation. Il existe l’idée d’une « séparation des sphères » (masculine/publique vs féminine/privée). La consommation (et donc son étude) était alors associée à une image féminine, et jugée peu scientifique ou objective.

Au-delà de l’économie domestique


« The Journal of Home Economics », Février 1909, 1(1)

Au tournant du XXᵉ siècle, un groupe de femmes progressistes se rassemble et développe autour du « mouvement d’économie domestique » (« Home Economics Movement ») qui aboutit en 1909 à la création de l’American Home Economics Association.

Selon elles, le progrès doit passer par l’amélioration, voire la rationalisation, du foyer et des différentes tâches domestiques. En 1920, la majorité des femmes aux États-Unis n’exerce pas d’activité lucrative – c’est le cas pour seulement 22,4 % des femmes entre 25 et 44 ans. À ce titre, la consommation apparaît de façon croissante comme une nouvelle activité dont le périmètre dépend directement des femmes, en tant que gestionnaires des dépenses de consommation.

Comme beaucoup de femmes pourtant diplômées d’un doctorat en économie, Hazel Kyrk est systématiquement rappelée à cet héritage intellectuel duquel elle cherche à se distancer. Pourtant, dans son livre Economics Problems of the Family paru en 1933, sa perspective est celle d’une économiste, et non celle d’une économiste domestique. Elle le souligne dans sa lettre à Dorothy Dickens, datée du 29 janvier 1946 :

« Lorsqu’on m’a demandé à moi, économiste de formation, avec tout l’enseignement que j’ai reçu, de rejoindre un département d’économie domestique pour donner des cours en économie, j’ai supposé que c’était “en économie” comme les économistes utilisent le terme. Je ne suis pas compétente pour donner autre chose. »

Cet effet de rappel fut particulièrement visible lorsqu’elle obtint son poste à l’Université de Chicago en 1925•; elle accepte à la seule condition d’être également affiliée au département d’économie. Cette double affiliation ne lui est finalement donnée que cinq ans plus tard, en 1929.

Consommer devient une identité

Aux États-Unis, le contexte socio-économique au début du XXᵉ siècle est caractérisé par trois éléments importants :

  • la transformation de la place des femmes dans la société ;

  • l’émergence du consumérisme moderne ;

  • le problème croissant de la vie chère.

Face à cette triple transformation, Hazel Kyrk cherche à proposer une théorie à la fois réaliste (permettant d’expliquer correctement la réalité) et utile au plus grand nombre. Ce faisant, elle cherche explicitement à répondre au problème du coût de la vie chère, à une époque où se développe la consommation des ménages, au détriment de l’autoconsommation – comme la production domestique des biens comme les habits.

Pendant l’entre-deux-guerres, un changement social important se met en place : les ménages (et donc les individus qui les composent) se définissent de plus en plus à travers les biens et les services qu’ils consomment. Consommer n’est plus simplement une tâche, une activité banale, mais devient progressivement un élément structurant de l’identité.

Dans cette perspective, Hazel Kyrk propose une étude approfondie des « standards de vie » afin de comprendre comment évolue la perception que les ménages ont de leur propre position socioéconomique. Son objectif est de déterminer de quelle façon cela impacte leurs décisions de consommation.

Bien consommer n’est pas chose aisée, tant les influences auxquelles le consommateur est confronté sont multiples. Selon Hazel Kyrk, le rôle de l’expert de la consommation doit être de fournir aux consommateurs les outils de son émancipation économique en promouvant les sources de son autonomie :

« L’éducation dont le consommateur a le plus besoin est celle qui le libérera de son conformisme aveugle. Il doit apprendre à consulter ses besoins propres, à former ses propres jugements, à désirer pour lui-même. »

Le champ de recherche inauguré par Hazel Kyrk dans sa Théorie de la consommation de 1923 sera suivi de multiples postérités intellectuelles, en particulier à travers plusieurs de ses doctorantes à Chicago. Ce sera notamment le cas de Margaret G. Reid (1896-1991) dont les travaux inspireront directement plusieurs Prix Nobel d’économie comme Franco Modigliani ou Gary Becker.

The Conversation

David Philippy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Hazel Kyrk, l’économiste méconnue qui anticipa notre société de consommation moderne – https://theconversation.com/hazel-kyrk-leconomiste-meconnue-qui-anticipa-notre-societe-de-consommation-moderne-276199

La presse française sous l’Occupation vue par le film « les Rayons et les Ombres »

Source: The Conversation – in French – By Patrick Eveno, Professeur émérite en histoire des médias, Université Paris 1 Panthéon-Sorbonne

Jean Dujardin interprète Jean Luchaire dans le film de Xavier Giannoli. Allociné/Curiosa films

À travers le portrait d’un Jean Luchaire, collaborateur notoire, qui semble jouir de son libre arbitre dans l’exercice de sa profession, le film de Xavier Giannoli montre les compromissions, mais ne rend pas compte fidèlement des réalités de la presse française sous l’Occupation.


Le film de Xavier Giannoli, les Rayons et les Ombres, a suscité une bataille médiatique entre le réalisateur et des historiens de la Seconde Guerre mondiale.

J’aborde cette querelle sous un autre angle, celui de l’histoire de la presse. J’ai quelques munitions pour ce faire, ayant participé au Groupement de recherche (GDR) « Les entreprises françaises sous l’Occupation ». Nous avons tenu des colloques et publié des livres. Pour ma part, j’ai communiqué sur les archives des médias sous l’Occupation, puis sur la Corporation nationale de la presse française, sur le marché de la presse, enfin sur l’épuration à la Libération. En outre, j’ai publié un article sur Jean Luchaire, repris dans le livre collectif Ils ont fait la presse.

J’ai vu le film avec plaisir, parce que c’est un bon film, et j’ai compris les débats : d’un côté des historiens dépossédés de leur objet (l’Occupation, la collaboration), de l’autre un cinéaste campé sur ses certitudes, le droit au détournement fictionnel. Je ne m’attarderais pas sur la question de l’antisémitisme ou du nazisme supposés de Jean Luchaire, Laurent Joly en parle mieux que moi. Ce qui m’intéresse ici, c’est l’histoire de la presse.

Pour qui connaît mal cette période, le film rend accessible les compromissions, mais il aurait pu être plus développé, quitte à être moins romanesque. Xavier Giannoli ignore les réalités de la presse sous l’Occupation, ce qui le conduit à des travestissements malvenus, sans doute afin de rendre ses personnages plus romanesques, voir romantiques. A de nombreuses reprises, il cherche à faire croire que Luchaire, et les autres, sont libres de leurs choix éditoriaux. Ce qui est parfaitement faux.

Le parcours d’un opportuniste

Né en 1901, Jean Luchaire est issu d’une dynastie d’universitaires (son père, son grand-père et son arrière-grand-père sont inspecteurs généraux de l’instruction publique, membres de l’Institut). Dès 1920, il débute en journalisme, puis fonde et dirige de 1927 à 1934 le journal Notre temps, partisan du rapprochement franco-allemand, subventionné par les fonds secrets du ministère des Affaires étrangères puis par les fonds nazis. À la fin des années 1930, en dépit de ses réseaux, Luchaire est un marginal sans influence ; la guerre lui donne l’occasion d’occuper une place de premier plan. Les Mémoires de la fille de Jean Luchaire, Corinne, dont se sert Xavier Giannoli, sont bien pauvres en révélations et en analyse, ; elles ont été publiées en 1949, et s’intitulent Ma drôle de vie, (réédité en 2026).

Jean Luchaire, grâce à ses connaissances (Otto Abetz, Pierre Laval, Paul Marion, Henri Lafont de la Gestapo française du 93 rue Lauriston, le Dr Eich, Marcel Déat, Marcel Bucard, et beaucoup d’autres), grâce à son entregent, grâce à son goût du faste, des réceptions, des bons repas et des parties fines, s’impose rapidement comme l’incontournable patron de l’ensemble de la presse française en zone occupée, ainsi que des entreprises connexes (distribution, papier, publicité, etc.).

Surnommé le « Führer de la presse française » ou « Louche Herr », il profite de cette situation, à la rencontre des ambitions allemandes ou vichyssoises mais également de celles des patrons et des salariés de la presse, pour mener à bien trois tâches : la propagation du collaborationnisme ; la protection de la presse, de ses patrons, de ses ouvriers, employés et rédacteurs ; enfin un enrichissement personnel extrêmement rapide. Ces trois tâches qu’il s’est assignées sont confondues dans sa démarche.

Une presse totalement inféodée à l’occupant nazi

Xavier Giannoli nous présente un Luchaire maître de ses décisions dans les affaires de presse. Or il n’en est rien. En effet, en zone occupée, la Propaganda Abteilung, subordonnée à la section IC (renseignements militaires) du gouverneur militaire en France, est installée à l’hôtel Majestic. Constituée d’éléments de la Wehrmacht, elle dépend du ministère de l’information et de la propagande du Reich dirigé par Joseph Goebbels. Le Presse Gruppe, dirigée par Eich, encadre plusieurs sous-groupes : surveillance du papier, presse provinciale, Agence française d’information de presse, Bureau d’information et surtout Censure.

C’est cette censure qui dicte ce que les journalistes peuvent ou doivent écrire. Ainsi Giannoli montre un Luchaire refusant d’écrire un éditorial sur le statut des juifs du 4 octobre 1940. Or, sur ce statut, comme sur sa deuxième mouture du 15 juin 1941, la censure allemande interdit aux quotidiens d’écrire un éditorial.

Le 25 septembre 1940, sur incitation des autorités allemandes (plusieurs pièces dans le dossier du procès Luchaire en témoignent aux Archives Nationales, AN, AJ40 1001 à 1016, Propaganda Abteilung Frankreich, Propagandastaffel Paris, 1938-1944), est créé en zone occupée le Groupement corporatif de la presse quotidienne parisienne (GCPQP), présidé par Luchaire, alors rédacteur en chef du Matin et bientôt directeur des Nouveaux Temps. Le 9 juin 1941, ce groupement se transforme en Corporation nationale de la presse française.

Le scandale de la Corporation

Luchaire utilise cette position pour constituer en quelques années une belle fortune et pour vivre, lui et sa famille, sur un grand pied. Entre septembre 1940 et août 1944, il achète à bas prix un hôtel particulier avenue des Ternes, une propriété à Barbizon et le château Saint-Lazare à Vernon. Les notes de frais des repas pris dans ses deux cantines favorites, Maxim’s et la Tour d’argent révèlent le train de vie de Luchaire. Par exemple, un repas pour trois convives à la Tour d’argent, le 20 mai 1943 : trois foie gras, trois tournedos, trois légumes, deux fromages et un sorbet, trois desserts, deux cafés, un armagnac 1893 et un cognac 1875, sept bouteilles de Pichon Longueville (un grand cru de Bordeaux) 1924, pour un total de 3 500 francs de l’époque, soit le salaire mensuel d’un rédacteur en chef d’un quotidien parisien. Cinq des bouteilles ainsi que deux paquets de cigarettes anglaises sont emportés par Luchaire…

Le mécanisme passe par la société des Éditions Lutétia, 31 rue du Louvre, qui édite le quotidien les Nouveaux Temps dont le premier numéro sort le 31 octobre 1940 et le dernier le 17 août 1944 (AN, 2AR). Lutétia est une entreprise en déficit structurel, à cause de la faiblesse des ventes (entre 50 000 et 60 000 exemplaires par jour, dont une part non négligeable est achetée par les administrations d’Occupation), mais surtout à cause du train de vie de Luchaire, qui est révélé par l’importance du poste « frais généraux », qui représente plus de 40 % des dépenses du journal, contre moins de 20 % dans des entreprises de presse comparables.

Le déficit est comblé par les Allemands, sous la forme d’annonces publicitaires : elles représentent 50 % du chiffre d’affaires dès 1941 et ne cessent d’augmenter pour atteindre 65 % en 1943, alors que dans le même temps, celles des autres quotidiens tombent de 35 à 18 %. Le déficit est aussi comblé par des augmentations de capital, souscrites par l’ambassade d’Allemagne, puis par Gerhard Hibbelen qui s’occupe de racheter pour l’occupant des éditeurs et des journaux.

En outre, à plusieurs reprises Luchaire encaisse personnellement les chèques des Allemands, tout en faisant inscrire les augmentations de capital au compte de la société. En ajoutant les salaires et les frais, qui atteignent 4 millions de francs en quatre ans et les augmentations de capital, qui dépassent les 6 millions de francs, Luchaire a ponctionné plus de 10 millions de francs à la société, ce qui représente 20 % de son chiffre d’affaires total durant la période. A cela s’ajoutent les notes de frais payées par la Corporation.

Le paradoxe est que les Allemands ne sont pas dupes. Ainsi, la Propaganda Staffel porte sur Luchaire une appréciation acerbe : « Si Luchaire a usé beaucoup d’encre en faveur d’une collaboration à 100 %, c’est moins par conviction honnête que parce qu’il spécule sur l’avenir. Luchaire n’a pas un tempérament combatif, c’est un combinart en [français dans le texte]. Il ne cache pas ses ambitions de devenir le Goebbels français. » (Pariser Journalisten, 1941, AN, AJ40 1008). Et nombre de journalistes et de patrons de presse de Paris ont dénoncé le scandale de la Corporation.

The Conversation

Patrick Eveno ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La presse française sous l’Occupation vue par le film « les Rayons et les Ombres » – https://theconversation.com/la-presse-francaise-sous-loccupation-vue-par-le-film-les-rayons-et-les-ombres-281358

De l’oubli à la lumière : Monique Wittig, théoricienne du lesbianisme politique

Source: The Conversation – in French – By Ilana Eloit, Professeure en études de genre, Université de Genève

À quelques jours de la journée de la visibilité lesbienne, le 26 avril, retour sur l’œuvre de Monique Wittig (1935–2003). Icône lesbienne, cette écrivaine et intellectuelle est longtemps tombée dans l’oubli après avoir été écartée du mouvement féministe français. Depuis quelques années, sa pensée connaît un retour fulgurant dans le paysage féministe. Théoricienne du lesbianisme politique, elle analyse l’hétérosexualité comme un régime politique de domination soumettant les femmes aux hommes et auquel le lesbianisme permet d’échapper.


En 2014, au moment où j’entamais une thèse de doctorat consacrée à l’histoire politique du lesbianisme en France dans les années 1970, Monique Wittig était encore peu connue. Figure majeure du Mouvement de libération des femmes (MLF), elle était pourtant à l’origine d’une pensée lesbienne qui a profondément bouleversé l’histoire des idées féministes.

Près d’une décennie plus tard, sa présence s’est imposée avec une évidence fulgurante. Les références à son œuvre parsèment les manifestations féministes ; ses ouvrages s’affichent en tête de gondole dans les librairies ; colloques et journées d’étude se multiplient à l’université ; des créations scéniques font revivre sa pensée en lui conférant une actualité nouvelle – pour ne citer que quelques formes de ce « moment culturel » wittigien.

Comment expliquer l’oubli et l’effacement de sa critique, puis l’engouement qu’elle suscite quatre décennies plus tard ? Pourquoi résonne-t-elle tant aujourd’hui ? Retour sur l’histoire et l’actualité d’une pensée lesbienne.

Féministe révolutionnaire

C’est à 29 ans que Monique Wittig se fait connaître publiquement avec la publication de son premier roman, l’Opoponax, qui reçoit le prix Médicis en 1964. Dès cet ouvrage, elle entreprend d’éradiquer le genre – ou les catégories de sexe – dans la langue. La « marque du genre » est, selon elle, un stratagème par lequel « le sexe est forcé sur ses utilisateurs » et les femmes assignées à une catégorie subordonnée qui les prive d’accès à l’universel.

Elle poursuit cette entreprise politico-littéraire avec la publication, en 1969, de son poème épique les Guérillères, dans lequel elle emploie le pronom « elles » pour désigner une troupe de combattantes, conférant ainsi au féminin pluriel la force du générique, qu’elle dérobe au pronom « ils ». Quelques mois plus tard, à l’automne 1970, elle compte à Paris parmi les figures fondatrices du MLF et participe au collectif des Gouines rouges ainsi qu’au Front homosexuel d’action révolutionnaire.




À lire aussi :
Françaises, Français : le langage inclusif n’est pas une nouveauté !


Elle contribue, aux côtés notamment de Christine Delphy ou de Colette Guillaumin, à l’émergence du féminisme matérialiste. Inspiré du marxisme, ce courant soutient que la division des individus en « hommes » et « femmes » n’est pas une donnée naturelle mais le produit – la « marque » – d’un rapport d’oppression, dont la naturalisation sert en retour à justifier la domination d’un groupe sur un autre.

Pour les féministes matérialistes, cette division des individus en « classes de sexe » repose sur un rapport d’exploitation domestique, c’est-à-dire sur l’appropriation, par la classe des hommes, du travail gratuit des femmes au sein du foyer.




À lire aussi :
Stérilet, spéculum, pilule… Retour sur l’histoire mouvementée du Planning familial en cinq objets


Ainsi, puisque les catégories de sexe – à l’instar des classes sociales – sont le produit d’un rapport d’exploitation, l’objectif du féminisme doit être, pour ces théoriciennes, l’abolition de ce rapport, dont la conséquence immédiate sera l’élimination des catégories de sexe – un projet qui rejoint, dans le champ de la théorie féministe, celui de Wittig d’abolition du genre dans la langue.

« Les lesbiennes ne sont pas des femmes » : politiser le lesbianisme

C’est dans la continuité de cette réflexion que Wittig élabore une pensée politique spécifiquement lesbienne, depuis les États-Unis où elle s’installe en 1976 en réponse aux résistances des féministes françaises à sa volonté de politiser le lesbianisme. Dans ses deux textes majeurs, « La pensée straight » et « On ne naît pas femme » (1980), Wittig met en évidence un angle mort du féminisme matérialiste : l’hétérosexualité comme régime politique, ou système social contraignant, qui institutionnalise l’appropriation des femmes par les hommes.

Surtout, elle affirme que c’est à travers ce régime qu’est produite la différence des sexes, articulant ainsi patriarcat et hétérosexualité, classes de sexe (ou genre) et sexualité. C’est à cette lumière qu’il faut comprendre sa phrase la plus célèbre, selon laquelle « les lesbiennes ne sont pas des femmes » car « ce qui fait une femme, c’est une relation sociale particulière à un homme […] relation à laquelle les lesbiennes échappent en refusant de devenir ou de rester hétérosexuelles ».

Dès lors, les lesbiennes incarnent, pour Wittig, cet au-delà des catégories de sexe que le féminisme matérialiste appelle de ses vœux. Alors que le MLF reposait sur l’identification collective à la catégorie « femmes », le lesbianisme politique de Wittig repose sur la désidentification aux catégories de sexe, comme pierre angulaire de la naturalisation de l’hétérosexualité.

À Paris, les féministes disqualifient cette pensée en l’accusant d’être « séparatiste », « dogmatique », « sectaire », voire « terroriste » et « totalitaire », en ce qu’elle politise l’hétérosexualité – et non plus seulement le patriarcat – comme norme oppressive, et substitue au sujet « femmes » le sujet « lesbiennes » comme figure de résistance : une violence dont Wittig ne se remettra jamais et qui contribue à effacer durablement le lesbianisme politique du paysage intellectuel féministe français.

Redécouverte tardive à la faveur de la 4ᵉ vague féministe

La vague de disqualification de sa pensée en France ainsi que son départ outre-Atlantique expliquent que son recueil d’essais théoriques, The Straight Mind, ait d’abord été publié aux États-Unis en 1992, avant de faire l’objet d’une première traduction française en 2001 (sous le titre la Pensée straight).

Mais c’est surtout depuis le début des années 2020 que sa pensée retrouve une place de premier plan. Outre la republication de l’ensemble de son œuvre et la publication d’écrits inédits, l’espace public irradie désormais de la présence spectrale de Wittig – un jardin Monique-Wittig a notamment été inauguré à Paris en 2021.

En 2023, l’Humanité consacrait sa une à Wittig avec le titre : « Monique Wittig, retour en grâce », à la suite d’autres portraits publiés dans le Monde ou Libération à l’occasion du vingtième anniversaire de sa disparition. La même année, j’organisais avec des collègues un double colloque international à l’Université de Genève et à l’Université de Berkeley sur l’actualité de son œuvre. Artistes, intellectuelles et intellectuels trouvent également, en Wittig, une source d’inspiration majeure, faisant résonner sur scène une œuvre tonitruante.

Cette redécouverte tardive mais foudroyante tient sans aucun doute au contexte politique actuel : celui d’une quatrième vague du féminisme, dans le sillage de #MeToo. Celle-ci a placé au cœur de la réflexion la dimension structurelle des violences sexistes et sexuelles et a, par ricochet, redonné un souffle nouveau au lesbianisme politique, lequel interroge la fonction politique et sociale de la contrainte à l’hétérosexualité en régime patriarcal, ainsi que les bénéfices d’une sortie du régime hétérosexuel d’un point de vue féministe.

D’autres raisons peuvent être invoquées : la contestation de la domination blanche au sein du féminisme, fortement bousculée par l’afroféminisme, participe de l’épuisement du paradigme universaliste et favorise la visibilité des minorités.

À cet égard, la non-mixité du lesbianisme politique et celle de l’afroféminisme se font éminemment écho, comme l’hostilité qu’elles provoquent en retour. Nulle coïncidence si les lesbiennes d’hier et les afroféministes d’aujourd’hui sont confrontées aux mêmes accusations de « séparatisme », mobilisées pour mieux disqualifier des regroupements qui interrogent des régimes d’oppression naturalisés, y compris au sein du féminisme : la race et l’hétérosexualité.

Enfin, il est clair que la proposition visionnaire d’un féminisme ne reposant pas sur la catégorie « femmes » et visant la destruction de l’épistémologie binaire de la différence des sexes trouve aujourd’hui son public parmi des individus qui refusent de se dire « hommes » ou « femmes » – catégories qui, comme l’écrivait Wittig, « contribu[ent] au maintien de l’hétérosexualité » – et préfèrent se dire non-binaires, queers, ou trans.

The Conversation

Ilana Eloit ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De l’oubli à la lumière : Monique Wittig, théoricienne du lesbianisme politique – https://theconversation.com/de-loubli-a-la-lumiere-monique-wittig-theoricienne-du-lesbianisme-politique-280474

Lesbiennes au travail : sortir de l’invisibilité

Source: The Conversation – in French – By Clotilde Coron, Professeure des universités en Sciences de gestion, Université Paris-Saclay

Le 26 avril a lieu la journée de la visibilité lesbienne qui vise à mettre en avant des modèles, à célébrer la culture lesbienne et à lutter contre la lesbophobie. La question de la visibilité dans le cadre professionnel mérite d’autant plus d’être mise à l’ordre du jour que les lesbiennes sont exposées à davantage de violences et de discriminations.


La journée de la visibilité lesbienne, le 26 avril, est d’autant plus nécessaire notamment dans le monde du travail que les lesbiennes subissent une double invisibilité. Tout d’abord, elles sont quasi absentes des discours publics, des médias, des représentations culturelles. Cette absence de visibilité peut notamment freiner la prise de conscience de l’orientation sexuelle, et certaines lesbiennes interrogées dans le cadre de l’enquête expliquent qu’elles ont construit une vie hétérosexuelle (avec un compagnon et des enfants), avant de se rendre compte qu’elles étaient lesbiennes.

Ensuite, un grand nombre de salariées lesbiennes cachent leur orientation sexuelle au travail. Plus précisément, d’après notre enquête, 14 % des salariées lesbiennes déclarent qu’aucun de leurs collègues n’a connaissance de leur orientation sexuelle. Cette stratégie de non-dévoilement est coûteuse sur le plan relationnel, sachant que de nombreuses conversations au travail, par exemple dans les espèces de socialisation comme la pause-café, la pause-déjeuner, portent sur la vie quotidienne (loisirs, famille, enfants…).

Le coût du non-dévoilement

Elle suppose de très peu parler de sa vie quotidienne, ou bien de parler au « je » pour éviter de mentionner l’existence d’une compagne, ou encore de dire « il » en parlant de sa compagne, pour passer pour hétérosexuelle. 28 % déclarent ne dévoiler leur orientation sexuelle qu’auprès d’un petit groupe de collègues dont elles ont auparavant vérifié l’ouverture d’esprit. Cette stratégie se fait donc en deux temps : il s’agit tout d’abord de lancer des sujets de conversation orientés autour de valeurs progressistes pour identifier comment se positionnent les collègues, avant, dans un second temps, de dévoiler son orientation sexuelle.




À lire aussi :
Comment les employés LGBTQIA+ adaptent leurs usages des réseaux sociaux vis-à-vis de leur entreprise


Elle est coûteuse en matière de charge mentale car elle suppose de se souvenir des collègues qui le savent et ceux qui ne le savent pas, et d’adapter ses propos et la manière de parler de sa vie quotidienne en fonction des cercles de collègues. Une femme lesbienne interrogée raconte aussi une situation dans laquelle, croisant dans la rue une collègue qu’elle connaît de loin, elle a demandé à sa compagne de lui lâcher la main. Cette dernière lui a dit « Je croyais que tes collègues étaient au courant », ce à quoi elle a répondu « Oui, ils sont au courant, mais pas elle en particulier ».

Une surexposition aux violences et aux discriminations

Cette invisibilité s’explique en partie par le fait que les lesbiennes sont surexposées aux violences et aux discriminations au travail, comme c’est également le cas dans l’espace public. Par exemple, toujours d’après notre enquête, 10 % des salariées lesbiennes disent avoir été victimes de violences physiques dans leur organisation de travail, contre 3 % des salariées hétérosexuelles et 7 % des salariés gays. 23 % déclarent avoir été victimes de violences psychologiques et morales, contre 14 % des salariées hétérosexuelles et 18 % des salariés gays. Enfin, 9 % ont été victimes de violences sexuelles, contre 4 % des salariées hétérosexuelles et 7 % des salariés gays.

Ces chiffres montrent une forte surexposition des salariées lesbiennes aux violences, et cette surexposition se retrouve pour les discriminations : 27 % des salariées lesbiennes estiment avoir déjà été discriminées en raison de leur genre ou de leur orientation sexuelle dans leur organisation de travail, contre 11 % des salariées hétérosexuelles.

Lesbophobie d’ambiance

Les récits recueillis donnent à voir différentes formes de micro-agressions et violences, allant de maladresses, à des agressions sexuelles, en passant par de l’homophobie ou de la lesbophobie d’ambiance, c’est-à-dire des propos homophobes ou lesbophobes non dirigés vers la personne qui les entend. Comme le raconte une des salariées lesbiennes interviewées, Sarah, qui travaille dans un collège :

« Ça reste des ados, et on sait comment ça se propage. Il y a des problématiques où effectivement j’ai eu une jeune la semaine dernière qui m’a dit : ‘Je ne l’aime pas parce qu’il est gay’. Enfin, voilà, clairement, je suis confrontée aussi à ça. Du coup, ça me travaille et du coup, je sais aussi comment ça se véhicule et potentiellement l’image négative que certains ont. »

Louie Media 2021.

Le modèle « monsieur gagne-pain »

Les données sur la réussite professionnelle (carrière, salaire) montrent des résultats étonnants. En effet, alors qu’elles sont plus exposées aux violences et aux discriminations que les salariées hétérosexuelles, les salariées lesbiennes semblent moins pénalisées en ce qui concerne le salaire, l’accès à la promotion, ou encore l’accès à des postes managériaux. Par exemple, d’après notre enquête, 43,7 % des salariées lesbiennes ont des responsabilités managériales, contre 38,4 % des salariées hétérosexuelles. Une piste d’explication à cette moindre pénalisation des salariées lesbiennes peut se trouver dans le fait qu’elles sont moins soumises aux normes de genre, et notamment au modèle de « monsieur gagne-pain », qui domine encore largement les couples hétérosexuels, et dans lequel le revenu du foyer est supposé dépendre avant tout du salaire et donc de la réussite professionnelle du mari.

Les couples lesbiens sont par ailleurs beaucoup plus égalitaires en termes de répartition des tâches domestiques, et d’ailleurs les salariées lesbiennes travaillent moins fréquemment à temps partiel que les salariées hétérosexuelles. Tout cela peut les conduire à accorder à la fois plus de temps et plus d’importance à leur travail, à leur rémunération, et à leur carrière. Certaines salariées lesbiennes interrogées témoignent aussi de l’existence de stéréotypes sur les femmes lesbiennes qui peuvent les avantager professionnellement (notamment le fait que les femmes lesbiennes sont perçues comme ayant plus de caractéristiques « masculines ») tout en les enfermant dans des cases.

Finalement, cette enquête suggère des pistes pour les organisations souhaitant s’engager en faveur de l’inclusion des salariées lesbienne :

  • visibiliser leur existence, par exemple en tenant compte des enjeux liés à l’orientation sexuelle dans les politiques d’égalité femmes-hommes et des enjeux liés au genre dans les politiques d’engagement LGBT+, ou encore en mettant en avant des rôles modèles ;

  • sensibiliser sur la persistance de violences, de discriminations et de stéréotypes ;

  • affirmer une politique de tolérance zéro à l’égard des actes et propos sexistes, homophobes et lesbophobes.

Le projet « ODILE ») est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Clotilde Coron a reçu des financements de l’ANR (projet “ODILE”) pour le projet dont l’ouvrage est issu.

ref. Lesbiennes au travail : sortir de l’invisibilité – https://theconversation.com/lesbiennes-au-travail-sortir-de-linvisibilite-280679

Des manchots de l’Antarctique à l’explicabilité en IA. Bienvenue en prétopologie !

Source: The Conversation – in French – By Guillaume Guérard, Enseignant-chercheur, Intelligence Artificielle, ESILV, Pôle Léonard de Vinci

Il existe plusieurs espèces de pingouins en Antarctique. Une tâche standard est de classer les individus dans telle ou telle catégorie, tout en comprenant les raisons de ce classement. Arturo de Frias Marques, Wikipedia, CC BY-SA

La plupart des algorithmes performants actuels – notamment l’apprentissage profond (deep learning) et ses réseaux de neurones – fonctionnent comme des boîtes noires. On sait qu’ils donnent de bons résultats, mais impossible de comprendre leur logique interne. Ceci pose problème pour de nombreux domaines d’application (médecine, justice…), ce qui incite les régulateurs à exiger des systèmes « explicables ». Plusieurs pistes vers l’explicabilité existent. Zoom sur la « prétopologie ».


Imaginons un patient dont les résultats sanguins montrent un taux d’hémoglobine de 12,5 grammes par décilitres de sang. Un algorithme de détection précoce du cancer analyse ces chiffres, mais aussi ses antécédents familiaux (présents ou absents), son statut de fumeur (oui ou non), son niveau d’activité physique (faible, moyen, élevé). L’algorithme le classe dans un groupe à risque modéré. Mais quand son médecin lui demande pourquoi, le système ne peut pas répondre : c’est une boîte noire.

Et c’est évidemment un problème pour le patient, le médecin, l’assurance maladie, etc. C’est pour cela que l’AI Act européen, adopté en mars 2024, impose des obligations strictes aux organisations et entreprises opérant en Europe. D’ici 2026-2027, tous les systèmes d’IA dits à haut risque devront être « transparents » et « explicables », c’est-à-dire dont un humain puisse comprendre la logique. Les sanctions pourront atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, car les domaines concernés peuvent avoir des effets importants.

Par exemple, en ressources humaines, les logiciels de tri de CV qui analysent à la fois des niveaux de diplômes, des années d’expérience et des compétences techniques doivent pouvoir justifier pourquoi un candidat est retenu et un autre écarté. Dans l’industrie énergétique, les systèmes de maintenance prédictive qui combinent données de capteurs (température, vibrations), historique de maintenance et type d’équipement doivent expliquer pourquoi une éolienne ou un autre équipement est signalé comme « à risque de panne ».

Pour contrer l’« effet boite noire » des systèmes d’IA actuels, nous proposons une méthode issue d’une discipline méconnue du grand public, la « pré-topologie », qui permet de rendre explicables les raisonnements faits sur des données mixtes (le taux d’hémoglobine est un chiffre tandis que la présence ou non d’antécédents familiaux ne se chiffre pas).

Qu’est-ce que la prétopologie ?

  • La prétopologie, c’est l’art de dessiner des « zones d’influence » autour de chaque personne ou objet dans un réseau – comme les cercles d’amis sur les réseaux sociaux, où l’influence n’est pas forcément réciproque.
  • Pour décrire une zone complexe, elle utilise une recette appelée forme normale disjonctive, qui assemble des blocs de base, puis calcule automatiquement tout ce qui « adhère » à cet assemblage, c’est-à-dire tout ce qui gravite naturellement autour de lui.

Les limites des méthodes actuelles pour rendre les systèmes d’IA « explicables »

Le clustering hiérarchique est aujourd’hui la méthode de référence pour regrouper automatiquement des observations similaires et donc pour rendre les données plus interprétables : en organisant les observations en une hiérarchie de groupes emboîtés (un dendrogramme), il permet à un expert de naviguer entre niveaux de granularité, d’identifier des profils types et d’expliquer pourquoi deux individus sont regroupés ensemble, sans avoir à ouvrir la “boîte noire” d’un modèle prédictif.

Son fonctionnement est simple et transparent. On mesure d’abord la distance entre chaque paire d’observations. Ensuite, on regroupe progressivement les observations les plus proches. Enfin, on obtient un arbre (appelé dendrogramme) qu’on peut couper à différents niveaux pour former des groupes.

Prenons l’exemple des manchots de l’archipel Palmer en Antarctique. Si on mesure la longueur de leur bec et leur masse corporelle, le clustering hiérarchique identifie automatiquement trois groupes qui correspondent aux trois espèces biologiques présentes : Adélie, Jugulaire et Papou. L’atout majeur est sa transparence : on visualise l’arbre, on suit les regroupements successifs, on comprend facilement comment les groupes se sont formés, la hauteur d’embranchement donne une idée de la « différence » entre deux groupes.

Le défi survient quand on mélange chiffres et catégories. Mesurer une distance entre deux chiffres est facile : si un patient a une glycémie de 5,5 millimoles par litres (une unité de concentration) et un autre de 6,2 millimoles par litres, la différence est de 0,7. Mais comment mesurer la distance entre deux « catégories » que l’on ne peut pas chiffrer, comme une réponse oui ou non (fumeur ou non-fumeur), ou encore la couleur d’un tissu biologique ?

Par exemple, dans notre exemple de détection précoce du cancer, si le patient A présente une concentration d’hémoglobine de 12,5 grammes par décilitres (chiffre), des antécédents familiaux (catégorie « oui ») et ne fume pas (catégorie « non ») ; tandis que le patient B présente une concentration d’hémoglobine de 13,1 grammes par décilitres, pas d’antécédents et fume… comment dire si ces deux patients sont « proches » ou « éloignés », en termes de risques ?

Les solutions existantes, comme le k-means, HDBSCAN et DIANA ont toutes des limites. Transformer les catégories en chiffres artificiels (« oui » = 1, « non » = 0) est arbitraire et fait perdre du sens. Plus précisément, ceci signifie que l’on introduit une relation d’ordre et une distance qui n’existent pas : coder « chat » = 1, « chien » = 2, « oiseau » = 3 suggère implicitement que chien est « entre » chat et oiseau, ou que la distance chat-chien est égale à chien-oiseau, ce qui peut biaiser tous les calculs de similarité en aval.

Ignorer les catégories pour ne garder que les chiffres, comme dans les méthodes citées précédemment, fait perdre des informations cruciales comme les antécédents familiaux. Les méthodes statistiques plus complexes sont souvent opaques ou nécessitent des hypothèses fortes sur la structure des données. C’est le cas de la distance de Gower ou de l’analyse des facteurs latents – le genre de structure qui peut se cacher derrière les grands modèles de langage (LLM).

C’est précisément dans la définition de ces voisinages – comment mesurer qu’un patient « ressemble » à un groupe malgré des données hétérogènes – que la prétopologie offre un cadre naturel : elle permet de construire des zones d’influence flexibles, sans imposer de distance artificielle ni d’hypothèses sur la structure des données.

Une solution en développement : mesurer la similarité autrement

Pour cela, au lieu de chercher à mesurer des distances, nous proposons de changer de perspective en définissant des « voisinages », construits via des formes normales disjonctives, ou DNF. Derrière ce nom se cachent des règles logiques simples du type : « Un patient appartient au voisinage d’un groupe si (il est diabétique ET âgé de plus de 60 ans) OU (il a des antécédents familiaux ET est hypertendu) ». Chaque condition entre parenthèses est un bloc ; le voisinage est l’union de ces blocs. Pas de chiffres, pas de distance : seulement des combinaisons de caractéristiques, comme des règles de décision lisibles.

Une fois les voisinages définis, on calcule pour chaque groupe l’ensemble de tous les patients qui lui « adhèrent » – c’est-à-dire qui tombent dans au moins un de ces blocs DNF. Ce calcul d’adhérence est itératif : à chaque étape, des patients rejoignent ou quittent un groupe, jusqu’à stabilisation. Le résultat est analogue à un dendrogramme : on obtient une hiérarchie de regroupements successifs, du plus local (blocs fins, peu de patients) au plus global (grands groupes stables), sans avoir jamais posé de distance artificielle entre catégories et chiffres.

Une analogie aide à comprendre. Sur une carte géographique, on mesure la distance entre Paris et Lyon en kilomètres. Mais on peut aussi dire que Dijon est voisine de Lyon parce qu’elles partagent des caractéristiques : région similaire, climat comparable, économie proche. Cette notion de « voisinage » par caractéristiques communes ne nécessite pas de calculer une distance précise.

Notre algorithme en accès libre pour des études pilotes

C’est le principe de base de PretopoMD, notre algorithme qui classe automatiquement des données mixtes (chiffres et catégories) tout en rendant explicite sa logique de regroupement. Pour les chiffres, deux valeurs sont voisines si elles tombent dans la même fenêtre : toutes les glycémies entre 5 et 7 mmol/L sont voisines. Pour les catégories, deux observations sont voisines si elles partagent la même modalité : deux patients sont voisins s’ils sont tous deux fumeurs, ou si tous deux ont des antécédents familiaux.

PretopoMD est d’ores et déjà disponible en accès libre pour permettre à des équipes en santé, RH ou maintenance de l’utiliser pour des études pilotes. À moyen terme, nous espérons que cette approche puisse aider les organisations européennes à répondre aux exigences de l’AI Act en proposant des classifications explicables par construction.

L’avantage clé est la traçabilité. Pour notre exemple médical, on peut dire :

« Les patients A et C sont dans le même groupe parce qu’ils partagent une glycémie dans la fenêtre 5-7 millimoles par litres (étape 1), tous deux ont des antécédents familiaux (étape 1), et tous deux ont un IMC entre 25-30 (étape 2). Le patient B les rejoint à l’étape 3 via un IMC similaire, malgré l’absence d’antécédents. »

Cette explication pas-à-pas répond directement aux exigences de l’AI Act. De plus, la structure hiérarchique est préservée, on peut identifier grands groupes et sous-groupes pertinents.

Néanmoins, notre algorithme possède des limites, puisqu’il faut choisir la taille des fenêtres et les seuils de similarité, faisant actuellement appel à un expert métier. Nous travaillons sur des méthodes pour automatiser ces choix.

Ainsi, la question reste ouverte : jusqu’où peut-on pousser la performance tout en conservant l’explicabilité ? Dans des domaines sensibles comme la santé ou le droit, ce compromis est-il acceptable ? Notre travail montre qu’on peut au moins explorer cette voie.

The Conversation

Guillaume Guérard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des manchots de l’Antarctique à l’explicabilité en IA. Bienvenue en prétopologie ! – https://theconversation.com/des-manchots-de-lantarctique-a-lexplicabilite-en-ia-bienvenue-en-pretopologie-278007

Aujourd’hui, le droit protège les combustibles fossiles : une première conférence internationale veut briser ce verrouillage

Source: The Conversation – in French – By Christel Cournil, Professeur de droit public, Sciences Po Toulouse

Du 24 au 29 avril 2026 à Santa Marta, en Colombie, une conférence inédite entend placer la sortie des combustibles fossiles au cœur de l’agenda international. Dans un contexte de dépendance fossile et de tensions géopolitiques, l’enjeu dépasse la transition énergétique : il s’agit de tester la capacité des États à transformer en actes un objectif climatique indispensable qui n’est pas, aujourd’hui, engagé à la hauteur requise. En cause, un véritable verrouillage juridique, économique et financier qui protège le capitalisme fossile, et qu’il va falloir désarmer.


Les gouvernements de la Colombie et des Pays-Bas organisent, du 24 au 29 avril 2026, à Santa Marta (Colombie) la première conférence internationale consacrée à une sortie juste des combustibles fossiles. L’enjeu est clair : mettre la sortie des combustibles fossiles au cœur d’une feuille de route politique, juridique et financière, fondée sur la réduction des dépendances, la transformation de l’offre et de la demande et une coopération internationale renforcée.

Ce n’est pas un sommet de plus : c’est un test de crédibilité. En 2024, la demande mondiale d’énergie a encore progressé et les énergies fossiles occupent toujours une place centrale dans le mix énergétique mondial. Malgré les inflexions introduites sur la sortie du charbon lors de la COP26 à Glasgow en 2021, puis sur la sortie des énergies fossiles lors de la COP28 à Dubaï en 2023, le soutien aux énergies fossiles se poursuit et la transition énergétique reste lente. Les États continuent de projeter, à l’horizon 2030, des niveaux de production fossiles très au-delà de ce qui serait compatible avec une trajectoire à 1,5 °C.

Nous savons donc deux choses : la sortie fossile est indispensable ; or elle n’est actuellement pas engagée à la hauteur requise.

Écart entre l’évolution de la production de combustibles fossiles telle que prévu par les États (ligne rouge) et ce qu’elle devrait être pour respecter les objectifs de hausse des températures à 1,5 ou 2 °C (lignes bleue et verte).
Production Gap Report, 2025

Ce rendez-vous intervient, en outre, dans un contexte international de « backlash climatique » et de réaffirmation brutale de l’ordre fossile.

Aux États-Unis, la devise « Drill, baby, drill » a relancé la production, tandis que les crises géopolitiques (Ukraine, Venezuela et, désormais, Iran) rendent plus que jamais urgente la nécessité de s’affranchir de la dépendance aux hydrocarbures.

L’« éléphant dans la pièce » des négociations climatiques tient en grande partie au fait que le cadre juridique international protège le capitalisme fossile. Le résultat : un véritable « verrouillage » juridique qui concourt au maintien du statu quo sur les énergies fossiles. En conséquence, les flux financiers restent encore massivement orientés vers les énergies fossiles, malgré les efforts des États, des institutions internationales et de certains acteurs privés. Il faut passer d’une logique de décarbonation partielle de la demande à une véritable refonte de l’architecture juridique, cohérente entre droit national, droit de l’Union européenne et droit international, pour la rendre compatible avec la sortie des énergies fossiles.

Comment fixer les priorités ? Nous développons, dans un policy brief consacré à la sortie fossile, un état des lieux ainsi que 14 propositions d’action concrète. Ici, nous exposons quelques-unes de ces propositions, que la conférence de Santa Marta peut être l’occasion de concrétiser.

La réduction de l’offre, dans l’angle mort du régime climatique international

Depuis trente ans, le régime climatique international s’est surtout construit autour de la réduction des émissions de gaz à effet de serre. Longtemps, la question de la réduction de l’offre fossile est restée au second plan. On a cherché à réduire les émissions sans organiser sérieusement la fermeture des infrastructures qui en sont responsables.

Dès lors, la conférence de Santa Marta devra mettre sur la table les questions que la diplomatie climatique traditionnelle a trop longtemps évitées. Comment sortir des dépendances fossiles à la fois énergétiques et industrielles ? Comment organiser la baisse de l’offre ? Comment lever les obstacles juridiques internationaux qui sécurisent encore le capital fossile, à commencer par l’arbitrage entre investisseurs et États, notamment dans le cadre du Traité sur la charte de l’énergie ?

Sur ce dernier point, 220 économistes et juristes ont récemment exhorté la Colombie, dans une lettre adressée au président Gustavo Petro, à se retirer du système de règlement des différends entre investisseurs et États (ISDS) et à fédérer une coalition d’États décidés à s’en désengager. Cette prise de position met en lumière un point décisif : la sortie des combustibles fossiles n’est pas seulement une question de politique climatique, mais aussi de désarmement des mécanismes juridiques qui sécurisent encore la rentabilité des investissements fossiles.




À lire aussi :
Le droit international protège les investissements dans les énergies fossiles, et c’est un problème


L’ordre fossile, protégé par un « verrouillage » juridique, économique et financier

Le capitalisme fossile est ainsi porté par une construction juridique structurante. Les investisseurs fossiles sont protégés par des traités, peuvent consolider leurs droits dans des contrats de long terme, se voir favorisés par des régimes fiscaux, sécurisés par des assurances et soutenus par des financements publics et privés.

Privilégiés, les investisseurs fossiles peuvent encore attaquer, devant des tribunaux spéciaux, des États dans lesquels ils réalisent leurs activités si ces derniers, en s’avisant de corriger leur trajectoire carbone, portent atteinte à leurs droits. Les investisseurs fossiles sont, en effet, juridiquement protégés par de nombreux instruments juridiques. Il existe ainsi des milliers de traités bilatéraux d’investissements, des traités plurilatéraux, des contrats d’investissements, des codes d’investissements et miniers ainsi que des politiques d’assurances et de garanties contre les risques encourus par les investisseurs.

Citons, par exemple, parmi les traités plurilatéraux : le Traité sur la charte de l’énergie. Même dénoncé par de nombreux États européens, il continue de s’appliquer au titre de sa clause crépusculaire, qui impose un délai de vingt ans avant une sortie effective du traité.

La sortie fossile ne peut donc plus être pensée comme une simple transition technologique. Il faut s’attaquer aux structures juridiques, économiques et financières qui prolongent l’ordre fossile. Ce « verrouillage » fossile se traduit par un enchevêtrement d’infrastructures, de rentes, de chaînes de valeur, de subventions, de protections contractuelles et de garanties juridiques qui rendent la sortie à la fois nécessaire et politiquement coûteuse.

L’exploitation des combustibles fossiles ne saurait ignorer les limites planétaires, et le droit doit évoluer pour en tenir compte. Cela suppose de défaire des anticipations de rentabilité, de neutraliser les clauses de survie ou crépusculaires pérennisant les garanties offertes par les traités d’investissements dénoncés et de réorienter les flux financiers. Cela implique aussi d’assumer la conflictualité du désinvestissement, de traiter la question des actifs échoués et d’empêcher que la pétrochimie ne devienne le refuge stratégique des Carbon Majors.




À lire aussi :
COP30 : Comment éviter que le plastique ne devienne le canot de sauvetage de l’industrie pétrolière ?


Les contentieux climatiques, nécessaires mais insuffisants

Par ailleurs, l’avis rendu par la Cour internationale de justice en 2025 a rappelé qu’un État qui ne prend pas les mesures appropriées pour protéger le système climatique peut engager sa responsabilité internationale. Et cela, y compris lorsqu’il favorise la production ou la consommation de combustibles fossiles, accorde des licences d’exploration ou maintient des subventions. La défossilisation n’est donc plus seulement un horizon souhaitable : elle devient un horizon légal et concret, sous la forme d’obligations préventives de diligence, d’efficacité, de cohérence et de coopération climatiques.

Les contentieux climatiques engagés à travers le monde participent déjà de ce déplacement. Ils ne se bornent plus à dénoncer l’inaction, mais mettent en cause les incohérences normatives, les soutiens publics et les dispositifs juridiques qui prolongent l’ordre juridique fossile. Toutefois, le juge, à lui seul, ne fermera ni les puits ni les terminaux gaziers. Il peut fissurer l’architecture du verrouillage juridique qui protège les énergies fossiles, au nom de la protection des droits humains ou du droit à un environnement sain. Mais il ne sera pas en mesure de prendre des décisions politiques, par exemple pour ordonner la fermeture de ces infrastructures.

C’est ici que Santa Marta peut devenir autre chose qu’une conférence supplémentaire. Cela pourrait être un moment de vérité sur la capacité des États à gouverner la fermeture des activités fossiles, au lieu de la repousser au nom d’un prétendu réalisme économique, alors même que ce réalisme produit un désordre climatique, financier, sanitaire et même démocratique toujours plus grand.

La question n’est donc plus de savoir s’il faut sortir des fossiles (la réponse est oui !), mais si les États accepteront enfin d’en assumer les conséquences normatives et de l’organiser d’une manière juste et efficace. Parce que sortir des fossiles exige bien davantage qu’un simple « verdissement » de l’existant. Il faut cesser d’autoriser l’expansion de secteurs incompatibles avec l’objectif de 1,5 °C, réorienter les flux financiers, intégrer la pétrochimie aux politiques de sortie, désactiver les verrous juridiques du capital fossile et organiser une transition juste. Autant de pistes que nous développons dans notre policy brief.

Il n’est plus possible de célébrer la transition tout en continuant à consolider l’économie fossile. À Santa Marta, l’enjeu sera de savoir quels États accepteront enfin de rompre avec ce verrouillage et d’organiser, en droit comme en politique, la sortie effective et juste des combustibles fossiles.




À lire aussi :
Comment échapper à la malédiction de la rente fossile ?


The Conversation

Christel Cournil est administratrice de l’association Notre affaire à tous et vice-présidente de la SFDE Midi-Pyrénées.

Laurence Dubin est membre de l’association Intérêt à agir (IAA)

Sabrina Robert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Aujourd’hui, le droit protège les combustibles fossiles : une première conférence internationale veut briser ce verrouillage – https://theconversation.com/aujourdhui-le-droit-protege-les-combustibles-fossiles-une-premiere-conference-internationale-veut-briser-ce-verrouillage-280200

Comment le QI est devenu l’obsession de l’Amérique

Source: The Conversation – in French – By Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School

Les États-Unis sont-ils obsédés par le quotient intellectuel ?

Ce qui avait été conçu comme un outil pédagogique par Alfred Binet et Théodore Simon en France a été importé par le psychologue Henry Goddard aux États-Unis au début du XXᵉ siècle et s’est rapidement transformé en un instrument de tri social dans ce pays. Aujourd’hui, des start-up californiennes proposent aux parents fortunés de classer leurs embryons selon leur quotient intellectuel (QI) potentiel, tandis que Donald Trump en fait une arme rhétorique contre ses adversaires.


L’obsession des Américains pour le quotient intellectuel (QI) remonte aux thèses eugénistes du début du XXᵉ siècle et perdure encore aujourd’hui. Elle se manifeste tantôt par des actes, tantôt par des paroles. Dans les deux cas, les conséquences ouvrent la voie, comme par le passé, à des pratiques racistes et eugénistes.

L’importation, la traduction et l’adaptation du test Binet-Simon par Henry Goddard

Le test de mesure de l’intelligence conçu en 1905 par Alfred Binet et Théodore Simon, puis révisé en 1908 et 1911 et communément appelé « test de QI » plus tard, était initialement destiné à permettre aux enfants en difficulté scolaire de rattraper leur retard. Importé aux États-Unis en 1908 par le psychologue Henri Goddard suite à son voyage en Europe, il fut très vite détourné de ses fonctions initiales après avoir été traduit et adapté avec un certain manque de rigueur sur le continent américain.

Goddard, qui était à la fois un fervent eugéniste et directeur de la Vineland Training School – une école pour les enfants atteints de handicaps physiques et mentaux – dans le New Jersey, a été l’un des chefs de file de ce détournement. Il traduisit et adapta la version de 1908 qu’il expérimenta sur des enfants à partir de 1911. Goddard les divisa en trois catégories et les qualifia selon leur degré de déficience en :

D’après Goddard, les « faibles d’esprit » représentaient le plus grand risque pour la société car ils pouvaient se « reproduire facilement ». Il pensait aussi – du moins pendant un certain temps – que ces derniers étaient surreprésentés parmi les criminels, les prostituées, et les alcooliques.

En 1913, Goddard participa à l’évaluation systématique des immigrés au centre d’accueil d’Ellis Island via le test de QI, traduit et adapté, en dépit des facteurs socioculturels et linguistiques. Les immigrés jugés « faibles d’esprit » étaient renvoyés dans leur pays d’origine.

Le test de QI selon Henry Goddard.
Research Gate

Le test de QI avait de plus servi à justifier les stérilisations forcées à la suite de l’arrêt Carrie Buck v. Bell, rendu par la Cour suprême le 2 mai 1927. La Cour autorisa la stérilisation contrainte d’une jeune femme, Carrie Buck, internée à tort après avoir été violée, au faux motif de promiscuité et d’un prétendu « faible QI héréditaire ». Sa mère, sa fille et elle avaient toutes trois été qualifiées de « faibles d’esprit » à l’issue d’un test de QI. Dans sa conclusion, le juge Oliver Holmes déclara :

« Il vaut mieux pour le monde entier qu’au lieu d’attendre d’exécuter les descendants dégénérés pour crime, ou de les laisser mourir de faim pour leur imbécillité, la société puisse empêcher ceux qui sont manifestement inaptes de perpétuer leur espèce. Le principe qui soutient la vaccination obligatoire est assez fort pour couvrir la section des trompes de Fallope […]. Trois générations d’imbéciles, c’est assez ! »

Par ailleurs, l’étiquette « faible d’esprit » accolée aux criminels, aux prostituées, aux alcooliques, aux pauvres et aux Noirs renforça les politiques de stérilisation eugénique. Sous l’impulsion de cet arrêt, une trentaine d’États américains promulguèrent des lois autorisant la stérilisation forcée de ces catégories de population. Entre 1900 et 1970, plus de 60 000 personnes considérées comme « faibles d’esprit » furent stérilisées de force.

La banque de sperme de R. K. Graham réservée aux Prix Nobel

Robert Klark Graham (1906-1997), l’homme d’affaires qui a fait fortune grâce à la création de verres de lunettes incassables, était aussi connu pour sa « banque de sperme de génies ». Cet ardent défenseur de l’eugénisme soutient dans son ouvrage Future of Man (1970) et la théorie de la dégénérescence que pour enrayer la dégradation de l’espèce humaine, il faudrait limiter la reproduction des individus « moins intelligents » et favoriser celle des « plus intelligents ».

Au début des années 1980, Graham passa de la théorie à la création d’une banque de sperme élitiste gratuite : la Repository Germinal Choice en Californie. Son objectif : aider des femmes « intelligentes » à donner naissance à de futurs petits génies afin de « sauver l’humanité ». Seuls des donneurs blancs répondant à des critères exigeants étaient autorisés à faire don de leurs gamètes.

À l’origine, Graham ne recherchait que des donneurs parmi les lauréats du prix Nobel. Le co-inventeur du transistor, William Bradford Shockley (1910 -1989), lauréat du prix Nobel de physique en 1956 et partisan de l’eugénisme, en faisait partie, ainsi que deux autres lauréats anonymes. Toutefois, la rareté des donneurs Prix Nobel et la faible viabilité de leur semence, en raison de leur âge, contraignirent Graham à assouplir ses critères de sélection. Il exigea néanmoins un QI d’au moins 130 points pour les autres donneurs. Plus de 200 enfants sont nés de cette banque fermée en 1999, deux ans après la mort de Graham. Tous ne sont toutefois pas devenus des génies.

Quand Jeffrey Epstein prévoyait d’être le géniteur d’une vingtaine d’enfants de « super races »

Jeffrey Epstein, le pédocriminel retrouvé mort dans sa cellule en août 2019 avant son procès pour crimes sexuels, était lui aussi un défenseur de l’eugénisme, d’après une enquête du New York Times publiée la même année. Persuadé sans doute d’avoir un ADN génétiquement supérieur, il envisageait de transformer son ranch au Nouveau-Mexique en un centre de procréation où une vingtaine de femmes, sélectionnées sur des critères académiques et de beauté, seraient inséminées avec ses propres gamètes. Ce projet n’est pas sans rappeler la Repository Germinal Choice de Graham ou, à plus grande échelle, le programme Lebensborn – la fabrique d’enfants « aryens » (grands, blonds aux yeux bleus) sous le régime nazi – dans la mesure où Epstein fantasmait sur les femmes « aux yeux bleus », un signe d’intelligence selon lui.

Différents médias (le Figaro, The Guardian, The Telegrapgh, Mother Jones…), après consultation des Epstein files publiés par la justice américaine le 30 janvier 2026, ont confirmé l’obsession d’Epstein pour l’eugénisme, et ont rapporté sa fascination pour les « bébés sur mesure », le transhumanisme et le QI.

Notons qu’Epstein avait en outre financé la recherche en génétique à travers d’importantes donations à plusieurs institutions scientifiques, notamment :

  • 6.5 millions de dollars (5.5 millions d’euros) à Harvard pour la création d’un programme de « dynamique évolutive » en 2003 ;

  • 20 000 dollars (17 000 euros) au Worldwide Transhumanist Association (renommée Humanity Plus) en 2011 ;

  • 850 000 dollars (725 200 euros) au laboratoire du Massachusetts of Technology (MIT) entre 2002 à 2017.

Le QI, arme rhétorique de Donald Trump

Donald Trump a quant à lui pour habitude de dénigrer et de remettre en cause le QI de ses opposants politiques ou de quiconque se trouve en désaccord avec lui. En septembre 2025 il a par exemple qualifié sa détractrice Jasmine Crockett, représentante démocrate du Texas au Congrès, de personne à « très faible QI ».

En juin de la même année, à la suite d’un différend économique, il s’en prit ouvertement à Jerome Powell, l’actuel président de la Fed – qu’il avait lui-même nommé durant son premier mandat – en le qualifiant de « personne moyennement douée mentalement », à « faible QI » et de « très stupide ».




À lire aussi :
Yes, calling someone ‘mentally disabled’ causes real harm


Fidèle à sa rhétorique de dénigrement utilisée comme posture défensive, il qualifia l’ex-colistier de Kamala Harris, Tom Walz, de « total moron » (vulgairement « vrai crétin » en français) lors de sa deuxième campagne présidentielle et affirma au sujet de son ancienne rivale démocrate :

« Kamala Harris possède un faible QI et ne peut pas rivaliser avec les dirigeants des autres pays. »

Ses prédécesseurs subirent le même sort. En 2020, il déclara dans un tweet au sujet de Joe Biden :

« Il va falloir vous y habituer, encore un autre individu à faible QI ! »

Il remit également en cause les études de Barack Obama aux universités de Columbia et de Harvard.

Rappelons que si Trump s’acharne systématiquement à rabaisser ceux qui lui résistent, c’est aussi – et surtout – pour redorer son image et se valoriser lui-même. Lors de son différend avec Powell en juin 2025, il affirma :

« Peut-être que je devrais aller à la Fed. Est-ce que je suis autorisé à me désigner moi-même ? »

En 2018, il s’était aussi autoproclamé « un génie très stable » malgré l’absence de toute preuve à ce jour. Une affirmation peu étonnante lorsque l’on sait qu’en 2015, il avait menacé de poursuivre en justice les universités où il avait étudié si elles révélaient ses notes.

Enfin, l’obsession de Trump pour le QI s’enracine vraisemblablement dans son adhésion aux thèses eugénistes du siècle dernier : ses discours sont parsemés de références aux « bons gènes » (les siens, ceux de sa famille et des Américains blancs) et de « mauvais gènes » (ceux des immigrés illégaux qu’il qualifie tantôt de « criminels », tantôt de « monstres » et tantôt de personnes qui « empoisonnent le sang » du pays).




À lire aussi :
Les mots de Trump : les ressorts d’une rhétorique efficace


Perspectives : une obsession jusqu’au tri des embryons en fonction de leur futur QI

Une étude de 2023 révèle que 28 % des Américains se disent favorables à la modification génétique de leur bébé pour maximiser ses chances d’intégrer les meilleures universités par la suite. À l’inverse, 38 % envisageraient de sélectionner des embryons selon leur QI dans le cadre de leur projet parental.

Certaines start-up américaines, telles que Heliospect Genomics et Nucleus Genomics, affirment déjà être en mesure de trier les embryons en fonction de leur QI potentiel, bien qu’il s’agisse d’une spéculation pour de nombreux scientifiques. Elles proposent à une clientèle fortunée la possibilité de classer les embryons conçus par fécondation in vitro selon leur QI potentiel grâce à une méthode de dépistage génétique. Les futurs parents peuvent ensuite choisir d’implanter le « meilleur » embryon selon différents critères, dont le QI, dans l’utérus de la femme.

Cette idéologie de la reproduction des « plus intelligents » est soutenue outre-Atlantique par Elon Musk, certains mouvements comme la Pronantalist Foundation ainsi que par les géants de la Tech de la Silicon Valley.

En analysant l’obsession des Américains pour le QI nous ne pouvons écarter le risque d’un eugénisme plus moderne, plus soft mais aux conséquences tout aussi lourdes : la normalisation de l’idée qu’il existerait des êtres génétiquement « supérieurs » et les dérives eugénistes que cette conviction pourrait encore engendrer…

The Conversation

Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment le QI est devenu l’obsession de l’Amérique – https://theconversation.com/comment-le-qi-est-devenu-lobsession-de-lamerique-279879