Réduire les biais cognitifs dans le recrutement : pour une pratique fondée sur des preuves

Source: The Conversation – France (in French) – By Vincent Berthet, Associate professor, Université de Lorraine

Trop souvent encore, le recrutement est considéré comme une affaire d’intuition à rebours de toutes les études montrant que la performance des entreprises aurait tout à gagner d’une démarche rationnelle. Il est urgent d’en finir avec cette idée fausse et dommageable à l’entreprise, dans un contexte où les bons candidats sont très demandés.


L’entretien est de loin la méthode de recrutement la plus utilisée pour évaluer les candidats. Dans sa forme traditionnelle, il s’agit d’un échange libre entre le recruteur et le candidat, où l’intuition et la subjectivité du recruteur jouent un rôle central. Beaucoup de recruteurs pensent que le fait de pouvoir exercer leur intuition est un atout, mais la recherche montre que ce n’est pas le cas.

Les limites de l’entretien d’embauche traditionnel

Évaluer les candidats de manière subjective ouvre la porte aux biais cognitifs. Par exemple, l’appréciation d’un candidat sur une caractéristique précise (comme son apparence physique) tend à s’étendre à d’autres dimensions (professionnalisme, intelligence, etc.), un phénomène appelé « effet de Halo ». Les recherches montrent également que la première impression du recruteur, formée dans les toutes premières minutes, influence fortement la suite de l’entretien. Par le biais de confirmation, le recruteur aura alors tendance, consciemment ou non, à orienter ses questions de manière à conforter cette première impression.

Le caractère subjectif de l’entretien traditionnel renvoie aussi au fait que le recruteur choisit librement ses questions, ce qui est doublement problématique : les questions posées n’évaluent pas nécessairement les caractéristiques pertinentes pour le poste, et elles ne sont pas les mêmes pour tous les candidats, ce qui rend toute comparaison entre eux en principe non valable.




À lire aussi :
Pourquoi le flou des « savoir-être » ne doit rien au hasard


Le problème suprême

Une autre forme d’entretien permet d’évaluer les candidats de façon plus objective : l’entretien structuré. Il s’agit d’identifier les compétences – techniques et comportementales – à évaluer (par exemple, la capacité à manager une équipe) à partir d’une analyse du poste, de définir les questions à poser pour évaluer chaque compétence (« Parlez-moi d’une fois où vous avez géré un conflit entre deux personnes de votre équipe »), et de définir des critères objectifs pour évaluer les réponses des candidats aux questions. Ces informations prennent la forme d’une grille d’entretien qui guide et limite la subjectivité du recruteur.

Depuis plus d’un siècle, les travaux en psychologie du travail et des organisations ont tenté d’identifier les méthodes de recrutement les plus prédictives de la performance professionnelle, une question qualifiée de « problème suprême » par les chercheurs dès 1917.

La dernière méta-analyse sur le sujet date de 2022 et ses résultats sont sans appel . Le jugement subjectif du recruteur à l’issue d’un entretien traditionnel corrèle seulement à 0.19 avec la performance professionnelle, soit bien moins que l’évaluation issue d’un entretien structuré (0.42). Celui-ci est d’ailleurs la méthode la plus prédictive de la performance professionnelle.

Deux méta-analyses de référence ont examiné la validité prédictive des différentes méthodes de recrutement : celle de Schmidt et Hunter (1998) et celle de Sackett et al. (2022). Les valeurs reportées correspondent à la corrélation entre les résultats des candidats à la méthode de recrutement et leur performance professionnelle une fois en poste (qui correspond souvent à l’évaluation par un manager). La figure a été créée par nous à partir des données figurant dans ces articles.

Un décalage entre la pratique et la recherche

La supériorité de l’entretien structuré sur l’entretien traditionnel illustre une réalité contre-intuitive : dans le recrutement, moins de subjectivité est synonyme de plus d’efficacité et plus d’équité. Pourtant, beaucoup de recruteurs professionnels sont peu enclins à abandonner l’entretien traditionnel, pour deux raisons principales.

D’une part, ils se disent : « J’ai toujours recruté comme ça, et je vois bien que ça marche. » En réalité, un recruteur qui observe l’effet de ses pratiques dans ses propres recrutements et « qui voit bien que ça marche » court un grand risque de se leurrer. Par exemple, les médecins qui pratiquaient la saignée invoquaient eux aussi la preuve par l’expérience, avant que cette pratique ne tombe en désuétude au XVIIᵉ siècle, avec les progrès scientifiques. Pierre Brissot, professeur émérite de médecine, souligne que l’on doit tirer de l’histoire de la saignée « une évidente leçon d’humilité, cette histoire démontrant, s’il en était besoin, que l’intime conviction ne peut se substituer à la preuve ».

D’autre part, de nombreux recruteurs surestiment leur capacité à repérer les talents par l’intuition, et l’entretien traditionnel leur permet d’exercer cette capacité. Dans son livre La diversité n’est pas ce que vous croyez ! (2025), Olivier Sibony raconte qu’à l’issue d’une conférence sur les biais cognitifs qu’il venait de donner à un groupe de professionnels des ressources humaines, la DRH d’une grande entreprise française était venue lui dire : « Excellente présentation. Vraiment très intéressant. Mais moi, vous savez, dès que le candidat sort de l’ascenseur, je vois tout de suite s’il va faire l’affaire. »

Fondation nationale pour l’enseignement de la gestion des entreprises (Fnege) Médias, 2024.

Ces croyances profondément ancrées expliquent la surutilisation persistante de l’entretien traditionnel en dépit de l’évidence scientifique. Comme le soulignent Bruchon-Schweitzer et Laberon :

« [I]l semble bien que les pratiques de recrutement, notamment en France, soient dictées par des impératifs étrangers à la science comme à la déontologie. L’impact des recherches (études de validité, notamment) sur les pratiques semble minime et le décalage entre praticiens et chercheurs est particulièrement aigu en France. »

Pour un recrutement fondé sur des preuves

À l’instar de la médecine ou encore de l’éducation, le recrutement gagnerait à encourager des pratiques fondées sur des preuves. Une telle approche permet aux recruteurs d’utiliser les méthodes qui sont les plus valides, mais également celles qui sont les plus équitables dans la sélection des candidats.

L’équité d’une méthode de sélection, c’est-à-dire sa capacité à ne pas discriminer les candidats et donc à garantir un recrutement inclusif, est un critère devenu central dans le recrutement. Là aussi, la recherche fournit des enseignements précieux. Les entretiens structurés, les tests de connaissances professionnelles et les questionnaires biographiques figurent parmi les méthodes les plus prédictives, tout en étant peu discriminantes. Ces méthodes allient donc validité et équité, ce qui devrait les rendre particulièrement pertinentes pour les recruteurs.

Le recrutement fondé sur des preuves n’est pas une lubie académique. Dans son livre Work Rules!, l’ancien DRH de Google Laszlo Bock explique comment il a remodelé le processus de recrutement chez Google suivant cette approche. Par exemple, pour répondre à la question « Quelles méthodes permettent le mieux de prédire la performance future des candidats ? », il s’est tourné vers les résultats de la recherche :

« Quelles techniques d’évaluation utilisons-nous ? L’objectif de notre processus d’entretien est de prédire la performance des candidats une fois qu’ils auront intégré l’équipe. Nous atteignons cet objectif en suivant ce que dit la science : en combinant des entretiens structurés comportementaux et situationnels avec des évaluations des aptitudes cognitives, du caractère consciencieux, et du leadership »_.

L’approche fondée sur des preuves reflète l’objectif pragmatique de déterminer ce qui fonctionne réellement. Elle s’est imposée en médecine et progresse dans l’éducation comme dans les politiques publiques. Pourquoi ne devrait-elle pas aussi s’appliquer au recrutement ? Car recruter, ce n’est pas miser sur l’intuition, mais s’appuyer sur des méthodes dont l’efficacité est démontrée par la recherche.

The Conversation

Vincent Berthet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réduire les biais cognitifs dans le recrutement : pour une pratique fondée sur des preuves – https://theconversation.com/reduire-les-biais-cognitifs-dans-le-recrutement-pour-une-pratique-fondee-sur-des-preuves-264382

De la créativité à la « crédation » : quand les créatifs détruisent la planète

Source: The Conversation – France (in French) – By Sylvain Bureau, Professeur – Directeur Chaire Improbable by Galeries Lafayette, ESCP Business School

Présentée comme clé du développement, qu’il soit personnel ou économique, la créativité alimente aussi la destruction de nos écosystèmes. Une destruction pas toujours créatrice. Ce paradoxe a besoin d’un nom : la « crédation ». L’issue de ce dilemme est aussi un paradoxe : être moins créatif pour créer davantage.


La créativité est partout : dans les discours politiques, économiques et académiques. Le mot est si omniprésent qu’il paraît impensable d’imaginer un monde sans lui. Pourtant le terme a pris son essor aux États-Unis avec la Seconde Guerre mondiale et ne se diffuse vraiment qu’à partir des années 1950. Le déclencheur : la nécessité d’innover à marche forcée pour répondre aux défis militaires et économiques.

Si l’ancrage du concept est d’abord psychologique, avec les travaux de Paul Guilford (1897-1987), qui lancent véritablement les travaux académiques sur la créativité. Dans le contexte de la guerre froide et de l’expansion capitaliste, la créativité devient une arme stratégique. Elle se définit alors comme « faire du nouveau », mais du nouveau utile au système. C’est bien cette double capacité de créer des idées originales et utiles qui est retenue par Teresa Amabile, une chercheuse de Harvard, qui fait référence aujourd’hui sur la question.

« Destruction créatrice »

Cette alchimie de l’originalité et de l’utilité devient alors le moteur du processus de « destruction créatrice », au cœur de la dynamique capitaliste selon Joseph Schumpeter (1883-1950) : des innovations de rupture, portées par la créativité, émergent et balaient les acteurs en place en reléguant leurs solutions devenues obsolètes. L’obsolescence est ici programmée par le système lui-même, un système nourri de créativité.




À lire aussi :
Arts et sciences, même combat ?


Le vocable « créativité » commence à apparaître timidement en français dans les années 1950, notamment chez Bachelard dans la Poétique de l’espace (1957), avant d’entrer dans le dictionnaire le Robert en 1970. Progressivement, il s’impose et révèle une tension féconde : d’un côté, la noblesse de la création artistique, geste désintéressé qui ouvre de nouveaux imaginaires ; de l’autre, l’obsession utilitariste de l’innovation, orientée vers l’optimisation et la productivité. La créativité devient ainsi le lieu d’une hybridation entre l’art et l’efficacité, fusion singulière de l’inspiration poétique et de l’impératif économique. Comme l’ont montré Luc Boltanski et Ève Chiapello dans le Nouvel Esprit du capitalisme (1999), l’économie moderne récupère les notions de liberté et d’imagination portées par l’art pour les mettre au service de la compétitivité.

Résultat : une explosion de la production et de la consommation, une augmentation de l’espérance de vie – en France, l’espérance de vie atteint péniblement la cinquantaine au début du XXe siècle, quand on dépasse les 80 ans aujourd’hui – et un progrès technique sans équivalent historique, largement financé par des budgets militaires massifs. Mais cette puissance a aussi un revers.

La créativité, moteur de destruction

Le constat actuel est sans appel : la créativité détruit plus qu’elle ne crée. Si, en 1870, Jules Verne soulignait dans son roman Vingt mille lieues sous les mers, que « le pouvoir créateur de la nature est bien au-delà de l’instinct de destruction de l’homme », force est de constater que la puissance créatrice de l’être humain est en train de détruire nos milieux de vie naturels.

Aujourd’hui, le lien est tangible. La créativité alimente le dérèglement climatique, l’effondrement de la biodiversité et la pollution globale des écosystèmes (voir le rapport du Giec 2023 ou les travaux de Johan Rockström sur les « limites planétaires »). Une étude récente a même démontré que plus les entrepreneurs sont créatifs, plus ils ont tendance à développer des comportements destructeurs pour la nature via leurs activités.

Dans un tel contexte, il devient alors difficile de maintenir un mot aux connotations si positives pour désigner un processus qui, concrètement, contribue à l’effondrement écologique.

De la créativité à la « crédation »

Pour nommer ce basculement, je propose un néologisme : « crédation ». Ce terme conjugue « créativité » et « déprédation ». La déprédation, mot du XIVe siècle issu du bas latin depraedatio (« pillage »), désigne les destructions opérées par les humains ou par des espèces invasives. Le tourisme de masse produit des déprédations, tout comme les criquets pèlerins qui ravagent les cultures.

Chaque touriste n’a pas la possibilité de déstabiliser le site visité, tout comme chaque criquet est inoffensif, mais la cumulation de la même action produit une destruction du milieu d’origine avec des effets de déstabilisation sur le plan à la fois naturel et social.

La créativité moderne se fait toujours plus crédative : elle se présente comme moteur du progrès, mais engendre en réalité une destruction des équilibres écologiques et sociaux. Inventer un nouveau packaging fait de plastique n’est pas de la créativité, c’est de la crédation. Réaliser une publicité qui incite à acheter toujours plus de produits qui génèrent plus d’impact carbone, ce n’est pas créatif, c’est crédatif.

France Culture 2019.

Alors que faire ?

Si la créativité pose problème, comment relever les défis du XXIᵉ ; siècle ? La solution réside moins dans le fait « d’être créatif » que dans le fait de créer. La nuance est décisive.

L’histoire de l’art nous l’enseigne : les artistes ne cherchent pas l’utilité productiviste, mais la création de formes improbables capables, parfois, de transformer les systèmes de valeur. Les cubistes, par exemple, ont bouleversé les critères d’évaluation de la peinture : la perspective, critère dominant depuis la Renaissance, cessait d’être pertinente.

Une toile cubiste n’est ni plus utile ni moins utile qu’une toile impressionniste. Elle invente d’autres mondes. C’est précisément ce que le philosophe Hartmut Rosa appelle une « résonance » (Résonance. Une sociologie de la relation au monde, 2018) : créer des liens nouveaux avec le monde plutôt que d’optimiser la maîtrise technique de ce qui existe. Or, à l’inverse, la quête d’utilité nourrit mécaniquement le système existant, et donc la spirale de destruction.

Imaginer d’autres performances

Le véritable défi est donc d’activer des mécanismes de création a priori non utiles, capables de redéfinir ce que nous entendons par performance et progrès. Dans l’art, il est possible d’apprécier tout à la fois une sculpture grecque antique, exaltant une beauté idéale, et Fontaine (1917), de Marcel Duchamp, simple urinoir renversé devenu œuvre d’art, dont la force vient de sa puissance critique sur la fabrique du jugement esthétique. La société pourrait apprendre de cette pluralité des régimes de valeur.

Il ne s’agit pas de supprimer la créativité, mais de sortir du monologue où elle est présentée comme unique horizon. Quand la créativité devient une arme de destruction massive, il faut la nommer « crédation ». Et lorsqu’il est urgent d’interroger les valeurs dominantes, il faut agir comme les artistes d’avant-garde : inventer d’autres critères de performance, d’autres manières d’habiter le monde.

The Conversation

Sylvain Bureau a reçu des financements du Groupe Galeries Lafayette (cf. Chaire Improbable)

ref. De la créativité à la « crédation » : quand les créatifs détruisent la planète – https://theconversation.com/de-la-creativite-a-la-credation-quand-les-creatifs-detruisent-la-planete-263692

Un bon manager ne peut pas être un bon pote

Source: The Conversation – France (in French) – By Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Devenir manager n’est pas aisé, notamment vis-à-vis de ses anciens collègues. Comment faire pour devenir le chef de ceux qui étaient hier encore de bons copains, voire des amis ? S’il est difficile de couper tous les liens du jour au lendemain, la prise de poste doit être aussi une prise de distance. À chacun de trouver la bonne.


Quand on accepte un poste de manager, une des exigences les plus difficiles à gérer, c’est de renoncer à être aimé par ses collaborateurs. Cette épreuve, difficile à surmonter, est rarement évoquée ou étudiée.

La situation est encore plus complexe quand on devient le manager de ses anciens collègues. On s’appréciait, on riait ensemble, on faisait des « afterwork sympas, on se rendait des petits services, on échangeait des commérages… il arrivait même qu’on se moquait du patron ! Et là, STOP ! Si le tout nouveau manager pense ou espère que ce sera toujours possible, il comprend vite qu’il n’en est rien.

Comme un lundi

Le matin où il prend ses nouvelles fonctions, il devient instantanément – ou presque – le « chef », le « patron », le « boss », et le regard comme l’attitude des ex-collègues change radicalement. Car ils ne s’y trompent pas. C’est de lui maintenant que leur vie professionnelle dépend au quotidien. Missions, moyens, avantages divers, dates des congés payés, accord sur les RTT… sont du ressort de ce nouveau manager.

Les relations amicales, si elles persistent, risquent vite de dériver vers de la manipulation plus ou moins voulue et consciente, mettant en péril la cohésion de l’équipe et sa performance. Les exemples sont nombreux. En voici quelques-uns :

  • Créer le syndrome du chouchou avec tous les conflits et les jalousies que cela peut provoquer, et leurs impacts délétères sur le climat de l’équipe,

  • Générer des pertes de temps en bavardages, ou pauses allongées

  • Prendre des décisions avec des biais dus à l’amitié, par exemple : ne pas vouloir décevoir ou avoir un a priori positif pour le projet d’un collaborateur/ami,

  • Laisser fuiter des informations confidentielles car « un ami ne trahit pas un secret » !

  • Avoir des réactions affectives à des remarques ou des remises en cause…




À lire aussi :
Comment faire fuir vos employés ? Petit guide (ironique) de gestion toxique de la performance


Mon meilleur ami

Le nouveau manager peut alors renoncer à son poste car l’amitié est pour lui un facteur majeur de qualité de vie au travail. C’est ce que nous disent les salariés canadiens qui sont 68 % à attribuer une note de 8, 9 ou 10 (sur 10) à leur satisfaction à l’égard des amitiés au travail. Les salariés français ne sont pas en reste quand 82 % d’entre eux estiment que les relations entre collègues permettent d’oublier la pénibilité du travail

On a une illustration très forte de cette option dans la série télévisée « 37 secondes » qui traite du naufrage mystérieux du Bugaled Breizh, occasionnant la mort de 5 marins-pêcheurs. L’ensemble du combat des familles pour faire valoir la vérité sur la cause de l’accident est vu par les yeux de Marie, une jeune femme, employée dans une poissonnerie industrielle. Elles sont 6 ou 7 femmes à préparer les poissons qui viennent d’être pêchés en mer pour la vente, écaillant, éviscérant, toute la journée dans un atelier où règne une température très basse. Leur amitié est ce qui les fait tenir.

Or, Marie nourrit le projet de devenir cheffe d’atelier, pour échapper à ce travail si dur et pour des raisons financières. Elle saute de joie quand elle apprend qu’elle a le poste, mais, très vite, elle va perdre ses amies/ex-collègues, qui s’éloignent d’elle, l’excluant de tous les moments off et des discussions au travail, et la soupçonnant même d’être « vendu » à la Direction. Marie va faire le job quelques semaines, et, très vite, elle va demander à reprendre sa place d’ouvrière.

Ni trop près ni trop loin

Si le manager veut garder son poste et devenir un vrai bon manager, il doit renoncer à être un vrai bon pote avec ses équipes. Il doit très vite apprendre à trouver la bonne distance avec ses ex-collègues. Car si trop de proximité peut causer des difficultés, il n’est pas question de s’éloigner de ses anciens camarades. Un minimum de dialogue reste nécessaire quand on est manager.

Le mieux est donc de bien expliciter la nouvelle situation assez rapidement après la prise de poste, lors d’une réunion, où seront présentées plus globalement les nouvelles dispositions managériales : options stratégiques, organisations, répartition des tâches, objectifs… La meilleure formule est de reconnaître que ce n’est pas forcément une transition simple à gérer, mais qu’elle doit avoir lieu.

À chacun sa manière

Certains nouveaux managers ont besoin de créer la rupture très vite, d’autres vont modifier leurs habitudes très progressivement : ne plus être au café du matin, ne plus déjeuner ensemble à la cantine (du moins pas tous les jours !), moins se voir en dehors du travail…

Comme toujours, tout est à moduler en fonction des personnes, du moment, du contexte. Je me souviens avoir rencontré un manager qui m’avait expliqué avoir choisi de vouvoyer ses ex-collègues (qu’il tutoyait jusque là) pour marquer cette distance. Visiblement, cela lui avait permis de franchir le pas.

Xerfi-2020.

Arriver comme manager d’une équipe qu’on ne connaissait pas est plus simple. Mais on peut avoir la tentation de se faire « aimer » en jouant le bon pote : offrir des verres, rendre des services…

Le rôle de la convivialité

Si on se fait apprécier très vite, c’est un très mauvais calcul à long terme ! Le manager se met en position difficile pour toutes sortes de situations qu’il devra gérer : dire non à une demande congés, arbitrer entre deux collaborateurs pour une formation, recadrer des comportements inappropriés. Mais attention, si l’amitié, au sens affectif, n’a pas sa place entre un manager et ses équipes, la convivialité et le respect sont essentiels. Il ne s’agit pas de virer au chefaillon ni de tomber dans l’autoritarisme ! Le rejet serait immédiat !

Un manager doit gagner le respect de ses équipes, par ses compétences, par sa capacité à prendre les bonnes décisions, à gérer les conflits, à traiter les personnes qu’il dirige en toute équité, sa capacité à faire confiance, à être à l’écoute. Toutes ces compétences permettent à chacun de travailler en toute sérénité et en toute sécurité psychologique. Elles ne peuvent s’exercer pleinement si l’affectif s’en mêle. Définitivement, un bon manager ne peut être un bon pote. Pas plus qu’être un bon pote ne soit une garantie pour devenir un bon manager !

The Conversation

Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Un bon manager ne peut pas être un bon pote – https://theconversation.com/un-bon-manager-ne-peut-pas-etre-un-bon-pote-263851

Les richesses extraordinaires de la Gaza antique exposées à l’Institut du monde arabe

Source: The Conversation – France (in French) – By Christian-Georges Schwentzel, Professeur d’histoire ancienne, Université de Lorraine

Détail d’une mosaïque byzantine, site de Jabaliya. J.-B. Humbert/IMA

La cité de Gaza, fondée il y a environ 3 500 ans, fut, dans l’Antiquité, l’un des principaux carrefours commerciaux entre Orient et Occident. C’est cette position stratégique exceptionnelle et l’extraordinaire richesse qui en découlait que révèle l’exposition « Trésors sauvés de Gaza : 5 000 ans d’histoire », présentée à l’Institut du monde arabe, à Paris, jusqu’au 2 novembre 2025.


L’exposition « Trésors sauvés de Gaza : 5 000 ans d’histoire » met en lumière les divers et nombreux sites historiques de Gaza qui ont récemment été détruits par des bombardements.

On y découvre un choix de 130 objets, datant du VIIIᵉ siècle avant notre ère au XIIIᵉ siècle de notre ère, qui témoignent de la foisonnante imbrication des cultures dans l’antique cité de Palestine, forte de ses échanges avec l’Égypte, l’Arabie, la Grèce et Rome.

Mais cette prospérité suscita la convoitise des États voisins et d’envahisseurs étrangers. Gaza s’est ainsi trouvée, dans l’Antiquité, au cœur de guerres d’une violence inouïe dont témoignent les auteurs anciens.

Le débouché maritime de la route des aromates

À Gaza arrivaient les aromates, encens et myrrhe, transportés à dos de chameaux, dans des amphores, depuis le sud de la péninsule Arabique. L’encens est une résine blanche extraite d’un arbre, dit boswellia sacra, qu’on trouve en Arabie du sud. On pratiquait une incision dans le tronc de l’arbre dont s’écoulait la sève qu’on laissait ensuite durcir lentement.

La myrrhe provenait également du sud de l’Arabie. C’est une résine orange tirée d’un arbuste, nommé commiphora myrrha.

Le siège de Gaza par Alexandre le Grand, peinture de Tom Lovell (1909-1997).

Les Nabatéens, peuple arabe antique, qui contrôlaient le sud de la Jordanie actuelle, le nord-ouest de l’Arabie et le Sinaï, convoyaient ces produits vers Gaza, en partenariat avec d’autres peuples arabes, notamment les Minéens, dont le royaume se trouvait dans l’actuel Yémen. Au IIIᵉ siècle avant notre ère, les papyrus des archives de Zénon de Caunos, un fonctionnaire grec, évoquent l’« encens minéen » vendu à Gaza.

Il y avait également des épices qui arrivaient à Gaza depuis le sud de l’Inde après avoir transité par la mer Rouge. Zénon mentionne le cinnamome et la casse qui sont deux types de cannelle. Le nard, dit parfois « gangétique », c’est-à-dire originaire de la vallée du Gange, provenait lui aussi du sous-continent indien.

Le nard entrait dans la composition d’huiles parfumées de grande valeur, comme en témoigne un passage de l’évangile selon Jean. Alors que Jésus est en train de dîner, à Béthanie, dans la maison de Lazare, intervient Marie, plus connue sous le nom de Marie-Madeleine.

« Marie prit alors une livre d’un parfum de nard pur de grand prix ; elle oignit les pieds de Jésus, les essuya avec ses cheveux et la maison fut remplie de ce parfum. » (Jean, 12, 3)

Flacon en forme de dromadaire accroupi, chargé de quatre amphores, découvert à Gaza, VIᵉ siècle de notre ère.
Wikipédia, Fourni par l’auteur

Parfums d’Orient

Depuis Gaza, les aromates étaient ensuite acheminés par bateau vers les marchés du monde grec et de Rome. L’Occident ne pouvait alors se passer de l’encens et de la myrrhe utilisés dans un cadre religieux. On en faisait deux types d’usage sacré : sous la forme d’onctions ou de fumigations. On produisait des huiles dans lesquelles on faisait macérer les aromates ; on enduisait ensuite de la substance obtenue les statues ou objets de culte. On faisait aussi brûler les aromates dans les sanctuaires pour rendre hommage aux dieux.

Résine d’encens.
Wikimédia, Fourni par l’auteur

Ces pratiques étaient devenues aussi courantes que banales à partir du IVᵉ siècle avant notre ère. Il était impensable de rendre un culte sans y associer des parfums venus d’Orient. Les fragrances qu’exhalaient les aromates étaient perçues comme le symbole olfactif du sacré. Outre cet usage cultuel, les aromates pouvaient aussi entrer dans la composition de cosmétiques et de produits pharmaceutiques.

La convoitise d’Alexandre le Grand

Mais la richesse de Gaza suscita bien des convoitises. Dans la seconde moitié du IVᵉ siècle avant notre ère, le Proche-Orient connaît un bouleversement majeur en raison des conquêtes d’Alexandre le Grand, monté sur le trône de Macédoine, royaume du nord de la Grèce, en 336 avant notre ère. Deux ans plus tard, Alexandre se lance à la conquête de l’Orient.

Après une série de succès fulgurant, en 332 avant notre ère, le Macédonien arrive sous les murailles de Gaza qu’il encercle. Bétis, l’officier qui commande la ville, mène une résistance acharnée, mais il ne dispose que de « peu de soldats », écrit l’historien romain Quinte-Curce
(Histoire d’Alexandre le Grand, IV, 6, 26).

Alexandre fait alors creuser des tunnels sous le rempart. « Le sol, naturellement mou et léger, se prêtait sans peine à des travaux souterrains, car la mer voisine y jette une grande quantité de sable, et il n’y avait ni pierres ni cailloux qui empêchent de creuser les galeries », précise Quinte-Curce. Les nombreux tunnels aménagés sous la ville, jusqu’à nos jours, témoignent encore de cette caractéristique du sol de Gaza et sa région.

Après un siège de deux mois, une partie de la muraille s’effondre dans la mine creusée par l’ennemi. Alexandre s’engouffre dans la brèche et s’empare de la ville.

« Bétis, après avoir combattu en héros et reçu un grand nombre de blessures, avait été abandonné par les siens : il n’en continuait pas moins à se défendre avec courage, ayant ses armes teintes tout à la fois de son sang et de celui de ses ennemis. »

Affaibli, le commandant de Gaza est finalement capturé et amené à Alexandre. Avec une extrême cruauté, le vainqueur lui fait percer les talons. Puis il y fait passer une corde qu’il relie à son char, avant d’achever Bétis en traînant son corps autour de la ville, jusqu’à ce qu’il l’ait réduit en lambeaux. Quant aux habitants de Gaza qui ont survécu au siège, ils sont vendus comme esclaves.

Lors du pillage qui s’ensuit, Alexandre s’empare d’une grande quantité de myrrhe et d’encens. L’auteur antique Plutarque raconte que le vainqueur, très fier de son butin, en envoya une partie à sa mère, la reine Olympias, restée en Macédoine, et à Léonidas qui avait été son instructeur militaire dans sa jeunesse (Plutarque, Vie d’Alexandre, 35).

Monnaie (tétradrachme) d’argent de Ptolémée III, frappée à Gaza, 225 avant notre ère.
Fourni par l’auteur

La renaissance de Gaza

Après la mort d’Alexandre, la ville est reconstruite et placée sous la domination des Ptolémées, successeurs d’Alexandre en Égypte et au Proche-Orient. Les souverains ptolémaïques collaborent alors avec l’élite des marchands de Gaza et les transporteurs nabatéens. Cette politique est largement bénéfique : elle enrichit à la fois les Gazéens, les Nabatéens et les Ptolémées qui prélèvent des taxes sur les produits acheminés dans la ville.

Au cours du IIᵉ siècle avant notre ère, Gaza devient la capitale d’un petit État indépendant, allié du royaume nabatéen. Suivant le modèle des cités grecques, les Gazéens élisent à leur tête un commandant militaire qui porte le titre de « stratège ».

Nouveau siège, nouvelle destruction

C’est alors que le roi juif Alexandre Jannée, qui appartient à la dynastie des Hasmonéens régnant sur la Judée voisine, décide d’annexer Gaza. En 97 avant notre ère, il attaque la ville qu’il assiège. Un certain Apollodotos exerce la fonction de « stratège des Gazéens », écrit Flavius Josèphe (Antiquités Juives, XIII, 359). Face à la menace, il appelle à l’aide Arétas II, le puissant souverain nabatéen, qui règne depuis Pétra, au sud de la Jordanie actuelle, sur une large confédération de peuples arabes. C’est pour cette raison qu’il porte le titre de « roi des Arabes », et non pas des seuls Nabatéens, selon Flavius Josèphe.

Dans l’espoir d’une arrivée prochaine d’Arétas II, les habitants de Gaza repoussent avec acharnement les assauts de l’armée d’Alexandre Jannée.

« Ils résistèrent, écrit Flavius Josèphe, sans se laisser abattre par les privations ni par le nombre de leurs morts, prêts à tout supporter plutôt que de subir la domination ennemie. » (« Antiquités juives », XIII, 360)

« Les soldats massacrèrent les gens de Gaza »

Mais Arétas II arrive trop tard. Il doit rebrousser chemin, après avoir appris la prise de la ville par Alexandre Jannée. Apollodotos a été trahi et assassiné par son propre frère qui a pactisé avec l’ennemi. Grâce à cette trahison, Alexandre Jannée, vainqueur, peut pénétrer dans la ville où il provoque un immense carnage.

« Les soldats, se répandant de tous côtés, massacrèrent les gens de Gaza. Les habitants, qui n’étaient point lâches, se défendirent contre les Juifs avec ce qui leur tombait sous la main et en tuèrent autant qu’ils avaient perdu de combattants. Quelques-uns, à bout de ressources, incendièrent leurs maisons pour que l’ennemi ne puisse faire sur eux aucun butin. D’autres mirent à mort, de leur propre main, leurs enfants et leurs femmes, réduits à cette extrémité pour les soustraire à l’esclavage. » (Flavius Josèphe, « Antiquités juives », XIII, 362-363)

Monnaie de bronze de Cléopâtre VII frappée à Gaza, 51 avant notre ère.
Fourni par l’auteur

Trente ans plus tard, la ville renaîtra à nouveau de ses cendres, lorsque les Romains, vainqueurs de la Judée hasmonéenne, rendent Gaza à ses anciens habitants. Puis la ville est placée, pendant quelques années, sous la protection de la reine Cléopâtre, alliée des Romains, qui y frappe des monnaies. La cité retrouve alors son rôle commercial de premier plan et redevient pour plusieurs siècles l’un des grands creusets culturels du Proche-Orient.


Christian-Georges Schwentzel vient de publier les Nabatéens. IVᵉ siècle avant J.-C.-IIᵉ siècle. De Pétra à Al-Ula, les bâtisseurs du désert, aux éditions Tallandier.

The Conversation

Christian-Georges Schwentzel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les richesses extraordinaires de la Gaza antique exposées à l’Institut du monde arabe – https://theconversation.com/les-richesses-extraordinaires-de-la-gaza-antique-exposees-a-linstitut-du-monde-arabe-265405

Le désir de maternité des jeunes chercheuses face à la précarité : se lancer, reporter ou avorter ?

Source: The Conversation – France (in French) – By Marie Janot Caminade, Docteure en science politique, chercheuse à l’Institut des sciences sociales du politique (ISP), Université Paris Nanterre – Université Paris Lumières

Louise Bourgoin interprète le rôle d’une doctorante en philo face aux défis de la maternité dans le film _Un heureux événement_ (2011), de Rémi Bezançon . Mandarin Cinéma/Gaumont/France 2 Cinéma/Scope Pictures/RTBF/Allociné

Comment concilier le désir de réussir une carrière scientifique avec un projet de maternité ? Alors que l’accès à un poste stable dans le domaine de la recherche ressemble à un parcours d’obstacles, ce dilemme expose les jeunes docteures à des souffrances qui témoignent d’une forme de violence symbolique. Explications à partir d’une enquête de terrain.


En 2024, Emmanuel Macron a affirmé la nécessité d’un « réarmement démographique » pour contrer la baisse de la natalité en France. En réaction, les associations féministes ont dénoncé – à juste titre – une tentative de réappropriation du corps des femmes par le pouvoir politique. Elles rappellent ainsi un slogan féministe des années 1970 : « Mon corps, mon choix. »

En plus de correspondre à un retour en arrière dangereux pour les droits des femmes, la déclaration du président nie l’existence de réalités socioéconomiques et professionnelles particulières. C’est ce que montre l’enquête que j’ai menée auprès d’une quinzaine de chercheuses non titulaires de l’enseignement supérieur et de la recherche (ESR) à propos de leur désir d’enfant.

Nos entretiens révèlent à quel point la précarité économique, l’instabilité professionnelle, l’incertitude de la titularisation, le surmenage et l’anxiété que ces jeunes femmes peuvent vivre sont des obstacles à leur projet de maternité et, par conséquent, à leur pleine liberté de disposer de leurs corps.

Une femme et une chercheuse totales

En tant que femmes, la société incite les doctorantes et jeunes docteures à être performantes à tous les niveaux. Elles doivent être des « femmes totales », à savoir des professionnelles efficaces, des conjointes attentives et des mères dévouées. Dans cet idéal, la maternité est effectivement présentée comme une condition de l’épanouissement des femmes.

En tant que non titulaires, les jeunes chercheuses vivent l’injonction à devenir des femmes totales dans un cadre professionnel particulièrement contraignant. Depuis les années 1980, les choix politiques opérés précarisent le personnel universitaire. Comme en témoigne Thomas Porcher dans le Vacataire (2025), ces décisions ont des conséquences très concrètes sur les jeunes chercheuses et chercheurs : elles les incitent à travailler beaucoup, souvent à titre gratuit. Dans l’espoir d’être un jour titularisés, ils et elles doivent produire une excellente thèse, participer à des événements scientifiques, écrire des articles, enchaîner les cours en vacation et développer leur réseau auprès des titulaires de l’ESR.

Si certaines et certains bénéficient de contrats à durée déterminée (doctoraux ou post-doctoraux), d’autres sont au chômage ou exercent un travail alimentaire à côté de leurs activités de recherche effectuées à titre gratuit.

Or, les doctorantes ou jeunes docteures ont-elles les mêmes possibilités que les hommes à devenir des chercheuses totales quand elles doivent en plus répondre à l’injonction à devenir des femmes totales ? Pour Maya, jeune docteure en sciences humaines et sociales (SHS), la réponse est claire :

« Il est évident que les processus de titularisation dans l’ESR (du moins en SHS) sont favorables aux hommes, alors même qu’il y a plus de femmes doctorantes dans ces matières. À mon sens, il faudrait comparer le temps moyen qu’une femme peut accorder à la recherche quand elle se tape chez elle la plupart des tâches domestiques, voire parentales quand elle est mère, et le temps dont dispose un homme. »

Si Maya verbalise les inégalités entre les hommes et les femmes non titulaires de l’ESR, les autres femmes qui ont un désir d’enfant semblent les avoir intériorisées sans y faire explicitement référence. Cela est particulièrement le cas des femmes en fin de thèse ou qui viennent de soutenir celle-ci en SHS ou en lettres. Selon un rapport du Sénat – un peu daté (2001) –, l’âge médian en fin de doctorat dans ces disciplines se situe autour de 29,9 ans. Cet âge s’approche de l’âge moyen des femmes au premier enfant en France, estimé à 29,1 ans.




À lire aussi :
Doctorat : Les coûts invisibles de la thèse, entre surmenage et anxiété


À cette étape de la carrière des doctorantes ou jeunes docteures, les injonctions à devenir une femme et une chercheuse totales entrent alors en contradiction. Celles qui ont un projet de maternité se retrouvent face à un dilemme, vécu généralement avec angoisse : doit-on attendre d’être titularisée pour avoir un enfant ou concrétiser ce projet avant la titularisation ?

Avoir un enfant : se lancer ou patienter

Certaines doctorantes et jeunes docteures, que je nomme les « patientes », choisissent de reporter leur projet de maternité jusqu’à la titularisation. Pour elles, la maternité pourrait être un frein à la productivité attendue dans le monde universitaire et scientifique. Leur raisonnement est stratégique : elles souhaitent d’abord obtenir une position professionnelle solide pour accueillir ensuite un enfant.

Néanmoins, cette patience peut devenir une véritable source de souffrance. Le témoignage de Jeanne, docteure en science politique depuis 2020, toujours en attente de sa titularisation, l’illustre bien. La jeune femme explique l’angoisse qu’elle ressent du fait des injonctions à devenir une femme et une chercheuse totales :

« Quand j’étais en thèse, j’avais ce désir d’enfant très très fort. J’étais en couple depuis quatre ans avec un homme qui voulait aussi un enfant. On en parlait sérieusement, mais je préférais attendre d’être recrutée. Maintenant, je vais avoir 36 ans, je suis sans mec, car nous nous sommes séparés il y a peu. Je suis toujours sans poste et sans garantie d’en avoir un, un jour. Ça me déprime, car j’ai l’impression d’avoir loupé le coche aussi bien dans ma vie professionnelle que personnelle. »

À l’inverse des « patientes », certaines jeunes chercheuses choisissent d’avoir un enfant en fin de thèse. Je les surnomme ici « celles qui se lancent ». Leur logique repose sur ce qu’elles qualifient de « lucidité » : leur carrière académique étant précaire et incertaine, elles pensent qu’il est illusoire d’attendre le bon moment pour avoir un enfant.

La maternité devient ainsi un projet qu’elles décident de ne plus différer. Dans certains cas, ce projet apparaît même comme un moyen de trouver une forme de stabilité que le monde universitaire ne leur garantit pas, à l’image de l’investissement accru des vacataires dans leurs relations de couple, décrit par Thomas Porcher. Doctorante en psychologie, Célia affirme :

« Depuis que je suis devenue mère, je me dis qu’il y a au moins un truc dans ma vie qui ne changera pas. »

Malgré cela, concrétiser son projet de maternité ne se fait pas sans crainte. Les femmes qui se lancent redoutent d’être perçues comme « moins investies » ou comme ayant « trahi » leur engagement scientifique. Ces angoisses sont alimentées par des récits ou des rumeurs bien connus dans l’ESR. Élodie me raconte ainsi :

« J’avais ultra peur d’annoncer ma grossesse à mon directeur de thèse. J’avais peur qu’il croie que je cherchais un prétexte pour gagner du temps. Dans mon labo, une fille avait été blacklistée parce qu’elle était enceinte. Il y a des gens qui disaient qu’elle avait fait exprès pour repousser sa soutenance. »

Violence symbolique et genrée

Enfin, un troisième groupe de jeunes chercheuses – que je qualifie d’« hésitantes » – se situe entre celles qui se lancent et les patientes. Leur hésitation se traduit dans leurs corps : certaines arrêtent la contraception, tombent enceintes puis choisissent d’avorter. Cela a été mon cas, mais aussi celui d’une doctorante que j’ai rencontrée. Celle-ci me confie avoir vécu trois interruptions volontaires de grossesse au cours de sa thèse :

« J’avais très envie d’un enfant. Dès que je tombais enceinte, j’étais heureuse comme tout. Mais mon entourage me dissuadait sans cesse : “Attends la fin de ta thèse, ce sera trop compliqué avec un enfant. Tu vas avoir trop de trucs à faire, c’est impossible”… À chaque fois, je me suis laissée convaincre que c’était en effet la meilleure des solutions et puis, au bout de la troisième fois, à 32 ans, j’ai dit “Stop”. Merde, j’ai le droit de faire ce que je veux de mon corps : dans les autres milieux pros, les femmes se sentent-elles aussi obligées d’avorter pour continuer à faire du travail gratos ? »

Le dilemme entre carrière scientifique et désir d’enfant ne se résout jamais facilement. Il témoigne d’une forme de violence symbolique et genrée que subissent les doctorantes et docteures non titulaires du fait des injonctions à devenir des chercheuses et des femmes totales. Ce dilemme se manifeste à travers ce qu’elles définissent dans tous les cas (désir d’enfant concrétisé, reporté ou avorté) comme des sacrifices « douloureux ».

Cet article n’a pas pour vocation de révéler les inégalités de genre que subissent les femmes de l’ESR qui sont ou qui aspirent à devenir mères. Il s’agit bien là de mettre au jour les obstacles que rencontre l’ensemble des femmes de l’ESR, peu importe si elles ont un désir d’enfant ou non.

En effet, pourquoi le projet de maternité est-il vécu par les femmes comme un potentiel obstacle à leur carrière académique, là où la paternité des jeunes chercheurs l’est moins ? Sans doute parce que les inégalités genrées qui sévissent dans la société se répercutent dans l’ESR, secteur déjà très fragilisé par la précarité.

The Conversation

Marie Janot Caminade ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le désir de maternité des jeunes chercheuses face à la précarité : se lancer, reporter ou avorter ? – https://theconversation.com/le-desir-de-maternite-des-jeunes-chercheuses-face-a-la-precarite-se-lancer-reporter-ou-avorter-261714

Protéger les cultures sans pesticides grâce au langage olfactif des plantes

Source: The Conversation – France in French (2) – By Fiorucci Sébastien, Maître de conférences en chimie informatique et théorique, Université Côte d’Azur

Découvrez comment les plantes utilisent les odeurs pour se défendre contre les insectes nuisibles et comment les scientifiques cherchent à exploiter ces messages invisibles pour développer de nouvelles méthodes de protection des cultures plus respectueuses de l’environnement.


Bienvenue dans la jungle des odeurs où les plantes ne sont pas aussi innocentes qu’elles en ont l’air ! Quand certaines plantes sont attaquées par un prédateur, elles peuvent lancer un appel à l’aide olfactif. C’est le cas du maïs qui, lorsqu’il est attaqué par les chenilles de la légionnaire d’automne, un papillon causant des dégâts majeurs partout dans le monde, va produire des odeurs attractives pour un prédateur de la chenille : la guêpe Chelonus insularis. Ce petit insecte vient alors prêter main-forte aux plantes en détruisant les envahisseurs. Par exemple, l’alpha-copaène, odeur boisée utilisée en parfumerie, est un composé odorant clé de cette guerre olfactive.

Les plantes sont de vraies pros de la défense olfactive ! En plus d’appeler à l’aide les ennemis naturels des herbivores, elles ont d’autres tours dans leur sac. Certaines émettent des odeurs répulsives pour éloigner les insectes nuisibles, comme des odeurs de défense qui disent “n’approchez pas, je suis toxique !”. D’autres produisent des composés qui attirent les pollinisateurs, comme des odeurs de séduction qui disent “viens ici, j’ai du nectar pour toi !”. Les plantes peuvent même communiquer avec leurs voisines pour les avertir d’un danger imminent, comme un téléphone olfactif qui dit “attention, les insectes arrivent, préparez vos défenses !”.

Les plantes sont de vraies stratèges de la guerre olfactive, et cela sent bon pour la recherche ! Concrètement, comment les scientifiques travaillent-ils à exploiter ces messages invisibles pour développer de nouvelles méthodes de protection des cultures ?

Les pouvoirs olfactifs des plantes

Comme beaucoup d’êtres vivants, les plantes produisent des Composés Organiques Volatils (COV). Les COV sont des molécules qui s’évaporent facilement et sont libérées dans l’air, jouant un rôle clé dans la communication et la défense des plantes. Lorsque ces COV peuvent être perçus par des insectes, d’autres animaux ou même d’autres plantes, et influencent leurs comportements et interactions, on parle alors de composés sémio-chimiques. Et parmi ces composés sémio-chimiques, vous en connaissez peut-être une catégorie qu’on appelle les phéromones, très utilisés par les insectes. C’est un type de composé agissant comme un messager entre individus de la même espèce, permettant par exemple la reconnaissance d’un partenaire sexuel, agissant comme signal d’agrégation, d’alarme, ou encore de cohésion sociale. Les signaux des plantes sont nommés kairomones ou allomones, selon le bénéfice produit : les premiers sont utiles au receveur de l’information, les seconds à l’émetteur. Comprendre ces interactions chimiques peut nous aider à développer de nouvelles stratégies de gestion des populations d’insectes, plus ciblées et plus respectueuses de l’environnement que les méthodes conventionnelles à base d’insecticides de synthèse.

Des signaux olfactifs pour protéger les cultures

Et c’est ici que la recherche en écologie chimique entre en jeu. C’est la science qui étudie les interactions chimiques entre les organismes vivants et leur environnement.

Les scientifiques de ce domaine étudient ces interactions pour comprendre comment les plantes utilisent les COV pour influencer leur environnement. En analysant les odeurs émises par les plantes, ils peuvent identifier les molécules clés qui agissent sur le comportement des insectes. Les chercheurs développent ainsi des méthodes pour reproduire et amplifier les signaux chimiques des plantes, visant à tromper les insectes nuisibles.

Les pièges olfactifs à base d’odeurs attractives que vous avez peut-être dans votre jardin, ou les répulsifs que vous utilisez pour repousser moustiques, guêpes, frelons sont justement inspirés de la recherche en écologie chimique. Vous avez peut-être déjà tenté de vous débarrasser des mites alimentaires dans votre cuisine en utilisant des plaques de glue parfumées à la phéromone sexuelle de ce petit papillon dont les larves s’invitent dans nos farines, riz, pâtes ou fruits secs.

La recherche d’odeurs efficaces n’est cependant pas une mince affaire, vu l’immensité des signaux chimiques émis par les plantes. Une approche complémentaire que nous développons, appelée écologie chimique inverse, en permet un raccourci. Cette nouvelle approche se concentre sur le système de détection des insectes, et en particulier sur leurs « capteurs olfactifs », également appelés récepteurs olfactifs, qui se trouvent sur leurs organes sensoriels.

En comprenant comment ces récepteurs fonctionnent, nous pouvons précisément identifier ce qu’ils sont capables de détecter dans le vaste univers des COV de plantes, et des odeurs en général. Prenons pour exemple la noctuelle du coton qui, comme son nom ne l’indique pas, attaque en réalité une grande variété de cultures principalement dans le sud du Bassin méditerranéen et en Afrique, et représente aujourd’hui une menace invasive en France. L’étude d’un de ses récepteurs olfactifs nous a permis d’identifier de nouveaux attractifs insoupçonnés.

Cette compréhension fine permet de développer de nouvelles molécules capables de perturber de façon ciblée le fonctionnement naturel des récepteurs olfactifs clés et d’élargir le spectre de sémio-chimiques efficaces, sans perturber les insectes voisins. L’écologie chimique inverse permet ainsi d’accélérer le développement de méthodes de protection des cultures ciblées et plus respectueuses de l’environnement, tout en réduisant les impacts non intentionnels sur les autres espèces.

Nos projets de recherche exploitent ces connaissances à des fins appliquées en agriculture. Le projet ARDECO, par exemple, vise à développer une infrastructure nationale distribuée en écologie chimique pour anticiper le retrait de substances phytosanitaires et promouvoir des techniques alternatives pour la protection des cultures. Par ailleurs, le projet INVORIA, cherche à percer les mystères des récepteurs olfactifs des insectes en utilisant une approche innovante mêlant intelligence artificielle et expérimentation haut-débit. Les retombées attendues sont importantes pour la protection des cultures, mais aussi pour la santé humaine et animale, la pollinisation et la bioconservation.

En exploitant le pouvoir des odeurs, les scientifiques participent au développement d’alternatives prometteuses aux pesticides chimiques, contribuant ainsi à une agriculture plus durable et à la préservation de la biodiversité.

The Conversation

Sébastien Fiorucci a reçu des financements de l’ANR (ANR-16-CE21-0002 et ANR-25-CE20-2183), du CNRS (programme MITI 80|Prime), du Ministère de l’Agriculture et FranceAgriMer dans le cadre du Plan d’Action Stratégique PARSADA (PAEDP0924005531), et du programme “recherche à risque” EXPLOR’AE (ANR-24-RRII-0003), confié à INRAE par le Ministère de la Recherche et de l’enseignement supérieur et financé par France 2030.

Emmanuelle Jacquin-Joly a reçu des financements de l’ANR (ANR-20-CE20-003), du CNRS (programme MITI 80|Prime), du Ministère de l’Agriculture et FranceAgriMer dans le cadre du Plan d’Action Stratégique PARSADA (PAEDP0924005531), et du programme “recherche à risque” EXPLOR’AE (ANR-24-RRII-0003), confié à INRAE par le Ministère de la Recherche et de l’enseignement supérieur et financé par France 2030.

ref. Protéger les cultures sans pesticides grâce au langage olfactif des plantes – https://theconversation.com/proteger-les-cultures-sans-pesticides-grace-au-langage-olfactif-des-plantes-264168

Paracétamol et autisme : notre étude portant sur 2,5 millions d’enfants n’a révélé aucun lien

Source: The Conversation – France in French (3) – By Renee Gardner, Principal Researcher, Department of Public Health Sciences, Karolinska Institutet

Selon Donald Trump, président des États-Unis, la prise de paracétamol pendant la grossesse serait liée à un risque accru d’autisme. La plus grande analyse statistique jamais menée sur le sujet, qui a porté sur les données de plus de 2,5 millions d’enfants, n’a pourtant trouvé aucune preuve d’un tel lien.


Le président des États-Unis, Donald Trump, a récemment affirmé que l’usage, pendant la grossesse, de paracétamol (un analgésique également appelé acétaminophène et commercialisé sous le nom de Tylenol aux États-Unis) expliquerait la hausse du nombre de diagnostics d’autisme. Il a suggéré que les femmes enceintes devraient « supporter sans traitement » la fièvre ou la douleur plutôt que d’utiliser ce médicament aux effets antalgique (contre la douleur) et antipyrétique (contre la fièvre).

Cette déclaration a suscité inquiétude et confusion dans le monde entier, mais il n’existe à l’heure actuelle aucune preuve scientifique solide pour étayer l’affirmation de Donald Trump. C’est notamment ce que révélaient nos propres travaux. Publiés en 2024, ils ont porté sur près de 2,5 millions de naissances en Suède. Pourtant, ils n’ont pas permis de mettre en évidence que l’emploi de paracétamol pendant la grossesse augmente le risque d’autisme chez l’enfant. Il s’agit de la plus vaste étude menée à ce jour sur le sujet.

Plus de 25 ans de données

Pour déterminer si cette molécule représente réellement un risque pendant la grossesse, nous avons utilisé les données contenues dans les registres nationaux de santé suédois, qui comptent parmi les plus complets au monde. Notre étude a suivi près de 2,5 millions d’enfants nés entre 1995 et 2019, sur une durée allant pour certains d’entre eux jusqu’a 26 ans.

En combinant les données de délivrance de prescriptions et les entretiens menés par les sages-femmes lors des visites prénatales, nous avons pu identifier les mères ayant déclaré utiliser du paracétamol (environ 7,5 % des femmes enceintes) et celles qui ont affirmé ne pas y avoir eu recours pendant leur grossesse.

Nous avons également veillé à prendre en compte les variables susceptibles d’influer sur les résultats de notre analyse statistique. Nous avons notamment considéré des facteurs tels que la fièvre ou la douleur, qui auraient pu inciter une mère à avoir eu recours au paracétamol lorsqu’elle était enceinte. L’objectif était de nous assurer que la comparaison entre les deux groupes s’avère réellement équitable.

Nous nous sommes ensuite intéressés aux problèmes neurodéveloppementaux des enfants – en particulier aux diagnostics d’autisme, de trouble de l’attention avec hyperactivité (TDAH) ou de déficience intellectuelle.

La force de notre étude vient de la possibilité, grâce à ces données, de comparer des fratries. Nous avons ainsi pu confronter les trajectoires d’enfants nés de la même mère, dans des cas où le paracétamol avait été utilisé pendant l’une des grossesses, mais pas au cours de l’autre. Nous avons ainsi étudié plus de 45 000 paires de frères et sœurs dont au moins l’un avait reçu un diagnostic d’autisme.

Ce dispositif fondé sur une comparaison intrafamiliale est puissant, car les frères et sœurs partagent une grande partie de leur patrimoine génétique et de leur environnement familial. En cas de troubles neurodéveloppementaux, il permet de distinguer si c’est bien le médicament lui-même qui est responsable des problèmes, ou s’il est plus probable que les anomalies soient plutôt dues à des caractéristiques familiales sous-jacentes ou à des affections dont souffrirait la mère.

Usage du paracétamol et autisme

Dans un premier temps, en nous plaçant à l’échelle de l’ensemble de la population, nous avons fait le même constat que celui posé par des études antérieures : les enfants dont les mères avaient déclaré utiliser du paracétamol pendant leur grossesse étaient légèrement plus susceptibles de se voir poser un diagnostic d’autisme, de TDAH ou de déficience intellectuelle.

Cependant, une fois effectuées les comparaisons entre frères et sœurs, cette association disparaissait totalement. Autrement dit, lorsque nous comparions des fratries où l’un des enfants avait été exposé in utero au paracétamol et l’autre non, la différence de probabilité d’obtenir ultérieurement un diagnostic d’autisme, de TDAH ou de déficience intellectuelle disparaissait.

A pregnant woman holds a glass of water in one hands and a pill in the other hand.
Notre étude n’a mis en évidence aucune association entre l’utilisation de paracétamol pendant la grossesse et le risque, pour l’enfant, de se voir poser un diagnostic d’autisme.
Dragana Gordic/Shutterstock

Notre étude n’est pas la seule à avoir cherché à répondre à cette question. Des chercheurs au Japon ont récemment publié les conclusions de travaux basés sur un dispositif de comparaison intrafamiliale similaire, et leurs résultats concordent étroitement avec les nôtres.

Fait important à souligner, les scientifiques japonais ont reproduit ces conclusions dans une population au bagage génétique différent et où les usages de paracétamol pendant la grossesse divergent sensiblement. En effet, au Japon, près de 40 % des mères ont déclaré avoir utilisé ce médicament pendant leur grossesse. À titre de comparaison, moins de 10 % des mères suédoises l’avaient employé.

En dépit de ces différences, la conclusion est identique. Lorsqu’on compare des frères et sœurs, rien n’indique que l’utilisation de paracétamol pendant la grossesse accroisse le risque d’autisme ou de TDAH.

Ces résultats marquent une évolution importante par rapport aux travaux antérieurs, qui reposaient sur des données plus limitées, des cohortes plus restreintes et ne tenaient pas compte des différences génétiques. Ils ne documentaient pas non plus les raisons pour lesquelles certaines mères recouraient aux antalgiques pendant leur grossesse, alors que d’autres s’en abstenaient.

Pourtant, ce point peut avoir son importance. En effet, les mères qui prennent du paracétamol sont plus susceptibles de souffrir de migraines, de douleurs chroniques, de fièvre ou d’infections sévères. Or, on sait que ces affections sont elles-mêmes liées génétiquement à l’autisme ou au TDAH, ainsi qu’à la probabilité, pour leurs enfants, de se voir ultérieurement diagnostiquer l’une de ces affections.

En science statistique, ce type de « facteurs confondants » (ou « facteur de confusion ») peut engendrer des associations convaincantes en apparence, sans pour autant refléter une véritable relation de cause à effet.

Reste la question que beaucoup se posent : comment interpréter ces informations, si l’on est enceinte et que l’on souffre de douleur ou de fièvre ?

Il est important de savoir que laisser se développer une maladie sans la traiter durant la grossesse peut s’avérer dangereux. Chez une femme enceinte, la survenue d’une forte fièvre peut par exemple accroître le risque de complications pour la mère comme pour le bébé. « Serrer les dents », comme l’a suggéré le président Trump, n’est donc pas une option dépourvue de risque.

C’est la raison pour laquelle des organisations professionnelles telles que l’American College of Obstetricians and Gynecologists et l’Agence britannique de réglementation des médicaments et des produits de santé continuent de recommander le paracétamol comme antipyrétique et antalgique de référence pendant la grossesse, à la dose efficace la plus faible et uniquement en cas de nécessité.

(en France, c’est également la position de l’Agence nationale de sécurité du médicament et des produits de santé, qui précise sur son site Internet qu’« il n’existe actuellement aucune nouvelle donnée justifiant une modification des recommandations d’utilisation du paracétamol pendant la grossesse. Le paracétamol (Doliprane, Dafalgan, Efferalgan, etc.) reste le médicament le plus sûr pour soulager les douleurs d’intensité légère à modérée et faire chuter la fièvre pendant la grossesse », ndlr)

Il s’agit ni plus ni moins de la recommandation en vigueur depuis des décennies. Bien entendu, si pour une raison ou une autre une femme enceinte se trouve dans l’obligation de prendre du paracétamol régulièrement, durant une période prolongée, elle doit en référer à son médecin ou sa sage-femme. Mais quoi qu’il en soit, l’idée selon laquelle l’usage de paracétamol pendant la grossesse serait une cause d’autisme n’est tout simplement pas étayée par données scientifiques les plus solides actuellement disponibles.

Le réel danger est qu’un tel discours alarmiste dissuade les femmes enceintes de traiter leurs douleurs ou leur fièvre, et qu’elles mettent ainsi en péril leur santé et celle de leur enfant.

The Conversation

Renee Gardner bénéficie d’un financement du Conseil suédois de la recherche, du Conseil suédois de la recherche pour la santé, la vie professionnelle et le bien-être, et des NIH américains.

Brian Lee a reçu des financements des NIH, du département des Services sociaux de Pennsylvanie, du département de la Défense et du département de la Santé de Pennsylvanie CURE SAP, ainsi que des honoraires personnels du cabinet d’avocats Beasley Allen, Patterson Belknap Webb & Tyler LLP et AlphaSights.

Viktor H. Ahlqvist reçoit un financement de la Société suédoise pour la recherche médicale.

ref. Paracétamol et autisme : notre étude portant sur 2,5 millions d’enfants n’a révélé aucun lien – https://theconversation.com/paracetamol-et-autisme-notre-etude-portant-sur-2-5-millions-denfants-na-revele-aucun-lien-266156

Paracétamol pendant la grossesse : que sait-on d’un éventuel lien avec l’autisme ?

Source: The Conversation – France in French (3) – By Séverine Mazaud-Guittot, Chargée de recherches Inserm, Biologie du développement, Toxicologie, Université de Rennes 1 – Université de Rennes

Donald Trump, président des États-Unis, a déclaré que l’utilisation de paracétamol par les femmes enceintes faisait courir un risque d’autisme aux enfants à naître. Il leur a vivement déconseillé d’en prendre. Sur quelle base s’appuie cette recommandation ? Que disent réellement les études scientifiques ? Pourquoi est-il si difficile d’établir un tel lien ?


C’est une annonce qui a fait couler beaucoup d’encre. Le 22 septembre 2025, le président des États-Unis Donald Trump a déconseillé la prise de paracétamol
aux femmes enceintes
, assurant que l’absorption de ce médicament pendant la grossesse était associée à une augmentation du risque d’autisme chez les nouveau-nés.

Formulée en présence de Robert F. Kennedy Jr., secrétaire à la santé et aux services sociaux, et Marty Makary, commissaire aux aliments et aux drogues à la Food and Drug Administration, cette assertion repose notamment sur les conclusions d’une méta-analyse récemment publiée. Pourtant, ces travaux, comme d’autres avant eux, n’ont pas permis d’établir de consensus scientifique clair.

Pourquoi est-il si difficile de vérifier l’existence d’une association entre la prise de paracétamol pendant la grossesse et la survenue de troubles du neurodéveloppement chez l’enfant ? Et qu’en pense, à l’heure actuelle, la communauté scientifique ?

Des interrogations légitimes ?

On sait aujourd’hui que certaines des molécules chimiques produites par l’industrie peuvent se retrouver dans l’environnement et exercer une influence sur notre santé. L’exposition à ces composés chimiques est particulièrement préoccupante pendant la grossesse, car elle peut avoir des conséquences pour la santé du futur nouveau-né.

Depuis cette prise de conscience, les scientifiques ont redoublé d’efforts pour analyser les effets de milliers de composés chimiques auxquels nous pouvons être exposés involontairement. Au début des années 2010, cette mobilisation a permis de mettre en évidence que l’usage de certains médicaments, qui s’est accru au fil des dernières décennies, constitue lui aussi une source d’exposition à divers composés chimiques potentiellement toxiques pour les femmes enceintes.

Or, l’un des médicaments les plus prescrits et consommés est le paracétamol, présent dans presque toutes les armoires à pharmacie et autres sacs à main. Ce constat a conduit les chercheurs à s’interroger : le paracétamol peut-il engendrer des effets à long terme sur les individus exposés in utero ? Si tel est le cas, doit-il être considéré comme un perturbateur endocrinien ? Parmi les conséquences suspectées, un lien avec la survenue de troubles du développement neuronal a été évoqué.

Pas de consensus clair

Depuis une dizaine d’années, de nombreuses études épidémiologiques ont été menées pour évaluer si une exposition au paracétamol pendant la vie intra-utérine pouvait avoir un effet sur la santé de l’enfant.

Ces études, dites « de population », portent sur des cohortes, autrement dit des groupes de personnes. Dans le cas présent, elles impliquent d’une part de caractériser l’exposition des femmes au paracétamol (par exemple via des questionnaires qu’elles remplissent, ou par l’interrogation des bases de données des prescriptions de l’assurance maladie) et, d’autre part, d’évaluer les effets sur l’enfant (grâce à des examens cliniques spécifiques ou l’analyse des registres de malformations).




À lire aussi :
Comprendre l’épidémiologie


Pour tenter de mettre en évidence de potentiels effets du paracétamol sur le développement, les chercheurs qui ont mené ces différents travaux se sont focalisés sur trois niveaux : le système nerveux (en analysant par exemple les troubles du comportement et de l’attention), le système respiratoire (en évaluant l’existence d’asthme ou de sifflement respiratoire) ou le système reproducteur (en effectuant le suivi d’éventuelles malformations congénitales).

Globalement, quel que soit le critère considéré, aucun consensus n’a émergé sur une éventuelle association entre l’exposition au paracétamol et un effet donné. Les études mises en place ont parfois même abouti à des conclusions apparemment contradictoires. Certains experts ont par ailleurs exprimé des réticences vis-à-vis des études de populations en elles-mêmes. Plusieurs paramètres compliquent en effet l’interprétation des résultats de telles études.

Les limites des études de population

Au nombre des critiques formulées vis-à-vis des études épidémiologiques mises en place figure le recueil des données d’exposition. En effet, si ces dernières permettent de connaître le pourcentage de femmes ayant pris au moins une fois du paracétamol durant leur grossesse, la plupart du temps la durée des prises, la dose administrée ou le trimestre durant lequel le médicament a été consommé ne sont pas indiqués.

De ce fait, il n’est pas possible de distinguer les expositions ponctuelles (par exemple dans le cas du traitement d’une migraine) d’expositions plus longues, d’une à deux semaines ou davantage. Ce qui peut bien évidemment affecter l’évaluation des risques.

Par ailleurs, les méthodes utilisées (questionnaires, critères cliniques d’évaluation…) peuvent différer d’une étude à l’autre, ce qui ne facilite pas leur comparaison dans les méta-analyses (des approches statistiques visant à synthétiser les résultats d’études indépendantes menées sur un sujet de recherche donné). En conséquence, lesdites méta-analyses n’ont pas toujours permis d’aboutir à une conclusion tranchée.

Qu’en est-il de la méta-analyse sur laquelle s’appuie l’administration Trump ? Ses auteurs se sont penchés sur 46 études précédemment réalisées dans le but de mettre en évidence d’éventuels liens entre prise de paracétamol pendant la grossesse et troubles neurodéveloppementaux.

Selon Andrea Bacarelli, doyen de l’école de santé publique de Harvard et coauteur de cette méta-analyse, les résultats montrent des « preuves d’association » entre l’exposition prénatale au paracétamol et le risque de troubles neurodéveloppementaux. Cette association serait « plus forte lorsque le paracétamol est pris pendant quatre semaines ou plus ».

Cependant, comme le soulignent les auteurs eux-mêmes, cette association n’est pas une preuve de causalité, en raison notamment des limites mentionnées précédemment, qui concernent bien entendu également les études observationnelles analysées ici.

Un diagnostic de l’autisme qui a évolué

Le fait de s’intéresser à l’autisme complique lui aussi les analyses. En effet, le diagnostic de ce trouble, qui ne repose pas sur des analyses biologiques ou anatomiques quantifiables, a beaucoup évolué au cours des dernières décennies.

Aujourd’hui, le spectre des formes d’autisme couvert par les diagnostics est plus large que par le passé. En outre, les professionnels sont davantage sensibilisés à cette question. Par conséquent, les études de populations les plus anciennes ont certainement sous-estimé le nombre de personnes considérées aujourd’hui comme atteintes d’autisme. Ce biais pourrait avoir faussé leurs conclusions.

Davantage de recherches sont donc nécessaires pour éclaircir la question des liens entre troubles neurodéveloppementaux (en particulier l’autisme) et la prise de paracétamol par les femmes enceintes. Il faudra notamment mettre en place des études plus fines et détaillées, faisant appel à des questionnaires ciblés plutôt que généraux. Elles devront prendre en considération à la fois la prescription et l’automédication, les doses, la durée et la période d’exposition.

À ce sujet, soulignons un point important. Afin que les analyses statistiques mises en œuvre pour exploiter les données recueillies au cours des études épidémiologiques soient solides, il est nécessaire de collecter de grandes quantités d’informations provenant de nombreuses femmes et enfants. Il faut donc disposer de cohortes de grande taille.

Une récente étude suédoise s’est justement penchée sur l’analyse des données issues d’une très grande cohorte, comptant près de 2,5 millions d’enfants. Si l’étude a révélé une faible association positive entre l’exposition au paracétamol durant la grossesse et l’incidence de l’autisme ou du trouble de l’hyperactivité avec déficit de l’attention (TDAH), ce lien a disparu après une analyse complémentaire comparant les membres de fratries nés de la même mère. Selon les auteurs, la véritable cause de cette association pourrait être la génétique maternelle, et non le paracétamol.




À lire aussi :
Paracétamol et autisme : notre étude portant sur 2,5 millions d’enfants n’a révélé aucun lien


Ces travaux répondent à l’une des critiques formulées à l’encontre des études de population. Pour que leurs résultats soient fiables, il faut veiller à ce que d’autres paramètres que les seuls facteurs environnementaux soient pris en compte. C’est par exemple le cas du bagage génétique, en particulier dans le cas de l’autisme (ce trouble peut en effet dans une large mesure résulter de causes génétiques). Or, les études réalisées jusqu’ici n’utilisaient pas systématiquement ce paramètre comme facteur de correction.

Dernier point qui complique les interprétations : le fait que les répercussions directes d’une exposition au paracétamol in utero sont difficiles à évaluer sur le long terme. En effet, le fœtus, puis l’enfant sont exposés à bien d’autres produits chimiques durant leur existence. En outre, l’autisme peut n’être détecté que tardivement, ce qui allonge le délai entre l’exposition et le diagnostic, démultipliant les expositions à d’autres molécules.

Pour circonvenir aux limites des études épidémiologiques, les chercheurs peuvent se tourner vers des études complémentaires, réalisées grâce à des modèles expérimentaux. Que nous apprennent-ils sur ce cas précis ?

Que disent les modèles expérimentaux ?

Ce type d’étude vise à évaluer non seulement les effets directs du paracétamol, son mode d’action, mais aussi ses effets à long terme. Les scientifiques recourent pour cela à divers modèles, tels que des cultures de cellules ou des animaux de laboratoire. Il n’est en effet pas envisageable, d’un point de vue éthique, d’obtenir des informations directes sur les expositions chez l’être humain. On ne peut pas prendre le risque de rendre sciemment malades des participants à une étude !

Le problème de cette approche est que, là encore, les pièces du puzzle ne s’assemblent pas vraiment pour le moment. En effet, il n’existe pas de modèle de laboratoire unique et parfait, notamment pour le cerveau. En outre, les lignées de cellules dont les scientifiques auraient besoin n’existent pas forcément (notamment dans le cas des cellules fœtales).

Résultat : les nombreuses études existantes, parfois anciennes, menées sur de nombreux modèles différents, n’ont pas forcément permis de dégager des données cohérentes et reproductibles.

Pour cette raison, des laboratoires développent de nouvelles méthodologies in vitro efficaces et pertinentes pour l’être humain, afin de dépister et d’évaluer le potentiel neurotoxique des produits chimiques. À ce jour, les tests utilisant ces nouveaux outils ont échoué à démontrer une toxicité du paracétamol. Il faut cependant souligner que si de tels outils permettent d’étudier la toxicité aiguë du paracétamol, ils ne permettent pas d’évaluer ses effets sur le fonctionnement à long terme d’un réseau de neurones.

Les modèles animaux – des rongeurs – permettent quant à eux des études sur les effets à long terme. Cependant, l’extrapolation des données de l’animal à l’humain reste délicate. C’est particulièrement le cas en ce qui concerne le paracétamol, puisque la capacité de détoxification de ce médicament par l’organisme varie beaucoup d’une espèce à l’autre.

Par ailleurs, dans la plupart des études faites chez le rat, les doses utilisées pour montrer une neurotoxicité sont celles mimant une intoxication aiguë au paracétamol. Autrement dit, des doses massives, très éloignées des doses thérapeutiques.

Enfin, d’une manière générale, si des tests chez la souris peuvent révéler une altération du comportement après une exposition (postnatale), ces tests ne permettent pas d’évaluer de manière fiable leur similitude avec un trouble du spectre autistique, même s’il existe des exceptions.

Une analyse globale des données portant sur les rongeurs a conclu qu’il n’existait aucune preuve cohérente d’effets indésirables sur le système nerveux après une exposition au paracétamol à des doses thérapeutiques et/ou non toxiques.

Il reste encore de nombreuses parts d’ombre concernant les mécanismes moléculaires d’action du paracétamol sur les différents types de cellules qui composent l’organisme. En effet, il n’existe pas pour l’instant de modèle expérimental parfait, capable de faire le lien entre les effets moléculaires immédiats, cellulaires, du paracétamol, et ses effets à long terme sur des organes ou fonctions humains.

En attendant, débanaliser sans alarmer

Les présomptions actuelles concernant les conséquences de l’exposition au paracétamol durant la grossesse reposent sur un faisceau d’indices issus d’approches scientifiques complémentaires qui doivent encore être consolidées.

À ce titre, invoquer le principe de précaution n’est pas dénué de fondement. Il est important d’informer et de sensibiliser les populations à risque. Il faut débanaliser la consommation de paracétamol (agences réglementaires et ONG s’y emploient), notamment par les femmes enceintes.

Cependant, l’existence de recherches toujours en cours ne doit pas faire naître un sentiment d’incertitude anxiogène, ou une culpabilité injustifiée chez les femmes enceintes. Les risques pourraient être qu’elles se tournent vers des alternatives thérapeutiques moins sûres, telles que les anti-inflammatoires non stéroïdiens. Dès le 6e mois de grossesse, ces médicaments peuvent en effet entraîner des problèmes graves chez le bébé (insuffisance cardiaque, rénale, et dans les cas extrêmes, la mort in utero).

Les experts ne disent pas autre chose, y compris ceux qui ont produit la méta-analyse sur laquelle se base l’administration Trump. Dans le communiqué diffusé par leur université à propos de leurs travaux, ils précisent que selon eux :

« même s’il convient de prendre des mesures pour limiter l’utilisation du paracétamol, ce médicament est important pour traiter la douleur et la fièvre pendant la grossesse, lesquels peuvent également nuire au développement du fœtus. Une forte fièvre peut augmenter le risque de malformations du tube neural et de naissance prématurée. »

Remettre en question la balance-bénéfice/risque d’un antalgique et antipyrétique aussi courant que le paracétamol s’avère être un exercice d’équilibriste compliqué, les autorités étant suspendues entre alarmisme et pragmatisme.

Finalement, la règle d’or doit rester l’adage : « la dose efficace la plus faible, pendant la durée la plus courte nécessaire au soulagement des symptômes ». Et en cas de questions, médecins et pharmaciens restent les personnes de référence.

The Conversation

Séverine Mazaud-Guittot a reçu des financements de l’ANR et l’ANSM pour réaliser ses travaux de recherche.

ref. Paracétamol pendant la grossesse : que sait-on d’un éventuel lien avec l’autisme ? – https://theconversation.com/paracetamol-pendant-la-grossesse-que-sait-on-dun-eventuel-lien-avec-lautisme-266122

FMI : pourquoi, quand et comment le Fonds monétaire international intervient dans un pays

Source: The Conversation – France in French (3) – By Wissem Ajili Ben Youssef, Professeur associé en Finance, EM Normandie

En 2018, le FMI intervient en Argentine avec un prêt record de 57 milliards de dollars. Il s’accompagne de mesures d’austérité, contestées par les Argentins. Maxx-Studio/Shutterstock

La Grèce au bord de la faillite (2008-2010), la Tunisie post-Ben Ali (2013) ou l’Argentine contrainte de dévaluer sa monnaie (2023)… dans chaque crise économique majeure, une institution revient sur le devant de la scène : le Fonds monétaire international (FMI). Mais quel est le rôle exact de cette institution fondée en 1944 ?


Institution créée en vertu des accords de Bretton Woods, à la fin de la Deuxième Guerre mondiale, le Fonds monétaire international (FMI) a pour mission de préserver la stabilité du système monétaire international. Comment ? À travers son triple mandat : la surveillance économique de ses 191 pays membres, l’expertise en matière de politique économique et le déploiement de ses instruments financiers en cas de déséquilibres macro-économiques.

Le FMI n’impose jamais ses interventions. Les pays en butte à des crises économiques spécifiques sollicitent eux-mêmes son aide. Ces programmes soulèvent un dilemme entre efficacité macro-économique et coûts sociaux. Au fil des décennies, son rôle n’a cessé d’évoluer, tout en conservant les fondements de son mandat d’origine.

Dans quelles circonstances le FMI intervient-il dans un pays ?

Prêteur de dernier ressort

L’intervention du FMI constitue une mesure d’exception, lorsque plusieurs indicateurs macro-économiques se détériorent simultanément.

L’histoire des crises financières révèle des dynamiques similaires : déséquilibre aigu de la balance des paiements, chute des réserves de change, accélération de l’inflation, dette publique dépassant des seuils soutenables (60-90 % du PIB), ou encore fuite de capitaux étrangers.

Dans ces situations critiques, le pays concerné ne parvient plus à se financer sur les marchés internationaux à des taux acceptables. Le FMI assure alors le rôle d’un prêteur de dernier ressort. L’institution intervient pour garantir le financement de l’économie et pour éviter un effondrement brutal. Son action vise à restaurer la confiance des marchés et à limiter les risques de contagion à d’autres pays.

Les interventions du FMI sont soumises à une conditionnalité, souvent critiquée, visant à garantir le remboursement du prêt et la stabilisation macro-économique.

Boîte à outils du FMI

Le FMI propose une gamme d’instruments financiers, adaptés aux besoins spécifiques des pays.

Les accords de confirmation sont les plus connus. Le FMI met à disposition d’un pays membre une ligne de crédit sur une période déterminée, généralement un à deux ans. En contrepartie, le pays s’engage à mettre en œuvre un programme de réformes économiques défini, comme la réduction des déficits publics, des réformes fiscales ou la libéralisation de certains secteurs. Les décaissements sont effectués par tranches, à mesure que le pays respecte les conditions convenues.

À l’autre extrémité du spectre, les lignes de crédit modulables s’adressent aux pays dont les fondamentaux économiques sont solides. Elles agissent comme une assurance contre les chocs externes imprévus, sans imposer de programme d’ajustement structurel au pays bénéficiaire. Ces instruments offrent un accès immédiat et sans conditionnalité ex post à des ressources importantes.

Les facilités concessionnelles, telles que la facilité élargie de crédit, ciblent les pays à faible revenu. Ces instruments intègrent désormais les Objectifs de développement durable (ODD). Ce mécanisme de prêt offre des conditions particulièrement avantageuses : des taux d’intérêt très bas, voire nuls, et des périodes de remboursement longues généralement avec un différé de remboursement de cinq ans et demi, et une échéance à dix ans. L’accès à ces ressources est conditionné à des réformes adaptées aux besoins spécifiques du pays bénéficiaire : transparence budgétaire, amélioration de la gouvernance, ou encore développement de filets de sécurité sociale.

Illustrations en Argentine, en Grèce et en Tunisie

L’Argentine face au FMI

L’Argentine incarne les difficultés persistantes que rencontrent certains pays dans leur relation avec le FMI. Après l’effondrement économique de 2001, causé par un régime de change rigide et une dette externe insoutenable, le pays reçoit plus de 20 milliards de dollars d’aide. Les mesures d’austérité imposées exacerbent la crise sociale, nourrissant une méfiance durable envers le FMI.




À lire aussi :
Argentine : le risque d’une nouvelle crise monétaire


En 2018, l’institution aux 191 membres intervient de nouveau avec un prêt record de 57 milliards de dollars, soit le prêt le plus important de son histoire. Les résultats restent mitigés. Le FMI assumant :

« Le programme n’a pas atteint les objectifs de rétablissement de la confiance dans la viabilité budgétaire et extérieure, tout en favorisant la croissance économique. L’accord a été annulé le 24 juillet 2020. »

En 2018, de nombreuses manifestations sont organisées en Argentine contre la politique du FMI.
Matias Lynch/Shutterstock

La Grèce : quand l’austérité devient la seule voie de sortie

La crise grecque entre 2010 et 2015 reste l’un des épisodes les plus scrutés de l’histoire récente de la zone euro. Tout commence lorsque le gouvernement hellène révèle un déficit budgétaire bien supérieur aux chiffres officiels. En réponse, le FMI et l’Union européenne mettent en place un plan de sauvetage de 110 milliards d’euros.

Les réformes exigées – baisse des retraites, privatisations massives, hausses d’impôts – plongent le pays dans une récession profonde. Le chômage explose, la pauvreté s’installe, et la colère sociale augmente. Si la stabilité budgétaire est progressivement restaurée, le coût humain et politique reste lourd. La Grèce devient le symbole d’une austérité imposée, alimentant un euroscepticisme durable.

La Tunisie : une transition démocratique qui freine les réformes économiques

Depuis 2013, la Tunisie, engagée dans une transition démocratique post-révolution, bénéficie de plusieurs programmes du FMI totalisant plus de 3 milliards de dollars. Ces interventions visent à réformer le système de subventions, à moderniser la fiscalité et à renforcer la gouvernance publique.

Si certaines avancées techniques sont réalisées, les résultats macroéconomiques déçoivent : une croissance stagnante à 1 %, un chômage des diplômés dépassant 35 %, une augmentation de la dette publique et des inégalités croissantes.

Ce cas illustre les limites de l’action du FMI dans des contextes de transition, où les équilibres économiques sont étroitement liés à des dynamiques sociales et institutionnelles encore fragiles.

Approche plus souple

Depuis la crise financière mondiale de 2008, le FMI a engagé une réflexion profonde sur ses méthodes d’intervention.

L’évolution institutionnelle du fonds est marquée par plusieurs inflexions majeures, en développant de nouveaux mécanismes, comme les lignes de crédit modulable. Elle offre un accès rapide à des financements importants, sans conditionnalité ex post : seuls des critères stricts d’admissibilité sont exigés en amont. Son accès reste limité à un petit nombre de pays jugés exemplaires par le FMI.

L’institution internationale met l’accent sur la protection sociale, en imposant par exemple des planchers de dépenses sociales dans certains programmes. Elle adapte également ses recommandations aux contextes nationaux, avec des calendriers de réformes plus souples.

Lors de la pandémie du Covid-19, le FMI ajuste ses exigences pour permettre aux pays de soutenir leurs économies avant d’engager des réformes structurelles. Le dialogue avec les autorités et la société civile est renforcé par des consultations régulières, comme les forums avec les ONG lors de ses Assemblées annuelles, permettant de mieux intégrer les attentes locales et d’accroître l’appropriation des politiques recommandées.

Deux dilemmes persistent : comment concilier discipline budgétaire et justice sociale ? Comment éviter que les interventions du FMI ne deviennent elles-mêmes des facteurs de déstabilisation dans des sociétés déjà fragilisées ?

The Conversation

Wissem Ajili Ben Youssef ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. FMI : pourquoi, quand et comment le Fonds monétaire international intervient dans un pays – https://theconversation.com/fmi-pourquoi-quand-et-comment-le-fonds-monetaire-international-intervient-dans-un-pays-265034

Les prémices de l’État de droit au Moyen Âge : quand la loi s’impose au roi

Source: The Conversation – in French – By Yves Sassier, professeur émérite, Sorbonne Université

L’histoire intellectuelle et politique du XIIᵉ au XIVᵉ siècle est essentielle pour comprendre la transformation des royautés féodales européennes en États modernes et les prémices des idéaux démocratiques. À cette époque, la redécouverte du droit romain et de la philosophie d’Aristote produisent de passionnants débats sur les rapports du pouvoir et de la loi.


Après l’effacement de l’unité impériale romaine au profit de royautés plurielles (Ve siècle), les penseurs (presque tous membres du clergé) intègrent certaines réflexions des antiques sur les finalités de la loi. Il s’agit d’œuvrer en vue de l’utilité commune et d’éviter tout abus de pouvoir du prince. Ils héritent également de la pensée juridique du Bas Empire chrétien, selon laquelle la loi doit s’efforcer d’orienter l’action des princes vers une réalisation spirituelle. Le bon prince doit légiférer pour Dieu et se soumettre lui-même aux lois qu’il impose à ses sujets. Pourtant, la persistance des vieilles pratiques germaniques – vengeance privée et autorégulation sociale des conflits – débouche, vers la fin du IXe siècle carolingien, sur un profond affaiblissement des royautés comme de leur capacité à « faire loi ».

Mettre en œuvre ce qui est utile à tous

Le XIIe siècle marque un renversement de tendance. La conjoncture économique, démographique et sociale est très favorable aux détenteurs des plus florissantes cités, aux premiers rangs desquels figurent les rois. L’essor de la production et du commerce à distance profite aux princes. Il profite aussi à ceux qui, appartenant au monde clérical des cités, traversent l’Europe pour s’instruire, puis entrent au service des souverains comme conseillers. La démarche intellectuelle de cette élite pensante témoigne d’une lente prise de conscience de la complexité croissante du corps social. Et de la naissance, en son sein d’une forte exigence de sûreté juridique, de liberté et d’identité communautaire.

La réflexion sur le pouvoir, s’inspirant notamment des œuvres de Cicéron, s’oriente ainsi progressivement vers l’idée d’une nature sociale de l’être humain. On réfléchit aussi sur la justice et sur la règle de droit et l’on insiste sur le but ultime de cette justice : mettre en œuvre ce qui est utile à tous et, par-delà, assurer le bien-être matériel et spirituel de la communauté en son entier.

Absolutisme princier versus « certaine science » de la communauté politique

Cette époque est également marquée par la redécouverte de l’immense œuvre juridique de l’empereur romain d’Orient Justinien (VIe siècle). Cet événement considérable suscite la naissance d’une étude textuelle, très tôt mise à profit par les entourages princiers à travers toute la chrétienté occidentale. Dans ce cercle étroit, le débat est lancé entre tenants d’un « absolutisme » princier et partisans d’une capacité propre de toute communauté à émettre ses propres règles.

Les premiers s’appuient sur certains passages de l’œuvre justinienne qui mettent l’accent sur la relation du prince à la loi, notamment deux aphorismes en provenance d’un jurisconsulte romain du IIIe siècle, Ulpien. « Ce qui a plu au prince à la vigueur de la loi ». Ce passage est suivi d’une explication affirmant que par la « lex regia » (loi d’investiture de l’empereur), le peuple romain transmet au prince tout son imperium (pouvoir de commandement) et toute sa potestas (puissance). Et puis :« Le prince est délié des lois », une sentence contraire au modèle du gouvernant soumis à la loi diffusé par la pensée chrétienne du haut Moyen Âge. Tout prince peut alors se prévaloir de ces textes pour affirmer sa pleine capacité à émettre la règle de droit ou à s’affranchir de celle-ci. De telles thèses circulent dès le XIIe siècle dans les entourages royaux.

Cependant, les savants qui glosent le droit romain ont aussi trouvé chez Justinien tel texte par lequel le prince déclare soumettre son autorité à celle du droit et sa propre personne aux lois. Ou tel autre plaidant en faveur d’une fonction législative revenant au peuple, voire d’un droit du peuple d’abroger la loi ou d’y déroger.


CC BY

La théorie de la supériorité de la coutume générale d’un peuple sur la loi du prince, comme celle de la « certaine science » d’une communauté locale la rendant apte à déroger, en pleine conscience, à la règle générale, est un autre apport de ce XIIe siècle. Tout comme la réflexion, plus mesurée, de certains romanistes sur la nécessité, pour une communauté locale s’affranchissant d’une règle, d’agir avec sagesse et de se donner de nouvelles règles conformes à la raison. Ces exigences correctrices de la théorie première ouvrent la voie à la confirmation d’une capacité de suppression de la « mauvaise » coutume par le prince agissant lui aussi en vertu de sa propre « certaine science »

Aristote redécouvert

Jusqu’aux années 1250, c’est principalement dans le sillage de ces acquis que se situe la pensée juridico-politique. La réflexion très neuve sur le pouvoir normatif du prince est désormais un élément essentiel. Le XIIIe siècle est bien celui d’une montée en puissance des législations royales dans nombre de pays européens où semblent dans un premier temps prévaloir les aphorismes d’Ulpien.

La redécouverte, autour des années 1240-1260, de l’_Éthique à Nicomaque et de la Politique_ d’Aristote accélère l’évolution de la réflexion sur l’instrument du pouvoir que redevient la loi. La doctrine naturaliste d’Aristote (l’homme, voué à s’intégrer à une communauté, est par nature un « animal politique ») n’a pas pour conséquence immédiate une complète autonomie du politique vis-à-vis du théologique. Aux yeux des plus aristotéliciens des penseurs du temps, l’homme demeure un être voué à l’obéissance aux commandements divins. La vertu de charité qui lui est assignée implique cet amour du bien commun, vertu première du citoyen.

Il reste cependant que découvrir Aristote permet un remarquable enrichissement de la réflexion sur la communauté. Ici aussi le débat est vif entre juristes et théologiens-philosophes et débouche sur des visions contradictoires des droits de la multitude. Certains considèrent cette dernière comme ayant pleine capacité juridique à consentir aux actes du prince. D’autres persistent à la présenter comme l’équivalent juridique d’un mineur sous protection, son tuteur qu’est le prince disposant d’une plénitude de puissance.

Partager la confection de la loi avec le peuple ?

Si l’exigence du bien commun devient plus que jamais l’objet d’un discours rationnel, sa mise en œuvre, néanmoins, peut adopter deux voies bien différentes. La première s’appuie sur la lecture absolutiste de Justinien : elle insiste sur l’idéal du prince vertueux œuvrant au service de son peuple, apte à légiférer seul, mais en s’appuyant sur de sages conseillers ; apte aussi à ne jamais abuser d’une puissance qui ne connaît cependant d’autre frein que sa propre conscience.

La seconde est assurément nouvelle dans le contexte médiéval de cette fin du XIIIe siècle : mettre en œuvre les possibles alternatives qu’offrent deux éléments essentiels de la réflexion d’Aristote. L’un concerne les variantes qui peuvent modifier en profondeur chacun des trois régimes purs) que sont la monarchie, l’aristocratie et la démocratie ; l’autre porte sur sa préférence pour un régime privilégiant un droit de participation active aux affaires publiques accordé à une partie de la population, représentative d’un « juste milieu » social et garante d’un « juste milieu » éthique. Il s’agit ici d’empêcher toute dérive tyrannique provenant tant d’un monarque ou d’une oligarchie que d’un peuple sans vertu.

Le XIVe siècle verra ainsi croître les théories prônant le recours, par le monarque, au dialogue voire au partage de la confection de la loi avec son peuple. Certaines de ces théories iront même jusqu’à afficher l’idée d’une sorte de souveraineté de principe du peuple en matière législative (Marsile de Padoue, Nicole Oresme).

En cette fin de Moyen Âge, la pensée politique, progressivement mise à portée d’une élite plus large, s’est ainsi orientée vers certaines thèses qui préfigurent le « constitutionnalisme » moderne et aussi, à certains égards, vers ce que la doctrine politique occidentale appelle de nos jours « l’État de droit ». Il est cependant vrai que certaines conditions de cet État de droit (séparation des pouvoirs législatif, exécutif et judiciaire, pleine souveraineté de tout un peuple liée à une pleine égalité de droit de ses membres) ne seront guère acquises à la fin du XVe siècle.

La réflexion sur le politique, on le sait, s’orientera aussi vers l’autre thèse développée dès le XIIe siècle, celle de la toute-puissance d’un prince « absous des lois ». Elle débouchera au tournant des XVIe et XVIIe siècles sur des parenthèses absolutistes parfois courtes et vouées à l’échec comme dans l’Angleterre des Stuarts, parfois plus longues comme dans la France des Bourbons.


Yves Sassier est l’auteur du Prince et la loi en Occident. VIe siècle av. J.-C.-début XVe siècle, Presses universitaires de France, juin 2025.

The Conversation

Yves Sassier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les prémices de l’État de droit au Moyen Âge : quand la loi s’impose au roi – https://theconversation.com/les-premices-de-letat-de-droit-au-moyen-age-quand-la-loi-simpose-au-roi-261976