Avoir un chat a des bienfaits sur votre cerveau… et le sien

Source: The Conversation – in French – By Laura Elin Pigott, Senior Lecturer in Neurosciences and Neurorehabilitation, Course Leader in the College of Health and Life Sciences, London South Bank University

Le cerveau des félins sécrète-t-il de l’ocytocine ? (Shutterstock)

Si les chats ont parfois la réputation d’être indépendants, des recherches récentes montrent que, grâce à la chimie du cerveau, nous avons une relation particulière avec eux.

La principale substance chimique impliquée est l’ocytocine, souvent appelée « hormone de l’amour ». C’est la même substance qui est libérée lorsque l’on berce son bébé ou que l’on enlace un ami, et qui alimente la confiance et l’affection. Des études ont révélé que l’ocytocine jouait également un rôle important dans les rapports entre chats et humains.

L’ocytocine assure un rôle central dans les liens sociaux, la confiance et la régulation du stress chez de nombreux animaux, y compris chez l’être humain. Une expérience menée en 2005 a permis de voir que l’administration d’ocytocine rendait les participants nettement plus enclins à faire confiance aux autres dans des jeux financiers.

Elle a également des effets calmants chez les humains et les animaux, car elle réprime la sécrétion de cortisol, l’hormone du stress, et active le système nerveux parasympathique (le système du repos et de la digestion) pour aider le corps à se détendre.

Les scientifiques savent depuis longtemps que les échanges amicaux déclenchent la libération d’ocytocine chez les chiens et leur maître, créant ainsi une boucle de rétroaction mutuelle qui renforce les liens affectifs. Jusqu’à récemment, cependant, on connaissait peu de choses sur son incidence sur les chats.




À lire aussi :
Quatre façons de savoir si votre chat vous aime, selon la science


Les chats sont plus subtils dans leur manière d’exprimer leur affection. Pourtant, leurs propriétaires éprouvent souvent les mêmes sentiments de camaraderie et de calme que les personnes qui ont des chiens, et ces observations sont de plus en plus confirmées par des études. En 2021, des chercheurs japonais ont rapporté qu’il suffisait de brefs moments passés à flatter leur chat pour augmenter le taux d’ocytocine de nombreuses personnes.

Dans le cadre de cette étude, les chercheurs ont mesuré le taux d’hormones de femmes qui interagissait avec leur chat. Les résultats ont révélé qu’un contact amical avec un félin (le caresser, lui parler d’une voix douce) était associé à un taux plus élevé d’ocytocine dans la salive que pendant une période de détente en silence sans la présence d’un chat.

De nombreuses personnes trouvent apaisant de flatter un animal qui ronronne, et des études ont montré que ce n’est pas seulement grâce à la douceur de son pelage. Le fait de caresser un chat, mais aussi d’entendre son ronronnement, peut déclencher la libération d’ocytocine dans notre cerveau. Une étude réalisée en 2002 a révélé que cette décharge d’ocytocine engendrée par le contact avec un chat causait une diminution du cortisol, l’hormone du stress, et pouvait ainsi abaisser la tension artérielle et soulager la douleur.

Un homme tient un chat gris sur ses genoux
Se blottir contre un chat peut aider à réduire le taux de cortisol, l’hormone du stress.
Vershinin89/Shutterstock

Comment les relations avec un chat permettent-elles de libérer de l’ocytocine ?

La recherche met en évidence des moments précis qui provoquent la libération de cette hormone dans une amitié interespèces. Un contact physique doux semble être un déclencheur chez les chats.

Une étude publiée en février 2025 a révélé que lorsque des gens flattaient, berçaient ou câlinaient leur chat de manière détendue, leur taux d’ocytocine augmentait, tout comme celui de l’animal, à condition que le contact ne soit pas imposé.

Les chercheurs ont mesuré le taux d’ocytocine des chats pendant 15 minutes de jeu et de câlins avec leur maître. Chez les chats qui entretenaient un lien affectif fort avec celui-ci et qui prenaient l’initiative du contact, en s’installant par exemple sur ses genoux ou en donnant de petits coups de tête, on a remarqué une hausse du taux d’ocytocine. Plus ils passaient de temps avec leur humain, plus cette hausse était importante.

Qu’en est-il des félins moins affectueux ? La même étude a permis d’observer des réponses différentes chez les chats ayant un style d’attachement plus anxieux ou distant. Les chats évitants, qui gardaient leurs distances, ne présentaient aucun changement significatif de leur taux d’ocytocine, tandis que les chats anxieux, qui recherchaient constamment leur propriétaire, mais étaient facilement déconcertés par les manipulations, avaient un taux d’ocytocine élevé dès le départ.




À lire aussi :
Les chats sont-ils bons pour la santé ?


On a constaté que le taux d’ocytocine de ces deux types de chats baissait après un câlin forcé. Lorsque les interactions respectent le bien-être du chat, celui-ci sécrète de l’hormone de l’attachement, mais ce n’est plus le cas s’il se sent piégé.

Les humains pourraient peut-être apprendre quelque chose de leurs amis félins en matière de réponse aux différents styles d’attachement. La clé pour développer un lien avec un chat est de comprendre comment il communique.

À la différence des chiens, les chats ne créent pas de liens par des contacts visuels prolongés. Ils utilisent des signaux plus subtils. Le plus connu est le lent clignement des yeux, qu’on interprète comme un sourire félin exprimant la sécurité et la confiance.

Le ronronnement joue également un rôle dans la création de liens avec les humains. Outre son potentiel guérisseur pour le chat, ce son à basse fréquence a un effet apaisant sur les humains. Écouter le ronron d’un chat peut réduire le rythme cardiaque et la pression artérielle ; c’est l’ocytocine qui est à l’origine de ces bienfaits.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


La présence d’un chat, renforcée par toutes ces petites doses d’ocytocine libérées lors des interactions quotidiennes, peut protéger contre l’anxiété et la dépression et, dans certains cas, apporter un réconfort comparable à celui du soutien social humain.

Les chats sont-ils moins aimants que les chiens ?

Il est vrai que les études montrent généralement des taux d’ocytocine plus élevés lors d’interactions entre chiens et humains. En 2016, des scientifiques ont mené une expérience qui a fait grand bruit dans laquelle ils ont mesuré les taux d’ocytocine chez des animaux de compagnie et leur propriétaire avant et après dix minutes de jeu. Les chiens ont présenté une augmentation moyenne de 57 % de leur taux d’ocytocine après avoir joué, tandis que les chats ont affiché une hausse d’environ 12 %.

Chez les êtres humains, le taux d’ocytocine augmente lors d’interactions sociales significatives. Des études ont montré que le contact avec un être cher provoquait une augmentation plus importante du taux d’ocytocine que le contact avec des étrangers. Et l’accueil joyeux d’un chien engendre une réaction semblable à celle créée par la vue de son enfant ou de son conjoint.




À lire aussi :
Comment caresser un chat, selon la science


On pourrait dire que les chiens, qui sont des animaux de meute domestiqués pour accompagner les humains, sont programmés pour rechercher le contact visuel, les caresses et l’approbation de ces derniers, un comportement qui stimule la libération d’ocytocine chez les deux parties. Les chats, en revanche, descendent de chasseurs solitaires qui n’avaient pas besoin de gestes sociaux pour survivre. Ainsi, ils peuvent ne pas afficher un comportement alimenté par l’ocytocine aussi facilement ou régulièrement. Ils réservent plutôt ce type de comportement pour les moments où ils se sentent vraiment en sécurité.

Le chat ne donne pas automatiquement sa confiance, il faut la gagner. Mais une fois accordée, elle est renforcée par la même substance chimique qui lie les parents, les conjoints et les amis humains.

Ainsi, la prochaine fois que votre chat clignera lentement des yeux depuis l’autre bout du canapé ou se lovera sur vos genoux pour un câlin ronronnant, sachez qu’il se produit également quelque chose d’invisible : l’ocytocine augmente dans vos deux cerveaux, renforçant la confiance et apaisant le stress du quotidien. À leur manière, les chats répondent à l’éternelle biologie de l’amour.

La Conversation Canada

Laura Elin Pigott ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Avoir un chat a des bienfaits sur votre cerveau… et le sien – https://theconversation.com/avoir-un-chat-a-des-bienfaits-sur-votre-cerveau-et-le-sien-265913

États-Unis : les coupes envisagées dans la recherche médicale auraient des répercussions pendant des décennies

Source: The Conversation – in French – By Mohammad S. Jalali, Associate Professor, Systems Science and Policy, Harvard University

Aux États-Unis, les NIH sont l’un des nœuds du système interconnecté, qui produit des avancées dans les domaines de la santé et de la médecine. Anchalee Phanmaha/Moment/Getty Images

Aux États-Unis, les National Institutes of Health sont sous la menace d’une coupe drastique de leur budget. Les conséquences de ces économies de court terme voulues par l’administration Trump pourraient s’étendre bien au-delà du secteur public et, au final, coûter cher à l’ensemble du système de santé.


En mai 2025, la Maison Blanche a proposé de réduire d’environ 40 % le budget des National Institutes of Health (NIH) (les institutions gouvernementales chargées de la recherche médicale et biomédicale, ndlr). Concrètement, leur financement passerait de 48 milliards de dollars à environ 27 milliards, ce qui le ramènerait approximativement au niveau de l’année 2007.

L’étude des archives du budget des NIH nous apprend qu’une telle coupe à deux chiffres n’a été mise en œuvre qu’à une seule autre reprise depuis le début des enregistrements, en 1938. Une diminution de 12 % avait en effet été prononcée en 1952.

Le Congrès des États-Unis – composé de deux chambres, le Sénat et la Chambre des représentants – doit désormais finaliser le nouveau budget avant l’entrée en vigueur du prochain exercice fiscal, le 1er octobre. En juillet, le Sénat avait déjà rejeté les coupes budgétaires proposées par la Maison Blanche, proposant au contraire une modeste augmentation. Début septembre, la Chambre des représentants a également soutenu un budget prévoyant le maintien des financements actuels de l’agence.

L’idée de réduire les ressources des NIH n’est pas nouvelle, et de telles propositions refont régulièrement surface. Le débat actuel suscite cependant des incertitudes quant à la stabilité du secteur de la recherche dans son ensemble, et au sein des milieux scientifiques, les inquiétudes vont bon train.

Chercheurs nous-mêmes, nous étudions les complexes systèmes de politiques de santé mis en place. Nous nous intéressons plus précisément à la politique du financement de la recherche scientifique. À ce titre, nous considérons que les NIH sont l’un des maillons d’un système interconnecté destiné à favoriser la découverte de nouvelles connaissances, à former le personnel biomédical et à accomplir des avancées en matière de médecine et de santé publique, à l’échelle nationale.

Nos travaux démontrent que si la réduction des financements des NIH peut sembler générer des économies à court terme, elle déclenche une cascade d’effets qui, à long terme, augmentent les coûts des soins de santé et ralentissent le développement de nouveaux traitements et la mise en place de solutions aux problèmes de santé publique.

Privilégier la vision d’ensemble

Le financement des NIH ne permet pas seulement de soutenir les travaux de chercheurs ou de laboratoires. Il constitue aussi le socle sur lequel reposent le secteur de la recherche médicale et biomédicale des États-Unis, ainsi que le système de santé. En effet, c’est grâce à ce budget que sont formés les scientifiques, qu’est financée la recherche en prévention et que sont produites les connaissances qui seront ensuite utilisées par les entreprises pour mettre au point de nouveaux produits de santé.

Afin de comprendre comment de telles coupes budgétaires peuvent affecter ces différents domaines, nous avons entrepris de passer en revue les données existantes. Nous avons analysé les études (et les ensembles de données) qui ont porté sur les liens entre le financement des NIH (ou de la recherche biomédicale en général) et l’innovation, la main-d’œuvre et l’état de la santé publique.

Dans une étude publiée en juillet 2025, nous avons élaboré un cadre d’analyse simple, destiné à illustrer comment des changements effectués dans une partie du système – ici, les subventions à la recherche – peuvent produire des effets à d’autres niveaux, en grevant par exemple les opportunités de formation ou en ralentissant le développement de nouvelles thérapies.

Une fragilisation de la recherche fondamentale

Les NIH financent une recherche en amont qui n’a pas de valeur commerciale immédiate, mais qui fournit les éléments constitutifs des innovations futures. Cela inclut des projets destinés à cartographier les mécanismes à l’origine des maladies, à mettre au point de nouvelles techniques de laboratoire ou à constituer d’immenses bases de données, qui pourront être exploitées durant des décennies.

Ce sont par exemple les recherches financées par les NIH dans les années 1950 qui ont mené à l’identification du cholestérol et à établir son rôle dans les maladies cardiovasculaires, ce qui a ouvert la voie à la découverte ultérieure des statines. Ces molécules sont aujourd’hui prescrites à des millions de personnes dans le monde pour contrôler leur taux de cholestérol.

Dans les années 1960, les recherches en biologie du cancer ont conduit à la découverte du cisplatine. Utilisée en chimiothérapie, cette molécule est à l’heure actuelle administrée à 10 à 20 % des patients atteints de cancer.

Les recherches fondamentales menées dans les années 1980 pour comprendre le rôle joué par les reins dans le métabolisme du sucre ont de leur côté ouvert la voie à la découverte d’une nouvelle classe de médicaments contre le diabète de type 2. Certains d’entre eux sont également utilisés pour mieux prendre en charge les problèmes de poids. Le diabète touche près de 38 millions de personnes aux États-Unis, où plus de 40 % des adultes sont obèses.

Un patient atteint de cancer reçoit une chimiothérapie dans une clinique
Le cisplatine, largement utilisé en chimiothérapie, a été mis au point grâce aux recherches fondamentales menées pour comprendre la biologie du cancer, lesquelles ont été financées par les NIH.
FatCamera/E+ via Getty Images

Sans ce type d’investissement public financé par les contribuables, nombre de projets fondateurs ne verraient jamais le jour, les entreprises privées hésitant à s’engager dans des travaux aux horizons lointains ou aux profits incertains. Notre étude n’a pas chiffré ces effets, mais les données montrent que lorsque la recherche publique ralentit, l’innovation en aval et les bénéfices économiques sont également retardés. Cela peut se traduire par une diminution du nombre de nouveaux traitements, un déploiement plus lent de technologies permettant de réduire les coûts et une croissance moindre des industries qui dépendent des avancées scientifiques.

Une réduction de la main-d’œuvre scientifique

En octroyant des subventions pour financer les étudiants, les chercheurs postdoctoraux et les jeunes scientifiques, ainsi que les laboratoires et infrastructures où ils sont formés, les NIH jouent également un rôle central dans la préparation de la « relève » scientifique.

Lorsque les budgets diminuent, le nombre de postes disponibles se réduit et certains laboratoires sont contraints de fermer. Cette situation peut décourager les jeunes chercheurs d’entrer dans un domaine ou d’y rester. Ces conséquences dépassent le seul cadre académique. En effet, certains scientifiques formés par les NIH poursuivent ensuite leur carrière dans le secteur des biotechnologies, de l’industrie des dispositifs médicaux ou de la science des données. Un système de formation affaibli aujourd’hui signifie donc moins de professionnels hautement qualifiés dans l’ensemble de l’économie demain.

Les programmes des NIH ont, par exemple, permis de former non seulement des chercheurs universitaires, mais aussi des ingénieurs et analystes qui travaillent désormais sur les thérapies immunitaires, les interfaces cerveau-ordinateur, les outils de diagnostic ou encore les dispositifs pilotés par l’intelligence artificielle, ainsi que sur d’autres technologies utilisées tant par des start-up que par des entreprises biotechnologiques et pharmaceutiques établies.

Si ces opportunités de formation se raréfient, les industriels des biotechnologies et du médicament risquent de voir le vivier de talents dans lequel ils puisent se réduire. Un affaiblissement de la main-d’œuvre scientifique financée par les NIH pourrait également compromettre la compétitivité mondiale des États-Unis, y compris dans le secteur privé.

L’innovation se déplace vers des marchés plus limités

Les investissements publics et privés remplissent des fonctions différentes. Le financement des NIH réduit souvent le risque scientifique en menant les projets à un stade où les entreprises peuvent investir avec davantage de confiance. Des exemples passés incluent le soutien à la physique de l’imagerie ayant conduit à l’imagerie par résonance magnétique (IRM) et à la tomographie par émission de positons (TEP), ainsi que des recherches en science des matériaux qui ont permis la mise au point des prothèses modernes.

Nos recherches mettent en évidence le fait que lorsque l’investissement public recule, les entreprises tendent à se concentrer sur des produits présentant des retours financiers plus immédiats. L’innovation s’oriente alors vers des médicaments ou des technologies aux prix de lancement très élevés, délaissant des améliorations qui pouvant répondre à des besoins plus larges (optimisation de thérapies existantes ou développement de diagnostics largement accessibles). Or, lorsque le financement public se réduit et que les entreprises privilégient des produits onéreux plutôt que des améliorations accessibles à moindre coût, la dépense globale de santé peut croître.

Un chirurgien examine une IRM cérébrale
Les technologies d’imagerie, telles que l’IRM, ont été développées grâce au financement public de la recherche fondamentale par les NIH.
Tunvarat Pruksachat/Moment via Getty Images

Certains médicaments anticancéreux, par exemple, reposent fortement sur des découvertes fondamentales issues de la biologie cellulaire et de la méthodologie des essais cliniques, découlant de recherches financées par les NIH. Des études indépendantes révèlent que sans ce socle initial de recherche publique, les délais de développement s’allongent et les coûts augmentent – des effets qui se traduisent par des prix plus élevés pour les patients et les systèmes de santé.

Ce qui apparaît comme une économie budgétaire à court terme peut donc produire l’effet inverse, les programmes publics tels que Medicare (système d’assurance-santé destiné aux plus de 65 ans et aux personnes répondant à certains critères, ndlr) et Medicaid, qui procure une assurance maladie aux personnes à faibles ressources, devant finalement absorber des coûts supérieurs.

La prévention et la santé publique reléguées au second plan

Les NIH financent également une part importante de la recherche consacrée à la promotion de la santé et à la prévention des maladies. On peut par exemple citer les études sur la nutrition, les maladies chroniques, la santé maternelle ou encore les expositions environnementales telles que la pollution au plomb ou la pollution atmosphérique.

Ces projets contribuent souvent à améliorer la santé des individus avant que la maladie ne s’aggrave. Ils attirent cependant rarement des investissements privés, car leurs bénéfices, qui apparaissent progressivement, ne se traduisent pas en profits directs.

Repousser à plus tard ou annuler la recherche en prévention peut conduire à des coûts ultérieurs plus élevés, en raison de l’augmentation du nombre de patients dont l’état se sera dégradé et nécessitera des traitements lourds afin de soigner des affections qui auraient pu être évitées ou mieux prises en charge en amont.

Des décennies d’observation dans le cadre de la Framingham Heart Study (une étude épidémiologique au long cours, dont l’objet initial était l’étude des maladies cardiovasculaires, et qui se poursuit encore aujourd’hui) ont façonné les recommandations thérapeutiques sur des facteurs de risque tels que l’hypertension artérielle et les troubles du rythme cardiaque.

Aujourd’hui, les connaissances s’appuyant sur ce pilier de la prévention permettent de réduire les risques d’infarctus et les accidents vasculaires cérébraux (AVC), graves et coûteux à traiter lorsqu’ils surviennent.

Une réorientation plus large

Au-delà de ces domaines précis, la véritable question est de savoir comment les États-Unis choisiront à l’avenir de soutenir la recherche scientifique et médicale. Pendant des décennies, l’investissement public a permis aux chercheurs de s’attaquer à des problématiques difficiles et de mener des études s’étalant sur plusieurs décennies.

Ce soutien financier a contribué à produire des avancées allant des thérapies psychosociales pour lutter contre la dépression aux méthodes chirurgicales de transplantation hépatique. Autant de progrès qui ne s’intègrent pas aisément dans les logiques de marché, contrairement aux médicaments ou aux dispositifs médicaux.

Si le soutien du gouvernement s’affaiblit, la recherche médicale et la recherche en santé publique pourraient devenir plus dépendantes des marchés et de la philanthropie. Cette situation risquerait de réduire l’éventail des problématiques étudiées et de limiter la capacité de réaction face à des urgences telles que l’émergence de nouvelles infections ou la gestion des risques sanitaires liés au climat.

Les pays qui auront choisi de maintenir un investissement public soutenu dans la recherche pourraient aussi acquérir un avantage sur les États-Unis, en s’avérant capables d’attirer les meilleurs chercheurs, et en se trouvant en position d’établir les standards mondiaux sur lesquels se baseront les nouvelles technologies. Le corollaire étant qu’une fois que les opportunités auront été perdues et que les talents se seront dispersés, la reconstruction du système exigera bien plus de temps et de ressources que s’il avait été préservé.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. États-Unis : les coupes envisagées dans la recherche médicale auraient des répercussions pendant des décennies – https://theconversation.com/etats-unis-les-coupes-envisagees-dans-la-recherche-medicale-auraient-des-repercussions-pendant-des-decennies-265455

Dans les polars des années 1950, des gifles pour réduire les personnages féminins au silence

Source: The Conversation – in French – By Camille Bouzereau, Chercheuse postdoctorale en linguistique, Université Paris Nanterre – Université Paris Lumières

Dans les romans policiers en français des années 1950-1970, écrits presqu’exclusivement par des hommes, les mots « gifle » et « gifler » ont souvent pour victimes des femmes qu’il s’agit de faire taire pour asseoir la domination masculine, comme le montre une étude linguistique.


Notre étude sur la gifle dans le polar s’inscrit au sein du projet POLARisation (2023-2026). Il regroupe des chercheuses et chercheurs en littératures, cultures populaires et médiatiques autour des récits criminels du XXe siècle et d’un grand corpus de fictions constitué avec Valentin Chabaux, ingénieur de Nanterre. Ce corpus numérique comprend 3015 romans écrits ou traduits en français, publiés entre 1945 et 1989 en France, chez plusieurs éditeurs et dans 8 collections de romans policiers.

L’intégralité des huit collections a été traitée de manière informatique (traitement automatique des langues ; linguistique de corpus) et nous avons d’abord cherché à extraire des patterns syntaxiques récurrents statistiquement, indiquant la spécificité du polar.

Des « patterns » autour de la gifle

Après avoir observé le vocabulaire récurrent qui entoure les termes de « bagarre », « coup de poing », « baffe », « gifle », nous avons constaté que les coups ont un genre : par exemple, la « baffe » (plus familier) est utilisée pour les conflits masculins et la « gifle » implique au moins un personnage féminin, alors qu’il s’agit de synonymes. Grâce à Adam Faci, postdoctorant en informatique, nous avons identifié un pattern qui a retenu notre attention. Il repose sur l’association récurrente d’un échange verbal et d’une gifle :

VERBE DE PAROLE + GIFLE + POUR + PRONOM + FAIRE TAIRE

Voici un extrait prototypique qui comprend cette séquence (nous développons ensuite) :

« C’était une scène terrible, où Mirabelle déversait un flot de grossièretés au point que Wessler, indigné, devait la gifler pour la faire taire. »

(Patrick Quentin, Puzzle pour acteurs, Presses de la Cité, « Mystère », 1971.)

L’analyse du texte confirme que dans ces occurrences les prises de parole féminines sont souvent suivies de gifles et que l’expression du but introduit par « pour » permet d’expliciter la finalité de la gifle : il s’agit presque toujours de « faire taire » le féminin. Plusieurs scénarios de la gifle sexiste sont repris en ce sens dans nos polars.

Parler au féminin dans les romans policiers

La gifle vient interrompre le discours féminin parce qu’il ne correspondrait pas au souci d’efficacité et d’action imposé par l’intrigue : elle doit mettre fin à l’inanité du personnage féminin (minoré, infantilisé, animalisé, jugé en crise) en même temps qu’elle signifie la domination et le sang-froid du détective ou de l’espion.

Avant la gifle, le discours féminin peut aussi se miner lui-même – stratégie de légitimation de la gifle masculine qui ne ferait que rendre service à un féminin arrivant au point de rupture :

« – Non, ça n’ira pas bien ! (Elle sanglotait dans son fauteuil, incapable de se retenir.) T… tu ne peux pas comprendre. T… tu ne sais pas comment ça se passe, ici. Elle va me mettre à la porte, et j… je ne peux vraiment pas… il faut que j… je…
Je la giflai, sèchement, deux gifles rapides en succession, de la paume et du dos de la main. »

(Jim Thompson, Nuit de fureur, Fleuve Noir, « Engrenage », 1983.)

Les points de suspension obligent à la répétition et, associés aux formes négatives, closent avant la fin de la phrase le discours d’un personnage ânonnant. La parenthèse renforce cet effet avec la négation « incapable de se retenir » : la narration vient interrompre elle-même le discours, pour commenter l’échec féminin à faire avancer l’intrigue. Dans un récit qui valorise la maîtrise de soi, cette incapacité est violemment sanctionnée – notons que l’homme qui gifle ici est maître de lui, et que la gifle semble un choix pragmatique, et non une réponse émotionnelle. La gifle devient même parfois un remède :

« – Non, il est mort, dit-elle, c’est le seul homme que j’ai aimé, le seul homme avec qui j’ai couché, nous étions amants, écoutez, nous étions amants et je ne le regrette pas parce que nous nous aimions, nous nous aimions, et à chaque fois c’était plus beau, oh mon Dieu, je voudrais être morte aussi…
Ses yeux étaient fixes, hagards ; des bulles de salive éclataient aux coins de sa bouche. Je la giflai, sans ménagement, assez fort pour lui retourner la tête et faire rougir sa joue. »

(Bill Pronzini, Où es-tu, militaire ?, Gallimard, « Série Noire », 1974.)

Le discours tenu par le personnage féminin est plein de répétitions signalant son incohérence, et il est marqué par une affectivité proche de l’hystérie, telle que définie par une médecine sexiste – l’interjection « Oh mon Dieu » suivie du vœu de mort. Les points de suspension révèlent aussi qu’il s’est définitivement enrayé. Les « bulles de salive », les yeux « hagards », peignent à grands traits un tableau clinique auquel la gifle vient remédier.

Le personnage féminin est ainsi minimisé, tant dans son discours que dans sa capacité à interagir à égalité avec le personnage masculin, et dans son érotisation : la femme fatale élégante et mystérieuse se transforme en hystérique dépenaillée (sans cesser parfois d’être sexualisée). La critique de cinéma et réalisatrice Laura Mulvey a d’ailleurs théorisé le « male gaze », ce « regard masculin » qui place le désir de domination de l’homme au centre du récit, à partir d’œuvres cinématographiques contemporaines de ces récits.




À lire aussi :
La littérature populaire, aux origines de la pop culture


Discours narrativisés, discours niés

Pour faire taire le personnage féminin, une autre possibilité est de réduire au maximum les propos rapportés en utilisant ce qu’on appelle en linguistique le discours narrativisé (DN), un discours qui laisse le lecteur imaginer ce que le personnage a dit à son destinataire.

Avec le DN, il est fait mention d’un discours qui a eu lieu, mais son contenu n’est pas précisé. Dans ce cadre, peu importe la teneur du propos rapporté. Soit le contenu du discours n’est qu’allusif (par exemple, ci-dessous, le terme « regrettables » rapportant le point de vue du narrateur et non celui du personnage féminin) :

« Par stupide gloriole, il lui avait raconté le déjeuner avec le diplomate. Elle avait très mal pris la chose et prononcé des mots regrettables. Il avait dû la gifler, encore une fois, pour la faire taire. »

(Jean Bruce, Noël pour un espion, Presses de la Cité, « Un mystère », 1956.)

Ou bien le contenu est porté par un cliché (ici, « glapir des injures ») :

« – Parce qu’elles m’emmerdent ! Aussitôt, les deux demoiselles se mirent à glapir des injures et Hernandez en gifla une pour lui imposer silence. »

(Charles Exbrayat, La haine est ma compagne, Librairie des Champs-Élysées, « Le Masque », 1981.)

Ce qui importe, c’est de dérouler le script de la gifle après la crise de nerfs. Dans ces contextes, la gifle est bien présentée comme un moyen de soumettre les personnages féminins – en état de sidération ou écrasés au sol :

« Ce spectacle redoubla l’hilarité d’Odile. Son rire devint un véritable hennissement. C’était la crise de nerf imminente. Mendoza le comprit et lui donna deux gifles droite, gauche, qui la firent vaciller. Soudain dégrisée, elle se mit à sangloter. »

(Jean-Pierre Conty, La Longue Nuit de Mr Suzuki, Fleuve Noir, « Espionnage », 1968.)

Des performativités brisées

Pour conclure, prenons un dernier exemple :

« – Vous n’avez pas le droit ! Margaret Boolitt, en larmes, retournant vers son mari, reçut, de la part de ce dernier, une autre gifle qui fit autant de bruit que la première. »

(Charles Exbrayat, Imogène et la veuve blanche, Librairie des Champs-Élysées, « Le Masque », 1975.)

Ici, Margaret Boolitt a la parole et s’exclame « Vous n’avez pas le droit ! ». Dans notre corpus, cet énoncé fréquent dans les défenses féminines échoue pragmatiquement : c’est une formule figée qui traduit l’impuissance féminine, un réflexe discursif consistant à vouloir s’abriter derrière une norme sociale, mais dans un contexte où cette norme est systématiquement violée.

Selon la philosophe Judith Butler reprenant John Langshaw Austin, la parole est performative (c’est-à-dire qu’elle a un impact sur le réel) quand elle est prononcée dans un cadre institutionnel légitime, par un locuteur habilité, et dont on reconnaît l’autorité. Or, dans les extraits étudiés, et bien souvent dans ces récits écrits par des hommes et pour les hommes, la performativité est brisée.

La parole féminine échoue précisément parce qu’elle ne remplit pas ces conditions de performativité. Comme le montre ce script de la gifle, la figure féminine dans le polar des années 1950-1970 est souvent dominée, contrôlée, et exclue des circuits de légitimation.

Cette représentation des femmes, giflées pour être réduites au silence, dans
des productions culturelles largement diffusées, est évidemment alimentée par les inégalités effectives entre les hommes et les femmes dans la société de cette époque, et a contribué en retour à alimenter le même imaginaire.

The Conversation

Camille Bouzereau a reçu des financements de l’ANR POLARisation & de l’Université Paris Nanterre.

Gonon Laetitia a reçu des financements de l’ANR pour le projet POLARisation auquel elle contribue.

ref. Dans les polars des années 1950, des gifles pour réduire les personnages féminins au silence – https://theconversation.com/dans-les-polars-des-annees-1950-des-gifles-pour-reduire-les-personnages-feminins-au-silence-265088

Et si un minuscule crustacé aidait à mieux comprendre les effets du plastique dans les estuaires ?

Source: The Conversation – France (in French) – By Céleste Mouth, Doctorante (PhD Student), Université Le Havre Normandie

Véritable sentinelle écologique, le copépode _Eurytemora affinis_ pourrait être le gardien de la santé des estuaires face à la pollution plastique. Sebio, Fourni par l’auteur

Des rivières aux océans, le plastique transite par les estuaires, des zones vitales pour la biodiversité, mais fragiles. Pour mesurer son impact, une recherche franco-canadienne s’appuie sur un minuscule crustacé, « Eurytemora affinis », véritable sentinelle écologique qui doit aider à mieux comprendre les effets de la pollution par les micro et nanoplastiques.


Le plastique est un polluant omniprésent. Dans les emballages, véhicules, textiles ou cosmétiques, il fait partie intégrante de notre quotidien. Sa production, qui a explosé depuis les années 1950, dépasse aujourd’hui 400 millions de tonnes par an.

Cette surproduction massive, combinée à une gestion insuffisante des déchets, entraîne une accumulation durable dans l’environnement. Faiblement biodégradable, le plastique persiste pendant des décennies et se retrouve désormais dans tous les milieux : air, sols, eaux douces, océans, jusqu’aux pôles et aux abysses.

Face à cette pollution mondiale, la recherche s’efforce de mieux quantifier les plastiques, d’en comprendre la dispersion et d’évaluer leurs effets sur les écosystèmes et les organismes. Dans un nouveau projet de recherche doctorale que nous menons, cette question est abordée en examinant deux estuaires : celui de la Seine, en France, et celui du Saint-Laurent au Québec.

L’enjeu : évaluer le niveau de contamination en micro et nanoplastiques de ces estuaires en s’intéressant notamment aux effets du plastique sur un petit crustacé méconnu, un minuscule copépode baptisé Eurytemora affinis qui constitue une espèce sentinelle précieuse.




À lire aussi :
Recycler les plastiques pour protéger les océans, une illusion face à la surproduction ?


Les estuaires, des écosystèmes sensibles

La plupart des études se concentrent sur les océans : les milieux d’eau douce et notamment les fleuves et estuaires restent encore largement sous-explorés.

Pourtant, environ 80 % des plastiques marins proviennent de sources terrestres, transportés par les rivières et déversés en mer via les estuaires. Situés à proximité de zones densément peuplées ou industrialisées, les estuaires sont donc directement exposés aux débris plastiques issus des activités humaines.

Mais les réduire à leur seule vulnérabilité serait une erreur : les estuaires sont parmi les milieux les plus riches et productifs de la planète. Ils abritent une biodiversité remarquable, servent de nurseries pour de nombreuses espèces, filtrent naturellement l’eau et jouent un rôle essentiel dans les cycles biogéochimiques.

Ils offrent aussi de nombreux services écosystémiques aux sociétés humaines : alimentation à travers la pêche, régulation de la qualité de l’eau, atténuation des crues, protection contre l’érosion côtière, etc.

Leur position géographique, en revanche, à l’interface entre terre et mer, les rend particulièrement sensibles aux pressions anthropiques. Face à l’augmentation de la pollution plastique, il est urgent de mieux comprendre comment ces écosystèmes réagissent, et quels organismes sont en première ligne.

« Eurytemora affinis », minuscule gardien de l’équilibre

Parmi les nombreuses espèces vivant dans ces milieux sous pression, certaines occupent une place centrale dans leur équilibre écologique. C’est le cas d’un petit crustacé d’environ un millimètre : Eurytemora affinis.

Spécimen de copépode Eurytemora affinis
Caroline Lamontagne, Fourni par l’auteur

Très abondant dans les estuaires de l’hémisphère Nord, il constitue un maillon clé du réseau trophique, assurant le transfert d’énergie entre le phytoplancton et les organismes de niveaux supérieurs. Son atout majeur ? Une capacité d’adaptation exceptionnelle. Il tolère de très fortes variations environnementales, ce qui lui permet de coloniser de nombreux habitats.

Mais E. affinis est aussi un excellent bio-indicateur de l’état de santé des estuaires. En effet, certaines espèces, dites « sentinelles », réagissent rapidement aux perturbations, permettant d’anticiper les effets de la pollution : c’est le principe de la biosurveillance. Grâce à sa sensibilité aux polluants, son cycle de vie court, sa densité élevée et la possibilité de l’élever en laboratoire, E. affinis est un modèle idéal en écotoxicologie. Il permet d’étudier à la fois l’exposition, les effets biologiques et les mécanismes de réponse face aux contaminants.

Vue aérienne du Havre (Seine-Maritime) et de l’estuaire de la Seine.
Sentinel Hub, CC BY

Ce qui rend l’étude d’E. affinis particulièrement intéressante, c’est qu’il ne s’agit pas d’une seule espèce, mais d’un complexe d’espèces cryptiques (c’est-à-dire, dont il est impossible de distinguer les différentes espèces à l’œil nu sans analyse génétique).

Ces différences pourraient influencer la façon dont chaque population réagit aux polluants. Ces variations ont jusque-là été peu explorées. Et c’est justement tout l’enjeu : mieux les comprendre pourrait nous aider à identifier les espèces et leurs populations les plus vulnérables pour mieux protéger les écosystèmes qu’elles habitent.

Deux de ces lignées vivent dans les estuaires de la Seine (France) et du Saint-Laurent (Canada). Ce sont précisément ces deux populations transatlantiques qui sont au cœur de ce travail de recherche.

Microplastiques, mais maxi dangers

Une fois libérés dans l’environnement, les plastiques se dégradent progressivement sous l’effet de processus physiques, chimiques et biologiques. Ils se fragmentent alors en particules de plus petite taille, dites microplastiques (de 1 micromètre à 5 millimètres) et nanoplastiques (de 1 nanomètre à 1 micromètre) secondaires.

À cela s’ajoutent aussi les micro et nanoplastiques (MNPs) dits primaires, fabriqués directement à ces tailles et involontairement libérés dans l’environnement, par exemple via le lavage des vêtements en fibres synthétiques.




À lire aussi :
Pourquoi les déchets plastiques ne se dégradent-ils jamais vraiment ?


Malgré leur petite taille, ces particules représentent une menace majeure. Leurs propriétés physiques les rendent extrêmement résistants aux processus naturels de décomposition, ce qui leur permet de persister longtemps dans l’environnement.

Leur taille les rend faciles à ingérer par une grande variété d’organismes, du zooplancton aux mammifères marins. Une fois ingérées, ces particules peuvent provoquer des obstructions physiques, réduire l’absorption des nutriments, ou – dans le cas des nanoplastiques – pénétrer dans la circulation sanguine, entraînant une cascade d’effets biologiques néfastes.

Leurs dangers tiennent également du « cheval de Troie » : leur surface adsorbe d’autres polluants hydrophobes, comme les hydrocarbures aromatiques polycycliques (HAP), les polychlorobiphényles (PCB) ou les métaux lourds. Une fois ingérés, ces contaminants peuvent alors être rejetées dans le tube digestif de l’organisme et avoir des effets toxiques.

Dans ce contexte, il est crucial d’étudier les effets des micro et nanoplastiques dans les estuaires à travers un modèle écologique clé comme E. affinis pour comprendre les effets de cette pollution émergente sur la biodiversité.




À lire aussi :
De l’eau douce à l’eau salée : les fascinantes stratégies d’adaptation de la crevette blanche


Avec Plasticop, mieux comprendre la vulnérabilité des copépodes aux plastiques

Ce projet doctoral Plasticop, co-dirigé par le laboratoire Stress Environnementaux et BIOSurveillance des milieux aquatiques au Havre (France) et l’Institut des sciences de la mer au Québec (Canada), s’intéresse ainsi à deux lignées du copépode, dont deux populations d’E. affinis vivant dans les estuaires de la Seine et du Saint-Laurent.

Il se structure autour de trois grands axes :

  • Le premier consiste à évaluer l’état de contamination en MNPs dans ces deux estuaires, en analysant trois compartiments : l’eau, les sédiments et les copépodes eux-mêmes.

  • Le deuxième vise à exposer en laboratoire ces populations naturelles aux types de plastiques identifiés lors du premier volet et d’en observer les effets. L’objectif est d’évaluer non seulement les impacts à court terme (sur la survie, la croissance ou la reproduction), mais aussi les effets à long terme à travers une étude sur quatre générations successives.

  • Enfin, le troisième axe explore l’influence du réchauffement climatique sur la bioaccumulation de ces particules plastiques, c’est-à-dire leur capacité à s’accumuler progressivement dans les tissus des organismes.

En combinant ces approches, cette recherche vise à mieux comprendre la résilience de ce complexe d’espèces clés face à des pressions environnementales multiples, et à anticiper l’évolution de ces écosystèmes fragiles.

Ce n’est que le début de l’aventure : les premiers résultats sont attendus dans les trois prochaines années… et nous sommes impatients de les partager.


Cet article est publié dans le cadre du festival Sur les épaules des géants, qui se déroule du 25 au 27 septembre 2025 au Havre (Seine-Maritime), dont The Conversation est partenaire. Joëlle Forget-Leray et Céleste Mouth seront présentes pour un débat après la projection, le 26 septembre à 13 h 45, du film Plastic People.

The Conversation

Céleste Mouth a reçu des financements dans le cadre du projet PiA 4 ExcellencEs – Polycampus LH 2020 / France 2030 / ANR 23 EXES 0011

Gesche Winkler a reçu des financements du conseil de recherches en sciences naturelles et en génie du Canada (CRSNG), de l’APOGÉE Canada “Transforming Climate Change” et du regroupement stratégique “Québec-Océan”.

Joëlle Forget-Leray a reçu des financements dans le cadre du projet PiA 4 ExcellencEs – Polycampus LH 2020 / France 2030 / ANR 23 EXES 0011

ref. Et si un minuscule crustacé aidait à mieux comprendre les effets du plastique dans les estuaires ? – https://theconversation.com/et-si-un-minuscule-crustace-aidait-a-mieux-comprendre-les-effets-du-plastique-dans-les-estuaires-265111

Parler deux langues dès le plus jeune âge : un entraînement cérébral pour toute la vie

Source: The Conversation – France (in French) – By Alejandro Martínez, Personal de investigación en el grupo Neuro-colab, UDIT – Universidad de Diseño, Innovación y Tecnología

Grandir avec deux langues, ce n’est pas une confusion mais une richesse : le cerveau bilingue se développe avec plus de souplesse et de force, offrant des bénéfices qui durent toute la vie. Tolikoff Photography/Shutterstock

Même s’ils commencent à parler un peu plus tard, les enfants bilingues traitent les informations avec plus de souplesse. Voici ce qui se passe dans leur cerveau et comment favoriser ce processus.


Lorsque les enfants grandissent en entendant deux langues, leur famille et leurs enseignants s’inquiètent parfois : vont-ils s’embrouiller ? Vont-ils mettre plus de temps à parler ? Cela va-t-il affecter leurs résultats scolaires ?

Ces doutes sont compréhensibles : en effet, les enfants bilingues peuvent mettre un peu plus de temps à prononcer leurs premiers mots ou mélanger les deux langues au début. Cependant, il ne s’agit pas d’un retard pathologique, mais d’une étape naturelle de leur apprentissage. En réalité, ils traitent deux fois plus d’informations linguistiques, ce qui constitue un entraînement supplémentaire pour leur cerveau, qui s’en trouve renforcé de manière très bénéfique pour toute leur vie.

Que signifie être bilingue ?

Être bilingue ne signifie pas simplement parler couramment deux langues : une personne bilingue est celle qui utilise régulièrement les deux langues dans sa vie. Cela inclut ceux qui apprennent une langue à la maison et une autre à l’école, les enfants qui parlent une langue avec un parent et une autre avec l’autre, ou ceux qui vivent dans des communautés où deux langues sont couramment utilisées.

Mais est-on bilingue pour toujours ? La réponse est nuancée. Une personne peut cesser d’utiliser l’une de ses langues et, avec le temps, la perdre : perte de vocabulaire, de fluidité ou de précision. Cependant, même si la compétence pratique diminue, le cerveau conserve les traces de cet apprentissage précoce. Des études récentes montrent que les avantages cognitifs, tels que la flexibilité mentale ou la réserve cognitive, persistent même chez ceux qui ont cessé d’utiliser activement leurs deux langues.

Le cerveau bilingue en développement

Pendant l’enfance, le cerveau est très plastique. L’hypothèse de la période critique suggère que l’apprentissage précoce des langues favorise une organisation cérébrale plus intégrée : les réseaux neuronaux des différentes langues se chevauchent et coopèrent, au lieu de fonctionner séparément comme c’est souvent le cas chez les adultes.

Par exemple, un enfant qui apprend l’anglais et l’espagnol dès son plus jeune âge peut passer d’une langue à l’autre rapidement et naturellement, tandis qu’un adulte aura besoin de plus d’efforts et d’énergie pour changer de langue. Il existe diverses études de neuro-imagerie montrent que plus une deuxième langue est acquise tôt, plus ses réseaux neuronaux se superposent à ceux de la première langue, ce qui réduit l’effort nécessaire pour changer de langue.

Un double apprentissage, sans ralentissement

Dans la pratique, même si les enfants bilingues semblent commencer à parler plus tard, ils répartissent en fait leur vocabulaire entre deux langues. Si un enfant monolingue connaît 60 mots en espagnol, un enfant bilingue peut en connaître 30 en anglais et 30 en espagnol : le total est le même. En d’autres termes, ils progressent plus lentement dans chaque langue séparément, mais pas dans leur développement linguistique global.

Au-delà du vocabulaire, la gestion de deux langues dès le plus jeune âge entraîne le contrôle exécutif, qui comprend la capacité à se concentrer, à alterner les tâches et à filtrer les distractions. Par exemple, un enfant bilingue peut passer rapidement des instructions en espagnol à celles en anglais en classe, ou choisir la langue appropriée en fonction de son interlocuteur. Ces situations renforcent la mémoire de travail et l’attention soutenue.

Le cerveau bilingue supprime également temporairement la langue dont il n’a pas besoin dans chaque contexte. Ce processus, connu sous le nom de « contrôle inhibiteur », ne signifie pas « effacer » une langue, mais la désactiver momentanément afin que l’autre puisse s’exprimer sans interférence. Cette gymnastique cérébrale renforce les réseaux liés à la prise de décision, à la planification et à la résolution de problèmes.

Des avantages tout au long de la vie

Le bilinguisme n’apporte pas seulement des avantages pendant l’enfance : ses effets positifs peuvent perdurer même si, avec les années, l’une des langues n’est plus utilisée régulièrement. Même si cette deuxième langue peut être perdue, l’entraînement cognitif précoce continue à agir.

Par exemple, les personnes âgées qui ont grandi en parlant deux langues présentent plus de matière grise dans des zones clés du cerveau et peuvent retarder l’apparition des symptômes de la maladie d’Alzheimer.

Flexibilité cognitive

De plus, la maîtrise de deux langues favorise la flexibilité cognitive, c’est-à-dire la capacité à s’adapter à des situations changeantes. Lorsqu’un enfant ou un adolescent change de langue en fonction de son interlocuteur, lit un texte dans une langue puis explique la même idée dans une autre, il exerce sa capacité de concentration et d’attention focalisée dans d’autres contextes : jeux, conversations dans des environnements bruyants, changements inattendus en classe ou activités extrascolaires. Cette flexibilité lui permet d’acquérir de nouvelles compétences plus facilement.

La conclusion n’est pas que les personnes bilingues soient « meilleures » que les autres, mais que leur cerveau apprend à gérer les informations différemment, ce qui leur permet de relever plus facilement des défis variés.

Ces expériences contribuent à ce que les scientifiques appellent la « réserve cognitive », une ressource mentale qui protège le cerveau et aide à maintenir les capacités cognitives pendant des décennies, même chez les personnes âgées.

Comment tirer parti des avantages du bilinguisme

Encourager le bilinguisme ne signifie pas faire pression ou forcer les résultats, mais créer des contextes naturels d’exposition aux deux langues. Lire des histoires dans deux langues, regarder des films en version originale sous-titrée, chanter des chansons, jouer à des jeux de rôle ou avoir des conversations dans une langue étrangère sont des moyens informels de pratiquer sans en faire une obligation.

C’est important car, même si les programmes scolaires, tels que la méthode EMILE (enseignement d’une matière intégré à une langue étrangère) ont un rôle à jouer, le bilinguisme quotidien s’enrichit dans des situations plus spontanées : cuisiner en suivant des recettes en français, jouer à des jeux vidéo en anglais ou partager des histoires familiales dans la langue maternelle. Ces expériences renforcent le lien émotionnel avec la langue et en font un outil vivant, au-delà de l’école.

Loin d’être un défi, l’exposition à deux langues est une opportunité pour les enfants de développer un cerveau flexible, bien connecté et capable d’organiser efficacement les connaissances. Grandir dans des contextes qui valorisent les deux langues permet de tirer parti de ces avantages cognitifs et culturels, en soutenant à la fois leur apprentissage scolaire et leur développement personnel.

The Conversation

Alejandro Martínez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Parler deux langues dès le plus jeune âge : un entraînement cérébral pour toute la vie – https://theconversation.com/parler-deux-langues-des-le-plus-jeune-age-un-entrainement-cerebral-pour-toute-la-vie-265601

Délocalisations : L’effet « havre de pollution » n’est pas un mythe populaire

Source: The Conversation – France (in French) – By Raphaël Chiappini, Maître de conférences en économie, Université de Bordeaux

Le « havre de pollution » existe-t-il vraiment ? Face au durcissement des politiques climatiques, certaines entreprises déplacent-elles réellement leurs activités vers des pays aux normes plus souples ? Une nouvelle étude lève le doute : ce phénomène existe bel et bien.


Face à l’urgence climatique, de nombreux pays renforcent leurs réglementations environnementales afin de favoriser leur transition écologique. Cependant, dans un monde où tous les pays ne sont pas vertueux, cette démarche ne risque-t-elle pas de faire fuir les investisseurs étrangers vers des destinations disposant de règlementations environnementales moins contraignantes, créant une sorte de « havre de pollution », là où les activités polluantes échappent aux mesures les plus répressives ? Cette question divise les économistes et les décideurs publics depuis des décennies.

Notre récente étude empirique, publiée dans Macroeconomic Dynamics, apporte un éclairage nouveau sur cette question. En analysant les flux d’investissements directs étrangers (IDE) de 121 pays investisseurs vers 111 pays hôtes entre 2001 et 2018, et à partir de la construction d’un nouvel indicateur de sévérité des politiques environnementales, nous confirmons l’existence d’un effet de « havre de pollution ». Cependant, les dynamiques en jeu restent complexes.

Deux hypothèses en confrontation

La littérature économique reste divisée sur l’impact des réglementations environnementales sur les entreprises. Deux visions s’opposent. D’un côté, « l’hypothèse de Porter » (1991) suggère que des règles strictes peuvent stimuler l’innovation, améliorer la productivité et renforcer la compétitivité. De l’autre, l’« hypothèse du havre de pollution » développée notamment dans les années 1990, avance que les industries se déplacent vers les pays où les normes sont plus souples afin de réduire leurs coûts. Ce phénomène a été amplifié par la mondialisation des années 1990, marquée par la baisse des coûts de transport et l’essor des pays à bas salaires. Ainsi, une part de la réduction des émissions dans les pays développés pourrait s’expliquer par la délocalisation d’activités polluantes vers des pays moins stricts, accompagnée d’une hausse des importations plus intensives en gaz à effet de serre, selon une étude récente.

Un nouvel outil pour les politiques environnementales

Les études empiriques antérieures aboutissent souvent à des résultats contradictoires, en grande partie parce qu’il est difficile de comparer la rigueur des politiques environnementales d’un pays à l’autre. Pour dépasser cet obstacle, nous avons construit un nouvel indice de sévérité des politiques environnementales, l’Environmental Stringency Index (ESI), couvrant plus de 120 pays entre 2001 et 2020.

Cet indicateur repose sur deux dimensions :

  1. La mise en œuvre, mesurée par l’engagement formel d’un pays à travers le nombre de lois climatiques adoptées et sa participation aux grands accords internationaux (comme le Protocole de Montréal ou l’Accord de Paris) ;

  2. L’application effective, évaluée en comparant les émissions prédites d’un pays, en fonction de sa structure industrielle, à ses émissions réelles. Lorsqu’un pays émet moins que prévu, cela traduit des efforts concrets d’atténuation.

Les signaux politiques sont efficaces

Nos résultats empiriques confirment clairement l’existence d’un effet de « havre de pollution » : une hausse d’un écart-type de notre indice de rigueur environnementale dans un pays hôte entraîne en moyenne une baisse de 22 % des IDE entrants.

Plus encore, nous montrons que les investisseurs étrangers réagissent davantage à l’annonce des politiques plutôt qu’à leur application effective. Autrement dit, l’adoption de nouvelles lois climatiques ou la ratification d’accords internationaux envoie un signal crédible aux entreprises quant à l’évolution future des coûts réglementaires. À l’inverse, les performances environnementales réelles ne semblent pas influencer significativement les décisions d’investissement.

Cette observation suggère que les entreprises anticipent les contraintes futures plutôt que de se limiter à évaluer la situation actuelle.

Des effets asymétriques

Nos résultats montrent que l’impact des réglementations environnementales diffère fortement selon le niveau de développement et la qualité institutionnelle du pays hôte. Dans les économies émergentes et en développement, des règles plus strictes freinent nettement les IDE, confirmant leur statut de « havres de pollution » potentiels. L’effet est en revanche plus limité dans les pays à haut revenu, où des institutions solides et des cadres réglementaires établis atténuent ce phénomène. La corruption joue aussi un rôle clé. Pour évaluer cet aspect, nous avons utilisé l’indice de Contrôle de la corruption de la Banque mondiale : là où la gouvernance est faible, même des politiques ambitieuses peuvent être contournées, renforçant l’attractivité de ces pays pour les activités polluantes.

La réalité d’un arbitrage réglementaire

Au-delà de la rigueur absolue des réglementations, notre étude met également en évidence un phénomène d’arbitrage réglementaire : plus l’écart de sévérité des politiques environnementales entre le pays d’origine et le pays d’accueil des IDE est important, plus l’effet incitatif de délocalisation s’accroît. Les entreprises semblent ainsi comparer activement les cadres réglementaires internationaux afin d’optimiser leurs coûts de mise en conformité. Cette dynamique est particulièrement visible lorsque des investisseurs issus de pays aux normes strictes se tournent vers des destinations moins contraignantes, confirmant l’hypothèse d’une recherche délibérée de « havres de pollution ».

Une coopération internationale nécessaire dans un monde fragmenté

L’hypothèse du « havre de pollution » n’est donc pas un simple « mythe populaire », comme l’avait suggéré une étude des années 2000.

Face à ce constat, plusieurs pistes s’imposent. D’abord, renforcer la coopération internationale à travers des accords multilatéraux capables de réduire les écarts de normes et de limiter les possibilités d’arbitrage. Ensuite, améliorer l’application effective des règles, en particulier dans les pays à bas salaires, afin de préserver leur crédibilité sur le long terme. Le déploiement de mécanismes correcteurs, comme l’ajustement carbone aux frontières introduit par l’Union européenne (UE), constitue également une voie prometteuse puisqu’il permet de taxer les importations en fonction des émissions de gaz à effet de serre qu’elles incorporent. Enfin, le développement d’incitations fiscales et financières pour les technologies propres peut orienter les IDE vers des secteurs compatibles avec la transition écologique.

La lutte contre le changement climatique ne peut donc ignorer ces dynamiques économiques. Comprendre comment les entreprises réagissent aux réglementations environnementales est indispensable pour concevoir des politiques à la fois efficaces sur le plan écologique et équitables sur le plan économique. L’enjeu est de taille : réussir la transition verte sans creuser davantage les inégalités de développement entre le Nord et le Sud, dans un monde déjà marqué par des tensions importantes et une fragmentation croissante.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Délocalisations : L’effet « havre de pollution » n’est pas un mythe populaire – https://theconversation.com/delocalisations-leffet-havre-de-pollution-nest-pas-un-mythe-populaire-265035

La montée en puissance du nationalisme en Angleterre

Source: The Conversation – France in French (3) – By Kevin Rocheron, Doctorant en civilisation britannique, Université Sorbonne Nouvelle, Paris 3

La lourde défaite du Parti conservateur aux législatives de l’été 2024 a entraîné une recomposition politique au Royaume-Uni, les travaillistes au pouvoir considérent désormais que leur premier adversaire est le parti d’extrême droite Reform UK. C’est dans ce contexte qu’intervient l’essor du nationalisme en Angleterre.


Ces dernières semaines ont été marquées par une spectaculaire multiplication du nombre de drapeaux accrochés et brandis dans l’espace public en Angleterre. La croix de saint Georges, emblème de l’Angleterre, et l’Union Jack, drapeau britannique, ont occupé les lampadaires, les boîtes aux lettres, les ponts d’autoroute voire des ronds-points ou des passages piétons repeints aux couleurs nationales. La présence de ces symboles a culminé le 13 septembre, lorsque près de 110 000 personnes se sont rassemblées à Londres pour participer à la marche « Unite the Kingdom », organisée à l’initiative de Tommy Robinson, figure controversée de l’extrême droite britannique.

Traditionnellement, le drapeau britannique est hissé lors d’événements militaires ou monarchiques. La croix de saint Georges, quant à elle, n’apparaît que lors de grandes compétitions sportives, lorsque l’Angleterre joue en tant que nation. Mais depuis l’été dernier, le drapeau a quitté les stades pour investir le quotidien et le champ politique, transformant ce symbole national en enjeu identitaire.

Le déclencheur fut l’appel du collectif Weoley Warriors à une opération d’affichage de drapeaux, finançant et hissant des centaines de bannières sur le mobilier urbain. Leur mot d’ordre : « Une population fière est une population forte » (« A proud community is a strong community »). L’initiative, relayée par l’organisation Operation Raise the Colours, s’est diffusée dans tout le pays. À Birmingham (Midlands de l’Ouest, Angleterre), le conseil municipal travailliste a ordonné le retrait de ces drapeaux pour des raisons de sécurité, déclenchant une polémique. Plusieurs groupes ont accusé les autorités locales d’avoir fait preuve de « deux poids, deux mesures », en tolérant par exemple l’affichage de drapeaux palestiniens lors de manifestations ou sur des bâtiments publics, tout en retirant les drapeaux de la croix de saint Georges. Cet épisode a été instrumentalisé par certains militants nationalistes pour dénoncer une marginalisation de l’identité anglaise au profit d’autres revendications politiques ou communautaires.

Si Weoley Warriors et Operation Raise the Colours se disent apolitiques et revendiquent un simple patriotisme, les publications de leurs membres sur les réseaux sociaux sont, elles, clairement politisées : appels à des élections anticipées, critiques virulentes de la BBC, du Parti travailliste, de Keir Starmer, du maire travailliste de Londres Sadiq Khan ainsi que de la politique d’accueil des demandeurs d’asile.

Les racines de la colère

Contrairement au pays de Galles, à l’Écosse et à l’Irlande du Nord, dont l’identité s’appuie sur une langue, des institutions ou des coutumes propres, l’identité anglaise a longtemps été confondue avec celle du Royaume-Uni.

La confusion entre les termes « Angleterre », « Grande-Bretagne » et « Royaume-Uni » reste d’ailleurs fréquente dans le langage courant. Majoritaire sur les plans politique, économique et géographique, l’Angleterre n’a longtemps pas ressenti le besoin de se doter d’une conscience nationale distincte. Cependant, depuis vingt ans, un sentiment « anglais » (plutôt que « britannique ») a émergé, se construisant souvent par opposition : à l’Écosse, à l’Union européenne et, plus récemment, aux demandeurs d’asile.

Le tournant s’est produit au début des années 2000, lorsque le gouvernement travailliste de Tony Blair a mis en place un ambitieux projet de création de Parlements et de gouvernements nationaux en Écosse, au pays de Galles et en Irlande du Nord (un processus appelé « devolution »). L’Angleterre en fut exclue, créant une situation paradoxale : les députés écossais, gallois et nord-irlandais pouvaient voter à Westminster sur des sujets touchant exclusivement l’Angleterre, alors que les députés anglais ne pouvaient pas se prononcer sur les matières dévolues aux Parlements nationaux.

Cette asymétrie a donné naissance à la fameuse « West Lothian Question », symbole d’une injustice démocratique ressentie. La situation s’est aggravée avec le référendum d’indépendance écossais de 2014 (soldé par une victoire à 55 % du non à la question « L’Écosse doit-elle devenir un pays indépendant ? ») et la montée en puissance en Écosse du Scottish National Party (SNP) (parti indépendantiste écossais, ndlr)), qui ont nourri l’impression que l’Union se définissait selon les priorités de l’Écosse, au détriment de l’Angleterre.

Le référendum sur le Brexit de 2016 a fourni un nouvel exutoire. L’Angleterre a voté majoritairement en faveur du Leave, c’est-à-dire pour quitter l’UE (53,4 %), contrairement à l’Écosse (62 % pour le Remain, rester) et à l’Irlande du Nord (55,8 % pour le Remain). Le pays de Galles a lui aussi opté pour le Leave (52,5 %), malgré les importants financements européens dont il bénéficiait. Ce vote traduit une combinaison de ressentiment économique et de défiance vis-à-vis des élites, rejoignant ainsi le camp anglais plus que l’écossais ou le nord-irlandais. Le slogan des partisans du Leave, « Take back control », cristallisait une volonté de reprendre le pouvoir, de contrôler les frontières et de rompre avec un sentiment d’abandon économique.

Plus récemment, la question migratoire est devenue un nouveau catalyseur de colère.

Depuis le Brexit, l’immigration nette a augmenté. La liberté de circulation en provenance de l’UE a pris fin mais le Royaume-Uni a mis en place un système à points qui a encouragé l’arrivée de travailleurs qualifiés issus de pays extérieurs à l’UE.

Dans le même temps, les pénuries de main-d’œuvre dans la santé, les services sociaux, l’hôtellerie-restauration et l’agriculture ont conduit de nombreux employeurs à dépendre davantage des travailleurs immigrés. Il en a résulté un décalage entre les attentes, selon lesquelles le Brexit devait réduire l’immigration, et la réalité, marquée par un maintien ou même une augmentation des flux migratoires, ce qui a nourri un profond sentiment de frustration.

Parallèlement, la hausse des traversées de la Manche en petites embarcations depuis 2018 est devenue un enjeu particulièrement visible et hautement symbolique. Bien que les traversées de la Manche sur des bateaux de fortune ne représentent qu’une très faible part des flux migratoires, l’importante médiatisation de ces arrivées sur les côtes du sud de l’Angleterre a renforcé l’impression d’une perte de contrôle.




À lire aussi :
Comment au moins 27 personnes qui tentaient de rejoindre l’Angleterre se sont noyées dans la Manche le 24 novembre 2021, et peut-on éviter que de tels drames se reproduisent ?


En outre, le projet des gouvernements conservateurs visant à transférer certains demandeurs d’asile vers le Rwanda, ainsi que les promesses répétées de « Stop the boats » (« Arrêtez les bateaux »), un slogan popularisé par l’ancien premier ministre conservateur Rishi Sunak (octobre 2022-juillet 2024), soulignent que l’immigration a été l’un des sujets les plus mis en avant par les premiers ministres britanniques.

À cela s’ajoutent l’effet des réseaux sociaux et la désinformation. L’exemple de l’affaire de Southport, à l’été 2024, est révélateur. Trois personnes avaient été tuées et dix blessées lors d’une attaque au couteau ; quand un suspect a été arrêté, de fausses informations circulant sur Internet ont rapidement associé la tragédie à l’immigration et à l’islam, des affirmations dont il s’est révélé qu’elles étaient infondées.

Durant tout l’été, des manifestations se sont multipliées devant les hôtels et centres d’accueil de réfugiés dans tout le pays, et particulièrement en Angleterre. Les organisateurs, plusieurs mouvements d’extrême droite comme Patriotic Alternative ou Homeland Party, ont activement contribué à l’organisation de ces protestations locales, notamment sur les réseaux sociaux.

Le fait que de nombreux drapeaux aient été levés dans la région de Birmingham, l’une des plus cosmopolites du pays, souligne la sensibilité accrue de ces tensions et met en lumière les défis auxquels le modèle multiculturaliste britannique est confronté. Cette crispation est d’autant plus forte que, dans le débat politique actuel, rares sont les responsables de partis prêts à défendre ouvertement les bénéfices de l’immigration.

Les enquêtes « Future of England Survey » ont montré que ceux qui se définissent comme « anglais » plutôt que « britanniques » sont plus eurosceptiques, considèrent que l’Angleterre est désavantagée par rapport aux autres nations au sein du Royaume-Uni, ressentent davantage de colère et de peur face à l’avenir politique et votent plus que les autres catégories en faveur du parti Reform UK.

Une identité captée par le parti Reform UK

Jusqu’à récemment, le parti conservateur, plus implanté en Angleterre que dans les trois autres nations, attirait ce vote pro-anglais. Mais sa défaite électorale de 2024 a ouvert un espace politique que le parti d’extrême droite Reform UK, dirigé par Nigel Farage, occupe désormais.

Bien que Nigel Farage n’ait pas participé au rassemblement Unite the Kingdom et qu’il ait toujours pris ses distances vis-à-vis de Tommy Robinson, lequel a eu de nombreux démêlés judiciaires et a été condamné à plusieurs peines de prison entre 2005 et 2025, il a pu tirer parti politiquement de ses thématiques. En effet, les émeutes et protestations encouragées ou soutenues par Robinson placent au centre de l’agenda médiatique la question migratoire, laquelle se trouve au cœur du programme de Farage. Cela lui permet de capter un électorat inquiet sans endosser l’étiquette d’extrémiste, en offrant aux mécontents une traduction électorale plus crédible que le militantisme de rue.

Considérant désormais Reform UK comme son principal opposant, le gouvernement travailliste de Keir Starmer a préféré reprendre une partie de son discours sur l’immigration plutôt que le contester, ce qui renforce la légitimité des thèmes portés par Nigel Farage auprès d’une partie de l’électorat anglais. Le choix récent du premier ministre de nommer au poste de Home Secretary (ministre de l’intérieur) Shabana Mahmood, réputée particulièrement ferme sur le thème de l’immigration, montre que Reform UK dicte l’agenda politique britannique.

Lors des dernières législatives, Reform UK a recueilli 19 % des voix en Angleterre contre seulement 7 % en Écosse, confirmant son ancrage essentiellement anglais. Les élections locales de mai dernier ont également abouti à un succès pour Reform UK, qui a ravi nombre de sièges aux conservateurs. Les sondages YouGov le donnent aujourd’hui en tête devant les travaillistes si de nouvelles élections devaient avoir lieu.

La campagne de Nigel Farage s’articule autour d’un agenda populiste en opposant « le peuple » à Westminster : arrêt de l’immigration, lutte contre un gouvernement qualifié de corrompu, sortie du Royaume-Uni de la Convention de sauvegarde des droits de l’homme et libertés fondamentales (dont le pays est partie en sa qualité de membre du Conseil de l’Europe) qui est accusée d’être un frein à l’expulsion d’immigrés et défense des valeurs et de la culture britanniques. Autant de thèmes qui lui permettent de capter un électorat conservateur déçu, en quête de réponses claires et d’un discours centré sur l’« anglicité ».

Quelles réponses au nationalisme anglais ?

Plusieurs solutions ont été envisagées par les gouvernements successifs pour apaiser ce malaise identitaire.

Symboliquement, certains députés ont proposé de doter l’Angleterre d’un hymne national distinct de God Save the King, l’hymne national britannique, ou de créer un jour férié pour célébrer la Saint-Georges, comme c’est déjà le cas pour saint Andrew et saint Patrick, respectivement les saints patrons de l’Écosse et de l’Irlande du Nord. Ces projets n’ont pas abouti par manque de soutien au niveau politique.

Sur le plan institutionnel, la procédure parlementaire « English Votes for English Laws » (EVEL) (« Des votes anglais pour des lois anglaises »), introduite en 2015 pour répondre à la West Lothian Question, et qui devait corriger les défauts induits par la devolution, en permettant aux seuls députés anglais de voter uniquement sur les projets de loi ne concernant que l’Angleterre, a été supprimée en 2021, car jugée trop lourde et porteuse de division. La voie régionale envisagée par Tony Blair, permettant de doter des assemblées régionales en Angleterre dans un État britannique jugé trop centralisé, a été testée lors du référendum de 2004 dans le Nord-Est. Rejetée par 74 % des votants, elle a été abandonnée.

Sur le plan économique, la politique de Levelling Up (rééquilibrage) lancée par le conservateur Boris Johnson (premier ministre de 2019 à 2022) visait à réduire les inégalités régionales et à redonner « un sens de fierté et d’appartenance » aux collectivités locales, mais son impact est resté limité, faute de financements suffisants et de continuité politique.

Le basculement d’une partie notable de l’électorat vers le parti de Nigel Farage s’explique non seulement par l’accumulation de crises et la perte de confiance dans la capacité des gouvernements conservateurs comme travaillistes à y répondre, mais aussi par le rôle joué par des premiers ministres successifs, de Boris Johnson à Keir Starmer, dont les déclarations sur l’immigration ont contribué à nourrir ces tensions.

La multiplication des drapeaux illustre un nationalisme anglais en quête de reconnaissance. Ce mouvement s’inscrit dans une poussée identitaire plus large à l’échelle mondiale. Des figures, comme Éric Zemmour en France ou Elon Musk aux États-Unis, y trouvent un écho et participent à alimenter ce réveil patriotique, comme le montre leur participation à la manifestation Unite the Kingdom du 13 septembre à Londres.

Plutôt que d’unir le royaume, ce sursaut national risque d’accentuer les fractures et de faire du Royaume-Uni un État plus désuni encore. En effet, si Reform UK capitalise sur cette colère, les nations dévolues, notamment l’Écosse, restent méfiantes face à ce renforcement de l’« anglicité ».

The Conversation

Kevin Rocheron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La montée en puissance du nationalisme en Angleterre – https://theconversation.com/la-montee-en-puissance-du-nationalisme-en-angleterre-265814

L’écriture inclusive, une arme contre les stéréotypes de genre

Source: The Conversation – in French – By Benjamin Storme, Professeur assistant en linguistique française, Leiden University

L’écriture inclusive vise une égalité des représentations entre femmes et hommes. Mais face à la diversité des options proposées, quelle stratégie adopter ? Une étude récente montre que les formulations rendant visibles à la fois le masculin et le féminin – comme « étudiants et étudiantes » – sont les plus efficaces pour réduire les stéréotypes de genre.


La réduction des inégalités femmes-hommes est un des objectifs affichés des politiques publiques contemporaines. Diverses mesures ont été prises en France dans ce but au cours des dernières décennies, qu’il s’agisse des lois sur l’égalité salariale ou plus récemment de la mise en place du congé paternité ou des programmes de sensibilisation aux stéréotypes de genre.

À côté de ces mesures sociales, des recherches suggèrent que même des actions aussi simples en apparence que l’utilisation de l’écriture inclusive peuvent également jouer un rôle, en offrant une représentation plus équilibrée des femmes et des hommes dans la langue.

Souvent réduite au point médian (« étudiant·e·s ») ou au pronom « iel », sujets de vifs débats ces dernières années, l’écriture inclusive correspond en réalité à une pluralité de stratégies, incluant les doublets (« étudiants et étudiantes »), les contractions avec parenthèses (« étudiant(e)s »), les noms invariables en genre (« une personne »), l’accord de proximité, etc. Cette diversité soulève la question suivante : y a-t-il une stratégie qui permettrait une meilleure parité entre les femmes et les hommes et qui serait donc à privilégier ?

Le problème du masculin générique

Avant d’aborder cette question, il faut revenir aux motivations de l’écriture inclusive. En français, on utilise traditionnellement des mots masculins pour décrire un groupe mixte – une règle qui peut être résumée par la célèbre formule « le masculin l’emporte sur le féminin ». Par exemple, une offre d’emploi visant indifféremment des femmes et des hommes sera typiquement écrite au masculin : « Nous recherchons des étudiants pour de l’aide aux devoirs. »

En théorie, cet usage dit « générique » du masculin devrait être neutre, c’est-à-dire désigner aussi bien des femmes et des hommes. C’est d’ailleurs ce qu’affirment un certain nombre de linguistes, comme Claude Hagège dans une tribune parue dans le Monde, en 2017.

Cependant, de nombreuses études en psycholinguistique montrent que la forme masculine oriente l’interprétation vers les hommes, non seulement en français, mais aussi dans d’autres langues comme l’anglais, l’allemand ou l’espagnol. Ainsi les lecteurs et lectrices de l’annonce cherchant des étudiants pour l’aide au devoir s’imagineront plus volontiers que cette annonce s’adresse à des hommes qu’à des femmes. On parle alors d’un biais masculin.

Des études montrent également que ce biais masculin ne se limite pas à l’interprétation du texte, mais a des conséquences tangibles sur les lectrices, réduisant leur intérêt pour ces annonces ainsi que leur aptitude à se projeter dans le métier correspondant.

L’écriture inclusive, une diversité de stratégies

C’est pour répondre à ce défaut de représentativité des femmes dans l’utilisation du masculin générique que l’écriture inclusive a été proposée. Comme on l’a vu plus haut, l’écriture inclusive correspond à une diversité de stratégies. Derrière cette multitude, on peut dégager deux grandes catégories, la féminisation et la neutralisation, que l’on trouve en français comme dans d’autres langues (l’anglais ou l’allemand).

La féminisation consiste à rendre le genre féminin visible, en présentant systématiquement les formes masculines et féminines des mots pour évoquer un groupe mixte. Il peut s’agir de doublets (« étudiants et étudiantes ») ou d’abréviations, comme le point médian (« étudiant·e·s ») ou les parenthèses (« étudiant(e)s »).

La neutralisation est au contraire une stratégie d’invisibilisation du genre. On utilise une forme qui n’a pas de genre grammatical (élève) ou dont le genre grammatical est invariable (des personnes, le groupe). Dire « les élèves » à la place de « les étudiants » permet ainsi d’éviter d’indiquer explicitement le genre du nom. La neutralisation consiste donc à régler le problème du genre dans la langue en l’éliminant, suivant ainsi le modèle de la plupart des langues du monde, qui n’ont pas de genre grammatical.

Approche expérimentale

S’il est bien établi que féminisation et neutralisation offrent une meilleure représentation des femmes que le masculin générique, il reste à déterminer laquelle de ces deux stratégies est la plus inclusive.

Les recherches portant sur cette question en français sont assez récentes et les résultats diffèrent d’une étude à l’autre.

Ces études antérieures se focalisent sur des noms qui ne sont pas socialement stéréotypés en genre, comme « étudiant ». Mais que se passe-t-il quand le nom désigne une activité stéréotypiquement masculine, comme « ingénieur/ingénieure », ou stéréotypiquement féminine, comme « esthéticien/esthéticienne » ?

Notre article de recherche teste l’hypothèse selon laquelle rendre visible le genre par la féminisation permet de mieux contrer ces stéréotypes. Cette hypothèse s’appuie sur l’idée que la présence des deux genres impliquée par la féminisation (étudiants et étudiantes) force une interprétation plus proche de la parité, là où l’absence d’information de genre dans le cas de la neutralisation (élèves) laisserait au contraire les stéréotypes guider l’interprétation.

L’article adopte une approche expérimentale pour tester cette hypothèse. L’étude établit d’abord les stéréotypes de genre associés à diverses activités connues pour être plutôt stéréotypées masculines (ingénierie, pilote d’avion, etc.), féminines (soins de beauté, baby-sitting, etc.), ou neutres (public d’un spectacle, skieur/skieuse, etc.).

Pour ce faire, 90 personnes lisent des annonces invitant à rejoindre un groupe pratiquant ces activités, présentées sous la forme d’un verbe (travailler dans l’ingénierie, faire du ski, etc.). Les sujets doivent indiquer la proportion de femmes dans le groupe visé par l’annonce, ce afin d’établir un score de stéréotype pour chacune de ces activités.

Ensuite 90 autres personnes sont invitées à lire les mêmes annonces, mais présentées cette fois avec des noms plutôt que des verbes : (i) les formes masculines (les ingénieurs) et les deux formes d’écriture inclusive concurrentes, (ii) la féminisation, avec les formes doubles (les ingénieurs et ingénieures), et (iii) la neutralisation, avec les formes invariables en genre (l’équipe d’ingénierie). Les sujets doivent là aussi indiquer la proportion de femmes dans le groupe visé par l’annonce. On compare ensuite les scores des deux études afin d’établir comment différentes stratégies d’écriture interfèrent avec les stéréotypes.

Rendre le genre visible réduit les stéréotypes

Les résultats confirment que les deux stratégies d’écriture inclusive (féminisation et neutralisation) permettent de contrecarrer le biais masculin des masculins génériques, avec des proportions de femmes plus élevées indiquées par les sujets.

Le résultat le plus intéressant concerne la comparaison entre féminisation et neutralisation. Les sujets indiquent des proportions de femmes plus proches de la parité (50 %) pour les annonces présentées avec la féminisation (ingénieur et ingénieure) que pour les annonces présentées avec la neutralisation (équipe d’ingénierie).

Avec la neutralisation, les stéréotypes influencent fortement l’interprétation. Par exemple, les sujets ont tendance à répondre qu’un poste en ingénierie vise plutôt des hommes et un poste dans les soins de beauté plutôt des femmes. En revanche, avec la féminisation, cet effet est atténué, permettant des associations non stéréotypées : les sujets imaginent plus volontiers qu’un poste d’ingénieur ou d’ingénieure est destiné aux femmes et qu’un poste d’esthéticien ou esthéticienne est destiné aux hommes. Bien que nos résultats ne portent que sur les doublets (ingénieur et ingénieure), il est probable que l’on puisse généraliser à d’autres stratégies de féminisation comme le point médian (« ingénieur·e »), dans la mesure où les études récentes comparant ces différents types de féminisation ne trouvent pas de différence entre elles.

Ces résultats ont des implications importantes. Ils signifient que la féminisation peut bénéficier non seulement aux femmes mais aussi aux hommes, en leur rendant plus accessibles les activités associées de manière stéréotypée au sexe opposé. Pour lutter contre les stéréotypes, mieux vaut donc rendre visible le genre, avec les doublets (étudiants et étudiantes) ou les formes contractées (étudiant·e·s), que de le masquer.

The Conversation

Benjamin Storme a reçu des financements de l’Université de Leyde et de la NWO (Organisation Néerlandaise pour la Recherche Scientifique) pour d’autres projets de recherche.

Martin Storme a reçu des financements de l’ANR pour d’autres projets de recherche.

ref. L’écriture inclusive, une arme contre les stéréotypes de genre – https://theconversation.com/lecriture-inclusive-une-arme-contre-les-stereotypes-de-genre-264283

Les pressions de Donald Trump sur la Fed annoncent-elles la fin du dollar ?

Source: The Conversation – France (in French) – By Vanessa Strauss-Kahn, Professeure d’économie, ESCP Business School

Le président des États-Unis Donald Trump, multiplie les critiques contre la banque centrale, Federal Reserve, trop timorée à ses yeux. Derrière d’évidents conflits d’intérêt à court terme, Trump pourrait bien remettre en cause la crédibilité de la Fed, un des piliers de la puissance mondiale du dollar.


Depuis quelques semaines, la Maison Blanche intensifie ses critiques à l’encontre de la banque centrale des États-Unis (Federal Reserve, Fed). Ces remarques répétées suscitent des interrogations sur le respect de l’indépendance de la Fed et, plus encore, de fortes inquiétudes sur la stabilité macroéconomique et financière des États-Unis.

Les prises de position du président Trump sur la politique monétaire de la Fed ne sont pas nouvelles. Le 19 juillet 2018, il exprimait déjà son désaccord avec la politique des taux d’intérêt menée par la banque centrale. Il rompait ainsi avec la tradition qui voulait que l’exécutif s’abstienne de commenter afin de préserver l’indépendance de la Fed et de maintenir la confiance des marchés financiers. À l’époque, ses éclats semblaient surtout médiatiques. Mais aujourd’hui, Trump 2 paraît engager une remise en cause plus structurelle de l’architecture économique et financière, appelant à une attention particulière.

Stimuler la croissance à tout prix

Depuis son retour à la Maison Blanche, Trump exige une baisse des taux pour stimuler la croissance. Il intensifie ses attaques contre la Fed. Après avoir critiqué le maintien du taux directeur le 18 mars 2025, menacé de limoger Jerome Powell le 17 avril dernier, puis multiplié les insultes publiques, il a exigé le 20 août la démission de Lisa Cook, une des sept gouverneurs de la Fed. La nomination de nouveaux membres permettrait à l’exécutif de modifier l’équilibre des votes et d’infléchir la politique monétaire.




À lire aussi :
À quoi sert l’indépendance des banques centrales ?


Le Federal Reserve Act de 1913 autorise la révocation d’un gouverneur « pour motif valable » (faute grave, manquement ou incapacité). Cette disposition, jamais utilisée, reste juridiquement incertaine. La tentative de destitution, rejetée en première instance, le 16 septembre 2025, a donc suscité de fortes inquiétudes des économistes, médias et marchés financiers sur l’indépendance de la Fed et la politisation de la politique monétaire.

Or, l’indépendance des banques centrales est la clé de voûte de la stabilité monétaire. Le Système de la réserve fédérale, créé en 1914 pour répondre aux paniques bancaires du XIXe siècle, a été conçu pour protéger la banque centrale des pressions politiques. Cette autonomie a été consolidée par le Banking Act de 1935 et par l’accord de 1951 avec le Trésor.

Outil de lutte contre l’inflation

Cette indépendance est aussi un instrument essentiel de lutte contre l’inflation. Sans elle, un gouvernement pourrait chercher à financer ses déficits en poussant la banque centrale à créer davantage de monnaie ou à abaisser ses taux. Ces politiques stimuleraient artificiellement la demande, gonfleraient la masse monétaire et provoqueraient une hausse des prix, entraînant in fine une dépréciation de la monnaie.

L’histoire a montré les effets d’un manque d’indépendance des banques centrales. Dans l’Allemagne des années 1920, la Reichsbank, sous contrôle de l’État, finançait déficits et réparations de guerre par création monétaire, provoquant l’hyperinflation de 1923. On retrouve des mécanismes similaires au Zimbabwe (2007–2009), au Venezuela (2010–2020) et, plus récemment, en Turquie, où les pressions politiques sur la banque centrale ont alimenté une inflation durable.

Les bases académiques de cette indépendance sont en revanche plus récentes. Dans les années 1970, Kydland et Prescott (1977), puis Barro et Gordon (1982), ont montré que, sans autonomie ni mandats crédibles, les politiques monétaires perdent leur efficacité et nourrissent des anticipations inflationnistes persistantes.

L’importance de la crédibilité

Les agents économiques tiennent compte du degré d’indépendance de la banque centrale. Quand celle-ci perd en crédibilité, ils doutent de sa capacité à respecter son mandat – maintenir une inflation modérée, fixée à 2 % pour la Fed. Résultat : face à un déficit budgétaire croissant, ils s’attendent à plus d’inflation, augmentent leurs prix par anticipation et enclenchent un cercle autoréalisateur qui alimente la hausse générale des prix.

De nombreuses études empiriques confirment le lien entre indépendance des banques centrales et faible inflation, comme l’ont montré Grilli, Masciandaro et Tabellini (1991), Alesina et Summers (1993) ou encore Bodea et Hicks (2015). Et la question reste d’actualité. En 2024, le Fonds monétaire international (FMI) a publié un nouvel indice mesurant l’indépendance des banques centrales, qui devrait alimenter de nouvelles recherches et débats.

En résumé, sans indépendance, une banque centrale perd sa crédibilité – et, avec elle, sa capacité à maîtriser l’inflation.

Baisse des taux

Le souhait du président Trump de voir baisser les taux d’intérêt directeurs s’est en partie concrétisé, le 17 septembre 2025 (baisse des taux d’un quart de point), Powell répondant ainsi aux mauvais résultats du marché du travail américain (le chômage atteignant 4,3 % en août 2025, son plus haut niveau depuis octobre 2021, BLS, 2025). Cette baisse des taux directeurs sur fond de ralentissement économique est en accord avec le double mandat de la Fed ; c’est-à-dire, maîtriser l’inflation et favoriser une économie proche du plein emploi.

Mettra-t-elle fin aux attaques contre l’indépendance de la Fed ? Peu probable. En effet, en juillet, le président annonçait vouloir une baisse de 300 points de base (soit passer d’un taux directeur de 4 % à 1 %). Une réduction drastique jamais mise en œuvre en une seule fois et historiquement intervenue seulement lors de périodes de profondes récessions, comme, par exemple, en 2007-2008.

Un lien dangereux entre l’exécutif et la Fed

L’indépendance de la Fed pourrait également être fragilisée par la récente nomination par Trump de Stephen Miran (actuel président du Conseil des conseillers économiques, Council of Economic Advisers, CEA) au siège vacant du Conseil des gouverneurs de la banque centrale. Celui-ci a indiqué qu’il ne démissionnerait pas de ses fonctions au CEA, mais prendrait un congé sans solde – créant ainsi un lien institutionnel inédit entre la Fed et l’exécutif. De par la loi, un gouverneur, nommé par le président et confirmé par le Sénat, ne peut occuper un autre poste dans l’appareil de l’État, évitant ainsi des conflits d’intérêt.

Par ailleurs, Miran, comme Trump, défend une politique d’affaiblissement du dollar, qualifiée d’« accord de Mar-a-Lago ». Une baisse significative des taux directeurs entraînerait une diminution des rendements de la dette souveraine américaine et de sa valeur en devises étrangères réduisant ainsi son attractivité pour les investisseurs étrangers alors que 30,2 % du stock de la dette émise par le Trésor américain est détenu par des investisseurs internationaux, (Congressional Research Service).

France 24, septembre 2025.

Un système financier en voie de fragilisation

Outre sa mission de politique monétaire, la Fed est également chargée de veiller à la stabilité financière, de superviser le secteur bancaire et de garantir le bon fonctionnement des systèmes de paiement. Or, plusieurs annonces de la Maison Blanche suscitent des inquiétudes quant à la solidité de l’architecture financière internationale et à la stabilité du système bancaire américain (CEPR, 2025).

Le 18 février 2025, un décret présidentiel a lancé une refonte des fonctions de réglementation et de supervision bancaires exercées par la Fed (Maison Blanche, 2025). Un assouplissement de ces réglementations pourrait conduire les banques à pratiquer des ratios de levier (actifs totaux rapportés au capital) trop élevés, comme avant la crise de 2008. La stabilité du système bancaire se verrait compromise.

En août 1971, lorsque le président Nixon annonça la suspension de la convertibilité du dollar en or, son secrétaire au Trésor John B. Connally prononça cette phrase restée célèbre :

« Le dollar est notre monnaie, mais c’est votre problème. »

Les décisions récentes de la Maison Blanche ravivent l’actualité de cette déclaration. Le dollar joue un rôle primordial dans l’architecture financière internationale. Si ce rôle confère aux États-Unis un « privilège exorbitant » (Eichengreen, 2011), il repose sur la confiance internationale dans la stabilité de l’économie et des institutions américaines.

Une intensification des tensions commerciales et financières pourrait éroder cette confiance, incitant banques centrales et investisseurs internationaux – notamment la Chine – à diversifier davantage leurs réserves de change et investissements vers d’autres devises ou monnaies numériques. Un tel mouvement fragiliserait le dollar. Il deviendrait alors aussi un problème américain.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Les pressions de Donald Trump sur la Fed annoncent-elles la fin du dollar ? – https://theconversation.com/les-pressions-de-donald-trump-sur-la-fed-annoncent-elles-la-fin-du-dollar-265784

Du slip troué aux sachets de thé, quelques indicateurs pour mesurer la santé des sols

Source: The Conversation – France (in French) – By Coline Deveautour, Enseignante-Chercheuse en Ecologie microbienne des sols, UniLaSalle

Le test du slip est très simple à interpréter : plus le slip retrouvé sera troué, plus le sol sera en bonne santé. Gabriela Braendle/Agroscope

Du slip en coton aux sachets de thé enterrés, de l’analyse chimique en laboratoire aux espèces bio-indicatrices, voici un panorama de quelques tests étonnants qui permettent d’informer de la santé des sols. Derrière leur éventuelle dimension ludique, ils montrent à quel point les données ainsi recueillies sur le bon fonctionnement de ces écosystèmes sont précieuses, notamment pour l’agriculture.


Les sols nous rendent des services précieux et encore trop souvent invisibles : c’est grâce à eux que de nombreuses espèces – dont la nôtre – peuvent se nourrir, voire se vêtir, grâce aux cultures textiles. Ils sont la base physique sur laquelle une large partie des écosystèmes terrestres – ainsi que les infrastructures humaines – sont bâtis.

Ils rendent des services écosystémiques incomparables. Non seulement les sols fournissent aux plantes l’eau et les nutriments nécessaires à leur croissance, mais ils permettent aussi de réguler le cycle de l’eau, entre le ruissellement de la pluie et son infiltration. De ce fait, ils jouent un rôle clé pour atténuer l’ampleur des inondations. Leur fonction de puits de carbone en fait également des alliés précieux de la décarbonation.

Les sols représentent un habitat indispensable pour la survie de certains organismes tels que des micro-organismes (bactéries, champignons, algues, protozoaires…) mais aussi d’animaux plus ou moins grands (lombriciens, arthropodes, nématodes…), tous liés par une chaîne alimentaire complexe.

Ces organismes sont très nombreux : une cuillère à café de sol contient plus d’êtres vivants qu’il n’y a d’humains sur la Terre ! On y retrouve ainsi plusieurs centaines de millions de bactéries, plusieurs dizaines de milliers de champignons, des centaines de protozoaires et des dizaines d’arthropodes tels que des acariens ou des collemboles.

Dans ces conditions, un sol en bonne santé est un sol qui fonctionne bien, c’est-à-dire qui constitue un habitat adapté pour tous ces êtres vivants. Il leur offre le gîte et le couvert : un toit sûr et constant et de quoi se nourrir en suffisance. La bonne santé d’un sol constitue un atout indéniable pour l’agriculture en termes de fertilité, production et de lutte contre les maladies…. Mais comment peut-on la mesurer simplement ?




À lire aussi :
La vie secrète des sols français


Du test du boudin au slip troué

Des tests, en tant que chercheuses spécialisées aux milieux agricoles, nous en avons connus : du test du boudin à celui du verre d’eau, de la couleur à l’odeur du sol, du test à la bèche au décompte des vers de terre, il y a l’embarras du choix.

Évoquons l’un de ces tests qui a le mérite d’être simple, efficace et non dénué d’humour : le fameux test du slip. Pour connaître la santé d’un sol, agricole par exemple, on peut ainsi enterrer un slip en pur coton blanc non traité, puis le déterrer quelques mois plus tard afin de constater son état.

Le test du slip est facile à interpréter : une dégradation rapide est plutôt une bonne nouvelle.
Gabriela Braendle / Agroscope / Université de Zurich

L’interprétation est rapide et facile : un slip retrouvé plutôt intact sera une mauvaise nouvelle, tandis qu’un slip troué sera signe d’une dégradation de la cellulose du coton. L’explication est, elle, un peu plus complexe : un sol en bonne santé est habité par une grande diversité d’organismes, qui lui confèrent un fonctionnement optimal, et notamment un bon niveau de décomposition et de minéralisation de la matière organique.

Ce sont ces fonctions du sol qui permettent le recyclage des nutriments nécessaires à la croissance des plantes. Or, la cellulose du slip, par exemple, est une matière organique. Ainsi, si le slip est en bon état lorsqu’il est déterré, cela indique qu’il n’a pas été dégradé, et que le sol ne remplit pas correctement ses fonctions de décomposition.




À lire aussi :
La biodiversité des sols nous protège, protégeons-la aussi


Les sachets de thé, un test de référence

Pour affiner l’analyse, il existe un autre test moins médiatisé : celui des sachets de thé.

Deux sachets de thé prêts à être enterrés.
Anne-Maïmiti Dulaurent, Fourni par l’auteur

Il suffit d’enterrer des sachets de thé de compositions différentes (thé vert ou rooibos), plus ou moins « digestes » pour les organismes du sol – et donc plus ou moins difficiles à dégrader – et d’étudier la perte de poids des sachets après un temps donné. S’ils se sont allégés, c’est qu’ils ont perdu de la matière – et donc que celle-ci a été décomposée par les organismes du sol.

Après tout, un sachet de thé contient simplement de la matière végétale morte à l’intérieur d’une toile en nylon. Cela représente un bon appât pour les organismes décomposeurs.

Mais tous les thés ne se valent pas : le thé vert est plus facile à dégrader, tandis que le roiboos est plus ligneux et met plus longtemps à être décomposé. Comparer les deux permet donc d’évaluer dans quelle mesure le sol peut dégrader différents types de matière organique.

Cela peut prêter à sourire, mais il s’agit pourtant d’une méthode standardisée mise en place par des chercheurs. Son protocole est disponible pour toute personne souhaitant évaluer l’efficacité de dégradation d’un sol.

Non seulement cela fournit des informations précieuses sur la capacité du sol à décomposer la matière organique, mais un tel protocole rend les résultats comparables entre différents sites du monde entier, peu importe la façon dont sont gérés les sols.

Grâce à cette méthode, des chercheurs d’UniLaSalle et des agriculteurs des Hauts-de-France ont pu mettre en évidence un meilleur niveau de dégradation de la matière organique dans des sols en agriculture de conservation des sols, un mode de gestion agricole moins intensif que le mode conventionnel.

Un sol sain est primordial pour les agriculteurs. En cas de mauvaise décomposition de la matière (c’est-à-dire, des slips intacts et des sachets de thé qui semblent prêts à être infusés malgré plusieurs semaines passées dans le sol), des analyses plus poussées en laboratoire sont alors utiles pour comprendre d’où vient le dysfonctionnement.




À lire aussi :
Les sept familles de l’agriculture durable


Les analyses de sol, précieuses pour les agriculteurs

Les analyses de sol permettent de faire le bilan de la santé des sols, et sont donc précieuses pour les agriculteurs. Ces analyses peuvent s’intéresser à plusieurs paramètres et sont effectuées au laboratoire après avoir échantillonné le sol des parcelles.

Elles peuvent ainsi mesurer :

  • La texture du sol, qui informe sur la proportion de sable, limon et argile. C’est important, car certaines textures sont favorables à un type de culture, mais pas d’autres. Quelles que soient ses pratiques, l’agriculteur n’a aucun effet sur ce paramètre, mais doit en tenir compte pour adapter sa production et ses cultures.

  • Le taux de matière organique, qui correspond à la proportion de substances issues de la décomposition des plantes, des animaux et des microorganismes présents dans le sol. Un taux élevé améliore la capacité du sol à retenir les éléments nutritifs et renforce sa structure. L’agriculteur peut l’augmenter en apportant régulièrement différents types de matière organique, comme des effluents d’élevage, des digestats de méthanisation ou en favorisant la restitution de végétaux au sol.

  • La concentration en nutriments disponibles du sol (phosphore, potassium, magnésium, etc.) renseigne sur leur présence, en suffisance ou non, pour assurer les besoins des plantes cultivées. Une faible concentration d’un nutriment peut être compensée par l’apport de fertilisants minéraux ou de différentes matières organiques qui, décomposées par les habitants du sol, libéreront ce nutriment.

  • Enfin, le pH, qui indique l’état d’acidité du sol, impacte le développement des plantes. Il peut par exemple influencer la disponibilité des nutriments, mais aussi la présence et l’activité d’organismes bénéfiques pour les plantes. Il est possible pour l’agriculteur d’agir sur ce paramètre par différents types d’apports, comme la chaux qui permet d’éviter un pH trop acide.

Toutes ces informations permettent de guider la gestion du sol par l’agriculteur. Les analyses de sol peuvent être répétées au cours des années, notamment pour surveiller l’état d’une parcelle selon les pratiques agricoles mises en œuvre.

Des nouveaux bio-indicateurs en cours de développement

On l’a compris, les organismes du sol sont en grande partie responsables de son bon fonctionnement et de son état de santé. Mais ils sont sensibles à leur milieu et à la gestion des sols. Ainsi, pour tenir compte de leur présence, de nouveaux indicateurs reposant sur la vie du sol émergent depuis quelques années : on parle de bioindicateurs pour décrire ces espèces qui, par leur présence, renseignent sur les caractéristiques écologiques des milieux.

Bien sûr, différents bioindicateurs fournissent des informations différentes : l’abondance et la diversité de la mésofaune (collemboles et acariens) renseignent sur la capacité du sol à bien découper la matière, et les champignons plutôt sur l’efficacité du recyclage des nutriments. La sensibilité de ces organismes aux pratiques agricoles en fait de bons bioindicateurs.

D’autres indicateurs biologiques sont testés actuellement, par exemple pour évaluer le bon fonctionnement du cycle du carbone et de celui de l’azote.

Ces outils ne sont pas forcément accessibles pour la majorité des agriculteurs, car ils ont un coût financier pour le moment trop élevé. Un axe de recherche serait donc de développer des tests basés sur des bioindicateurs plus simples à mettre en œuvre et à interpréter.




À lire aussi :
Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Du slip troué aux sachets de thé, quelques indicateurs pour mesurer la santé des sols – https://theconversation.com/du-slip-troue-aux-sachets-de-the-quelques-indicateurs-pour-mesurer-la-sante-des-sols-264713