L’étonnante histoire du linguiste Nicolas Marr en URSS, ou quand la science est instrumentalisée à des fins idéologiques

Source: The Conversation – in French – By Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL

Un timbre à l’effigie de Nicolas Marr édité par la Poste de la république d’Arménie, où il a mené des fouilles archéologiques avant la révolution d’Octobre. Armenia Post/Wikimedia Commons, CC BY

Comment un philologue géorgien est-il devenu le théoricien officiel de la linguistique soviétique avant d’être renié par Staline? L’histoire de Nicolas Marr illustre les dangers de la science mise au service du pouvoir.


Nicolas Marr, né en 1865 (selon le calendrier grégorien) à Koutaïssi (Géorgie, Empire russe) et décédé en 1934 à Leningrad (URSS), occupe une place singulière dans l’histoire de la linguistique… moins pour ses apports scientifiques que pour l’influence politique qu’il exerça en Union soviétique, où sa théorie linguistique – aujourd’hui considérée comme largement fantaisiste, fut pendant plusieurs années érigée en doctrine officielle.

Son parcours intellectuel, culminant dans une consécration institutionnelle spectaculaire avant que Marr soit brutalement désavoué par Staline lui-même, offre un cas exemplaire de l’instrumentalisation des sciences humaines à des fins idéologiques. À l’heure où des gouvernements cherchent à encadrer les discours scientifiques sur des sujets sensibles (qu’il s’agisse du climat, du genre ou de l’histoire), le cas de Nicolas Marr rappelle que la liberté académique reste vulnérable face à des logiques politiques qui cherchent à imposer leurs propres normes de vérité.

Quand la linguistique devient idéologie

Formé comme philologue (spécialiste des textes anciens) à l’Université de Saint-Pétersbourg, Nicolas Marr se spécialise dans les langues caucasiennes. Son travail précoce est sérieux, et plutôt bien accueilli dans les cercles orientalistes de l’Empire russe.

Mais au fil des années, sa pensée s’éloigne des cadres méthodologiques établis, ce qui lui permet, fait rare pour un savant déjà reconnu avant 1917, de rester en vue sous le régime bolchévique : en requalifiant ses thèses de « matérialistes » et en les alignant sur les objectifs politiques (anti-occidentalisme, « modernisation linguistique » des peuples non russes, construction du socialisme), il transforme sa doctrine en orthodoxie institutionnelle, durablement adossée aux organes académiques et au pouvoir.

Marr est convaincu que l’approche traditionnelle concernant l’étude des langues indo-européennes (qui postule l’existence d’une langue mère commune, le proto-indo-européen, à l’origine de nombreuses langues d’Europe et d’Asie) est idéologiquement biaisée, car influencée par des présupposés élitistes et eurocentrés.

Il se lance alors dans la construction d’un nouveau paradigme linguistique, censé refléter une vision « matérialiste » de l’histoire des langues, c’est-à-dire une conception où le développement des langues est directement produit par les conditions sociales, économiques et historiques, conformément aux principes du marxisme.

Au cœur de sa théorie se trouve l’idée que toutes les langues humaines dérivent d’un protolangage unique fondé sur quatre éléments phonétiques fondamentaux : sal, ber, yon, rosh. Selon Nicolas Marr, ces « éléments de base » seraient les briques originelles de tout lexique, indépendamment des familles linguistiques reconnues. Il va jusqu’à proposer que l’évolution des langues obéit à des lois de type marxiste : la langue, comme tout autre superstructure (construction sociale dépendante des conditions économiques et des rapports de classe), serait le produit du développement des forces productives et l’histoire de la lutte des classes sociales.

Dans ses travaux ultérieurs, Nicolas Marr introduit la notion de langues « japhetiques », une famille hypothétique qu’il oppose aux langues indo-européennes (voir ici pour un compte rendu relativement favorable de l’époque, en 1936). Inspiré d’une relecture très libre de la Genèse, il affirme que les langues du Caucase – et bien d’autres – forment un rameau linguistique issu du personnage biblique Japhet. Cette classification fantaisiste, dépourvue de fondement comparatif rigoureux (par opposition à l’approche traditionnelle, fondée notamment sur des lois d’évolution phonétique strictement établies), lui permet d’insister sur l’existence d’un substrat linguistique commun à des peuples opprimés par le colonialisme occidental, théorie en phase avec l’idéologie soviétique des années 1920.

Une science d’État

Dans l’URSS des années 1920 et des années 1930, les sciences sont de plus en plus soumises à des critères politiques. Nicolas Marr, dont le discours allie un rejet de la tradition bourgeoise et une promesse d’unification linguistique du prolétariat mondial, s’impose rapidement comme un intellectuel « compatible ». Il avance que les langues évoluent selon les lois de la lutte des classes et que le langage reflète la structure sociale.

Cette approche plaît : Nicolas Marr, à la tête de nombreux instituts et entré à l’Académie des sciences en 1912, en devient vice-président et ses écrits deviennent obligatoires dans les cursus universitaires. Ses détracteurs sont marginalisés, voire écartés (comme Evgueni Polivanov).

La linguistique de Nicolas Marr (connue sous le nom de « nouvelle doctrine linguistique ») devient doctrine d’État : il ne s’agit plus seulement d’une théorie linguistique, mais d’une orthodoxie politique. La science du langage est désormais censée participer à la construction du socialisme.

L’influence de Nicolas Marr dépasse alors le simple champ académique. Ses idées sont mobilisées dans les débats sur les politiques de planification linguistique (c’est-à-dire l’intervention délibérée de l’État dans la codification, la standardisation, l’alphabétisation et l’enseignement des langues), en particulier concernant la création de systèmes d’écriture pour des langues jusqu’alors non écrites des républiques soviétiques. La linguistique devient un outil de gouvernement, au service de la « politique des nationalités » : il s’agit à la fois de favoriser le développement culturel des peuples non russes et de préparer leur intégration dans le cadre idéologique du marxisme-léninisme.

Nicolas Marr sert ici de caution savante : ses théories, même contestées sur le plan scientifique, sont valorisées parce qu’elles justifient une conception révolutionnaire et volontariste de la langue comme construction sociale. Dans ce contexte, contester Nicolas Marr, c’était risquer de contester la ligne du Parti.

Le retournement

La mort de Nicolas Marr en 1934 ne met pas immédiatement fin à son influence. Au contraire, ses disciples poursuivent l’expansion de son système et veillent à sa canonisation.

Mais en 1950, contre toute attente, Staline lui-même publie un article intitulé « Marxisme et questions de linguistique », dans lequel il critique ouvertement la théorie de Nicolas Marr. Il rejette l’idée que la langue serait déterminée par les classes sociales, réhabilite la linguistique comparée, et appelle à un retour à une approche plus empirique, voire classique.

Ce geste n’est pas anodin : Staline ne se contente pas de désavouer une théorie. Il démontre que, dans une dictature, l’autorité scientifique est subordonnée à la volonté politique suprême, et qu’elle peut être révoquée à tout moment. Les institutions obtempèrent : les disciples de Nicolas Marr sont discrédités, les manuels sont réécrits, et la théorie des quatre éléments disparaît du paysage scientifique.

Ce retournement brutal s’inscrit dans un contexte plus large de redéfinition des priorités idéologiques du régime. À la fin des années 1940, l’URSS amorce un resserrement doctrinal, marqué par la campagne contre le « cosmopolitisme » et le renforcement du nationalisme soviétique.

Dans ce climat, les constructions linguistiques trop spéculatives ou trop liées à l’internationalisme révolutionnaire deviennent suspectes. En dénonçant Nicolas Marr, Staline entend réaffirmer l’autonomie relative de certaines disciplines scientifiques, mais aussi reprendre la main sur un champ où l’orthodoxie avait été laissée aux mains d’un petit cercle de partisans zélés.

Ce n’est donc pas un retour à la science pour elle-même, mais une réaffirmation de l’autorité centrale dans l’arbitrage du vrai.

Héritage et leçons

Aujourd’hui, Nicolas Marr est largement oublié dans les manuels de linguistique. Son nom est parfois évoqué en histoire des sciences comme exemple extrême de science instrumentalisée, au même titre que Trofim Lyssenko en biologie. Ce dernier avait rejeté la génétique classique au nom du marxisme et imposé une théorie pseudoscientifique soutenue par le pouvoir soviétique.

Si ses premiers travaux sur les langues du Caucase semblent avoir été plus sérieux sur le plan philologique, ses grandes constructions théoriques sont aujourd’hui considérées comme infondées.

Mais l’histoire de Nicolas Marr mérite d’être relue. Elle rappelle que les sciences, surtout lorsqu’elles touchent au langage, à la culture et à l’identité, sont vulnérables aux pressions politiques.

Nicolas Marr n’est pas seulement un excentrique promu par accident ; il est le produit d’un moment historique où la vérité scientifique pouvait être décidée au sommet du Parti. Loin de n’être qu’un épisode marginal, l’histoire de Nicolas Marr éclaire un dilemme toujours actuel : celui de la vérité scientifique confrontée à des intérêts politiques, économiques ou idéologiques. Ce n’est pas tant le passé qui importe ici, mais ce qu’il permet encore de voir du présent.

The Conversation

Thierry Poibeau est membre de l’Institut Prairie-PSAI (Paris AI Research Institute – Paris School of Artificial Intelligence) et a reçu des financements à ce titre.

ref. L’étonnante histoire du linguiste Nicolas Marr en URSS, ou quand la science est instrumentalisée à des fins idéologiques – https://theconversation.com/letonnante-histoire-du-linguiste-nicolas-marr-en-urss-ou-quand-la-science-est-instrumentalisee-a-des-fins-ideologiques-262088

Les militants africains qui ont contesté l’esclavage à Lagos et en Côte-de-l’Or pendant l’époque coloniale

Source: The Conversation – in French – By Michael E. Odijie, Associate Professor, University of Oxford

Lorsque des historiens et le public pensent à la fin de l’esclavage domestique en Afrique de l’Ouest, ils imaginent souvent des gouverneurs coloniaux promulguant des décrets et des missionnaires œuvrant pour mettre fin au trafic local d’esclaves.

Deux de mes publications récentes racontent une autre histoire. Je suis historien spécialiste de l’Afrique de l’Ouest et, au cours des cinq dernières années, j’ai mené des recherches sur les idées et les réseaux anti-esclavagistes dans la région dans le cadre d’un projet de recherche plus large.

Mes recherches révèlent que les administrations coloniales ont continué à autoriser l’esclavage domestique dans la pratique et que des militants africains se sont battus contre cela.

Dans une étude, je me suis intéressé à Francis P. Fearon, un négociant basé à Accra, la capitale ghanéenne. Il a dénoncé le soutien à l’esclavage au sein du gouvernement colonial à travers de nombreuses lettres écrites dans les années 1890 (à l’époque où la colonie était connue sous le nom de Gold Coast – Côte de l’Or).

Dans une autre étude, j’ai examiné le Lagos Auxiliary, une groupe d’avocats, de journalistes et de membres du clergé au Nigeria. Leur campagne a permis l’abrogation en 1914 de la tristement célèbre Native House Rule Ordinance du Nigeria. Cette ordonnance avait été promulguée par le gouvernement colonial afin de maintenir l’esclavage local dans la région du delta du Niger.

Analysées ensemble, ces deux études montrent comment des militants locaux ont utilisé des lettres, la presse, les failles des empires coloniaux et leurs réseaux personnels pour s’opposer à des pratiques qui maintenaient des milliers d’Africains en esclavage.

Les méthodes mises au point par Fearon et le Lagos Auxiliary gardent toute leur actualité, car elles montrent comment des communautés marginalisées peuvent contraindre les détenteurs du pouvoir à se conformer à la loi. Elles nous rappellent que des témoignages locaux bien documentés, relayés sur le plan international, peuvent encore remettre en cause les discours officiels, imposer des changements politiques et obliger les institutions à rendre des comptes.

Une « abolition » coloniale qui n’en était pas une

L’Afrique de l’Ouest était une source importante d’esclaves pendant la traite transatlantique. La traite transatlantique a été abolie au début du XIXe siècle, mais cela n’a pas mis fin à l’esclavage domestique.

L’une des principales justifications de la colonisation en Afrique de l’Ouest était l’éradication de l’esclavage domestique.

En conséquence, lorsque la Côte-de-l’Or a été officiellement annexée en tant que colonie britannique en 1874, le gouvernement impérial a déclaré illégal le commerce des esclaves. Et la traite des esclaves a été criminalisée dans tout le sud du Nigeria en 1901. Sur le papier, ces mesures promettaient la liberté, mais dans la pratique, des failles ont permis aux propriétaires d’esclaves, aux chefs et aux fonctionnaires coloniaux de continuer à imposer le travail forcé.

Sur la Côte-de-l’Or, la loi d’abolition de 1874 n’a jamais été appliquée. Le gouverneur britannique a informé les propriétaires d’esclaves qu’ils pouvaient conserver leurs esclaves à condition que ceux-ci ne se plaignent pas. En 1890, l’esclavage des enfants était devenu très répandu dans des villes comme Accra. Selon les militants locaux, il était même toléré par le gouverneur colonial. Cela a conduit certains Africains à s’unir pour créer un réseau afin de s’y opposer.

La région du delta du Niger, au Nigeria, a connu une expérience similaire. L’administration coloniale a promulgué la Native House Rule Ordinance (ordonnance sur les règles domestiques) pour contrer les effets de la proclamation sur la traite des esclaves de 1901 qui criminalisait la traite des esclaves et punissait les contrevenants d’une peine de sept ans d’emprisonnement. Cette ordonnance obligeait chaque Africain à appartenir à une “maison” dirigée par un chef. Elle criminalisait également toute personne qui tentait de quitter sa « maison ».

Dans les royaumes du delta du Niger, comme Bonny, Kalabari ou Okrika, le mot “maison” ne désignait pas un simple foyer. Il s’agissait d’un grand groupe familial, comprenant des parents, des dépendants et des esclaves, dirigé par un chef et propriétaire de biens. À partir des années 1900, ces “maisons” devinrent les principales structures d’organisation de l’esclavage.

L’ordonnance obligeait donc les esclaves à rester avec leurs maîtres. Ces derniers pouvaient faire appel à l’autorité coloniale pour les punir. Les commissaires de district exécutaient les mandats d’arrêt contre les fugitifs. En échange, les chefs de maison et les chefs locaux fournissaient à l’administration coloniale une main-d’œuvre non rémunérée pour les travaux publics.

Des militants africains à Accra et à Lagos se sont organisés pour contester ce qu’ils percevaient comme le soutien de l’État colonial britannique à l’esclavage.

Fearon : un abolitionniste clandestin à Accra

Francis Fearon était un Africain instruit, actif à Accra pendant la seconde moitié du XIXe siècle. Il était très cultivé et faisait partie des cercles élitistes. Il était étroitement lié au journaliste Edmund Bannerman. Il écrivait régulièrement dans les journaux locaux, exprimant souvent ses préoccupations concernant le racisme à l’égard des Noirs et la dégradation des mœurs.

Le 24 juin 1890, Fearon envoya une lettre de 63 pages, accompagnée de dix annexes, à la Aborigines’ Protection Society à Londres. Ce dossier servira de base à plusieurs autres communications. Il y affirmait que le trafic d’enfants se poursuivait.

En guise de preuve, il a transcrit le registre confidentiel du tribunal d’Accra et a affirmé que le gouverneur W. B. Griffith avait ordonné aux propriétaires d’esclaves condamnés de récupérer leur « propriété ».

La tactique de Fearon était audacieuse. Il resta anonyme, s’appuya sur des greffiers pour obtenir des documents et fournit des preuves à la Société pour la protection des aborigènes. Il supplia cette dernière d’enquêter sur l’administration coloniale en Côte-de-l’Or.

Bien que la Société ait rendu public le scandale, les récits ultérieurs effacèrent discrètement la source africaine.

Les élites de Lagos s’organisent et nomment le problème

À l’instar de Fearon, des militants nigérians ont également écrit à la Société pour la protection des esclaves et des aborigènes. Ils dénoncèrent le gouvernement colonial nigérian pour sa complicité avec l’esclavage. Mais eux, choisirent de parler à visage découvert.

À cette époque, la Native House Rule Ordinance avait incité certains esclaves à fuir les districts où cette loi était appliquée. Ils se sont réfugiés à Lagos, où leur arrivée a permis aux élites locales de prendre connaissance de l’ordonnance. Elles ont alors lancé une campagne acharnée contre l’État colonial.

Parmi les principales figures de ce mouvement figuraient Christopher Sapara Williams, avocat, et James Bright Davies, rédacteur en chef du Nigerian Times. Parmi les autres personnalités, il y avait le politicien Herbert Macaulay, Herbert Pearse, un éminent commerçant, l’évêque James Johnson et le révérend Mojola Agbebi. Contrairement à la stratégie solitaire de Fearon, ils ont mené une offensive coordonnée contre l’administration coloniale. Ils ont rédigé des pétitions, informé les organisations européennes sympathisantes et inondé les journaux locaux de commentaires.

Leurs arguments mêlaient indignation humanitaire et solides connaissances du droit constitutionnel. Ils affirmaient que l’ordonnance était contraire aux idéaux libéraux britanniques et aux coutumes africaines.

Après des années de pression, la loi a été modifiée, puis discrètement abrogée en 1914.

Pourquoi ces histoires sont-elles importantes aujourd’hui ?

Les études contemporaines sur l’abolition de l’esclavage s’éloignent progressivement de la question « qu’a fait la Grande-Bretagne pour l’Afrique ? » pour s’intéresser au rôle joué par les Africains dans l’abolition de l’esclavage.

De nombreux abolitionnistes africains qui ont combattu et perdu la vie dans la lutte contre l’esclavage ont longtemps été ignorés. Cela commence à changer.

Les deux articles présentés ici mettent en lumière l’ingéniosité des Africains qui, des décennies avant l’apparition de la radio ou des ONG de défense des droits civiques, ont su utiliser les circuits d’information transatlantiques. Ils ont dénoncé les gouvernements coloniaux qui continuaient à s’appuyer sur des économies fondées sur le travail forcé longtemps après la fin officielle de l’esclavage.

Ils nous rappellent que la documentation locale peut remettre en cause les récits officiels. Le plaidoyer fondé sur des faits, la création de coalitions et l’utilisation stratégique des médias internationaux restent des instruments puissants.

The Conversation

Les recherches menées pour ces articles ont été financées par le Conseil européen de la recherche dans le cadre du programme de recherche et d’innovation Horizon 2020 de l’Union européenne (convention de subvention n° 885418).

ref. Les militants africains qui ont contesté l’esclavage à Lagos et en Côte-de-l’Or pendant l’époque coloniale – https://theconversation.com/les-militants-africains-qui-ont-conteste-lesclavage-a-lagos-et-en-cote-de-lor-pendant-lepoque-coloniale-262636

À la découverte du pika « chou », un animal étonnant menacé par le changement climatique

Source: The Conversation – in French – By Violaine Nicolas Colin, Maitre de conférence en systématique et phylogéographie, Muséum national d’histoire naturelle (MNHN)

Les pikas, avec leurs petites oreilles rondes et leur cri perçant, sont devenus des stars des réseaux sociaux. Malgré leur nom, ils n’ont pas inspiré l’emblématique Pokémon Pikachu. Mais ces lagomorphes, plus proches des lapins que des rats, dont le mode de vie est plein de surprises, sont aujourd’hui menacés par le changement climatique et par les activités humaines.


Avec leur petite bouille craquante, leurs oreilles rondes façon peluche et leur cri aigu à faire sursauter un caillou, les pikas ont conquis les réseaux sociaux

Les vidéos virales sont légion : on les admire perchés sur un rocher, joues pleines d’herbes voire de fleurs ou encore poussant leur fameux cri évoquant un « piiiik ! ».

Extrait d’un documentaire de la chaîne britannique BBC sur le pika.

Mais derrière cette adorable façade se cache un animal étonnant, au mode de vie bien plus complexe qu’il n’y paraît. Surtout, son habitat est aujourd’hui menacé par les activités humaines.

Non, les pikas n’ont pas inspiré Pikachu

Commençons par tordre le cou à un mythe tenace : malgré leur nom qui pourrait prêter à confusion, les pikas n’ont rien à voir avec Pikachu, la mascotte électrique de Pokémon.

Contrairement à ce qu’on pourrait penser, le Pokémon Pikachu n’a pas été inspiré par les pikas.
Sadie Hernandez, CC BY-SA

Le créateur de la saga, Satoshi Tajiri, a expliqué dans une interview que le nom vient d’onomatopées japonaises : pikapika (« étincelle ») et chu (le cri de la souris). Pikachu est donc censé être une souris… et non un pika. D’ailleurs, avec leurs oreilles arrondies et leur queue invisible, les vrais pikas ne lui ressemblent pas du tout !

Contrairement à ce que leur apparence pourrait laisser penser, les pikas ne sont d’ailleurs pas des rongeurs : ce sont des lagomorphes, comme les lapins et les lièvres. Leur dentition le prouve : deux paires d’incisives à la mâchoire supérieure (contre une seule chez les rongeurs), et une paire en bas. Ce détail anatomique les classe dans un autre groupe bien distinct.

Les pikas font partie de la famille des Ochotonidae. Petits (moins de 30 cm), dotés de courtes oreilles rondes (moins de 4 cm), d’une queue cachée et d’un crâne sans « processus supraorbital » (c’est ainsi que l’on nomme un relief osseux), ils diffèrent des léporidés (lapins et lièvres), leurs cousins aux grandes oreilles et aux queues visibles.

Leur famille ne compte plus qu’un seul genre vivant : Ochotona, composé de 34 espèces. Il n’existe donc pas une seule, mais plusieurs espèces de pikas !

Il existe plus de 30 espèces de pikas différentes (ici, pika américain).
US Geological Survey

Ce nombre continue d’évoluer grâce aux recherches récentes qui continuent d’identifier de nouvelles espèces, et en particulier grâce aux études basées sur l’ADN.

L’ancêtre commun des pikas actuel daterait du Miocène (il y a environ 23 millions d’années). Les pikas sont originaires du plateau tibétain-Qinghai et se sont ensuite dispersés et diversifiés dans d’autres régions de l’Eurasie et de l’Amérique du Nord.

Des « lièvres criards » à l’habitat diversifié

Les pikas vivent en Asie (32 espèces), et en Amérique du Nord (2 espèces, dont le pika à collier et le pika américain). Selon leur espèce, ils occupent deux types d’habitats : les milieux rocheux et montagneux, ou bien les prairies et les steppes.

Spécimen de pika à collier (Ochotona collaris).
Animalia, CC BY-SA

Les premiers utilisent les éboulis comme refuge, tandis que les seconds creusent des terriers où ils stockent des plantes pour l’hiver. Car, non, les pikas n’hibernent pas : ils passent la mauvaise saison à l’abri, sur leurs réserves.

Ce qui explique que l’on voit autant de vidéos de pika transportant des plantes dans la gueule vers leur abri ! Les pikas des prairies et des steppes ont tendance à se reproduire plus souvent et à avoir des portées plus nombreuses, mais vivent généralement moins longtemps que ceux habitant les milieux rocheux ou montagneux.

Un trait bien connu chez les pikas est leur propension à vocaliser. Leur sifflement strident, qui leur vaut les surnoms de « lièvres siffleurs » ou « lièvres criards », sert à avertir leurs congénères d’un danger ou à défendre leur territoire. Dans les paysages de montagnes, leur cri retentit comme un signal d’alerte minuscule, mais efficace.

Un régime alimentaire… un peu spécial

Les pikas sont principalement herbivores… avec une particularité. Comme leurs cousins les lapins, ils pratiquent la cæcotrophie : ils mangent une partie de leurs excréments (les cæcotrophes) pour mieux digérer les fibres et récupérer certains nutriments produits par les bactéries de leur intestin.

Autrement dit : un repas en deux services ! Mais ils vont parfois plus loin : certaines espèces, comme le pika à lèvres noires, peuvent même manger les crottes… d’autres animaux !

Sur le plateau tibétain, où les températures descendent jusqu’à -30 °C, cette espèce ralentit son métabolisme l’hiver et complète son alimentation en consommant… des crottes de yak.




À lire aussi :
Rose : « Pourquoi le lapin mange-t-il ses crottes ? »


Des boules de poil en danger d’extinction

Malheureusement, tout n’est pas rose pour ces petites boules de poils. Quatre espèces sont déjà officiellement considérées comme en danger d’extinction par l’Union internationale pour la conservation de la nature (UICN)  : Ochotona argentata, O. koslowi, O. hoffmanni et O. iliensis.

Le pika de Koslov (O. koslowi), en danger d’extinction, est une espèce endémique en Chine.
Planche zoologique de 1890

En cause, la destruction des habitats par la déforestation, par le surpâturage, ou par les effets du changement climatique. En raison de leurs capacités de dispersion limitée et de leur habitat fragmenté, il leur est difficile de se déplacer pour trouver un habitat plus favorable.

L’avenir de beaucoup d’autres espèces de pikas n’a encore fait l’objet d’aucune évaluation, car les données disponibles sur leurs populations et leur écologie sont insuffisantes.

Poussés vers les sommets, mais pas toujours capables d’y survivre

Reste que beaucoup d’espèces de pikas sont biologiquement adaptées à des environnements hivernaux froids. Avec le réchauffement climatique, ils pourront soit remonter vers le nord (ce qui leur est souvent difficile dans des environnements de plus en plus fragmentés), soit s’établir à des altitudes plus élevées… ce qui risque de leur poser problème en raison du manque d’oxygène.

Des chercheurs ont ainsi comparé dix espèces de pikas dont l’habitat se situe entre le niveau de la mer et plus de 5 000 mètres d’altitude.

Ils se sont intéressés à trois gènes présents dans les mitochondries – les minuscules « centrales énergétiques » que l’on trouve à l’intérieur de chaque cellule. Ces gènes permettent à l’organisme d’utiliser l’oxygène pour produire l’énergie dont il a besoin. Chez les pikas de haute altitude, les protéines produites par ces gènes sont particulièrement efficaces : elles permettent de tirer un maximum d’énergie de l’air raréfié en oxygène. Mais chez les pikas vivant plus bas, ces protéines fonctionnent différemment : elles produisent plus de chaleur, ce qui est utile pour rester au chaud, mais elles sont moins bonnes pour générer de l’énergie cellulaire.

Résultat : si ces pikas des basses terres sont contraints de grimper pour échapper au réchauffement climatique, ils risquent de ne pas survivre là-haut. Leur corps n’est tout simplement pas fait pour fonctionner avec si peu d’oxygène.

La disparition des pikas ne serait pas anodine. Dans des écosystèmes comme le plateau tibétain, où ces animaux sont trop souvent tués à cause de la croyance erronée selon laquelle ils dégraderaient les cultures, ces animaux jouent un rôle important dans la chaîne alimentaire et le fonctionnement global des milieux naturels. Leur déclin pourrait entraîner des déséquilibres majeurs.

The Conversation

Violaine Nicolas Colin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. À la découverte du pika « chou », un animal étonnant menacé par le changement climatique – https://theconversation.com/a-la-decouverte-du-pika-chou-un-animal-etonnant-menace-par-le-changement-climatique-262378

Il y a 200 ans, la France extorquait une « indemnité » à Haïti, dans l’un des plus grands braquages de l’histoire – et les Haïtiens veulent des réparations

Source: The Conversation – in French – By Marlene L. Daut, Professor of French and African American Studies, Yale University

Gravure de propagande française, datant de 1825, montrant le roi Charles X (1824-1830) « accordant la liberté » au peuple haïtien personnifié par un homme mis à genoux. ‘S.M. Charles X, le bien-aimé, reconnaissant l’indépendance de St. Domingue,’ 1825, Bibliothèque Nationale de France, Cabinet des Estampes, CC BY-SA

En 1825, la France a extorqué à Haïti une « indemnité » colossale en échange de la reconnaissance de son indépendance. Deux siècles plus tard, les demandes de compensations restent lettre morte.


En 2002, l’ancien président haïtien Jean-Bertrand Aristide a estimé que la France devait verser 21 milliards de dollars à son pays. La raison ? En 1825, la France a extorqué à la jeune nation une énorme « indemnité », en échange de la reconnaissance de son indépendance.

Le 17 avril 2025 a marqué le 200e anniversaire de cet accord d’indemnisation. Le 1er janvier de cette année, le désormais ancien président du Conseil présidentiel de transition d’Haïti Leslie Voltaire a réitéré cet appel à la France en lui demandant de « rembourser la dette de l’indépendance et d’effectuer des réparations pour l’esclavage ». En mars 2025, la star du tennis Naomi Osaka, d’origine haïtienne, a ajouté sa voix au chœur dans un tweet s’interrogeant sur le moment où la France rembourserait Haïti.

En tant que spécialiste de l’histoire et de la culture haïtiennes du XIXᵉ siècle, j’ai consacré une part importante de mes recherches à explorer le cas juridique particulièrement solide d’Haïti en matière de restitution vis-à-vis de la France.

L’histoire commence avec la Révolution haïtienne. La France a instauré l’esclavage dans la colonie de Saint-Domingue, dans le tiers occidental de l’île d’Hispaniola – l’actuelle Haïti – au XVIIe siècle. À la fin du XVIIIe siècle, la population réduite en esclavage s’est rebellée et a fini par proclamer l’indépendance. Au XIXe siècle, les Français ont exigé une compensation pour les anciens esclavagistes du peuple haïtien, et non l’inverse.

Tout comme l’héritage de l’esclavage aux États-Unis a créé une profonde disparité économique entre Noirs et Blancs, l’impôt sur sa liberté que la France a contraint Haïti à payer – désigné à l’époque comme une « indemnité » – a gravement compromis la capacité du pays nouvellement indépendant à prospérer.

Le coût de l’indépendance

Haïti a officiellement proclamé son indépendance de la France le 1er janvier 1804. En octobre 1806, à la suite de l’assassinat du premier chef d’État haïtien, le pays a été scindé en deux, avec Alexandre Pétion au pouvoir dans le sud et Henry Christophe dans le nord.

Bien que les deux dirigeants haïtiens soient des vétérans de la révolution haïtienne, les Français n’avaient jamais totalement renoncé à reconquérir leur ancienne colonie.

En 1814, Louis XVIII, qui devient roi après la chute de Napoléon plus tôt cette année-là, a envoyé trois commissaires en Haïti pour évaluer la volonté des dirigeants du pays de se rendre. Christophe, couronné roi en 1811, est resté inflexible face au plan dévoilé de la France visant à rétablir l’esclavage. Menace de guerre à l’appui, le membre le plus influent du cabinet de Christophe, le baron de Vastey, affirmait :

« Notre indépendance sera garantie par la pointe de nos baïonnettes ! »

À l’inverse, Pétion, le dirigeant du Sud d’Haïti, était disposé à négocier, espérant que le pays pourrait peut-être payer la France pour obtenir la reconnaissance de son indépendance.

En 1803, Napoléon avait vendu la Louisiane aux États-Unis pour 15 millions de dollars. Se servant de ce montant comme référence, Pétion proposa de payer la même somme. Refusant tout compromis avec ceux qu’il considérait comme des « esclaves marrons », Louis XVIII rejeta l’offre.

Pétion mourut subitement en 1818, mais Jean-Pierre Boyer, son successeur, poursuivit les négociations. Celles-ci continuèrent néanmoins de piétiner en raison de l’opposition tenace de Christophe. « Toute indemnisation des ex-colonistes », déclarait le gouvernement de Christophe, était « inadmissible ».

À la mort de Christophe en octobre 1820, Boyer réunifia les deux parties du pays. Toutefois, même sans l’obstacle que représentait Christophe, Boyer échoua à plusieurs reprises à négocier avec succès la reconnaissance de l’indépendance d’Haïti par la France. Déterminé à obtenir au moins une suzeraineté sur l’île – ce qui aurait fait d’Haïti un protectorat français –, Louis XVIII repoussa les deux commissaires envoyés par Boyer à Paris en 1824 pour tenter de négocier une indemnité en échange d’une reconnaissance.

Le 17 avril 1825, Charles X, frère de Louis XVIII et nouveau roi de France, fit soudain volte-face. Il émit un décret stipulant que la France reconnaîtrait l’indépendance haïtienne, mais uniquement contre la somme de 150 millions de francs – soit près du double des 80 millions de francs que les États-Unis avaient payés pour le territoire de la Louisiane.

Le baron de Mackau, que Charles X envoya pour transmettre l’ordonnance, arriva en Haïti en juillet, accompagné d’une escadre de 14 bricks de guerre transportant plus de 500 canons. Ses instructions précisaient que sa mission « n’était pas une négociation ». Ce n’était pas non plus de la diplomatie. C’était de l’extorsion.

Sous la menace d’une guerre violente et d’un blocus économique imminent, le 11 juillet 1825, Boyer signa le document fatal, qui déclarait :

« Les habitants actuels de la partie française de Saint-Domingue paieront […] en cinq versements égaux […] la somme de 150 000 000 de francs, destinée à indemniser les anciens colons. »

Une prospérité française fondée sur la pauvreté haïtienne

Des articles de journaux de l’époque montrent que le roi de France savait pertinemment que le gouvernement haïtien était à peine en mesure de réaliser ces paiements, la somme représentant près de six fois les recettes annuelles totales d’Haïti. Le reste du monde semblait d’accord sur le caractère absurde de l’accord. Un journaliste britannique nota que le « prix énorme » représentait une « somme que peu d’États en Europe pourraient supporter de sacrifier ».

Contraint d’emprunter 30 millions de francs à des banques françaises pour effectuer les deux premiers versements, il n’est guère surprenant qu’Haïti ait rapidement fait défaut. Pourtant, Louis-Philippe envoya une nouvelle expédition en 1838 avec 12 navires de guerre pour forcer la main du président haïtien. La révision de 1838, qualifiée à tort de « traité d’amitié », réduisit le montant restant à 60 millions de francs, mais le gouvernement haïtien fut de nouveau sommé de contracter des emprunts écrasants pour régler le solde.

Ce sont les Haïtiens qui ont payé le plus lourd tribut à ce vol par la France. Boyer imposa des taxes draconiennes pour rembourser les prêts. Et tandis que Christophe développait un système scolaire national durant son règne, sous Boyer et sous tous les présidents suivants, de tels projets durent être suspendus.

De plus, des chercheurs ont montré que la dette de l’indépendance et son impact sur le Trésor public haïtien sont directement responsables non seulement du sous-financement de l’éducation au XXe siècle, mais aussi du manque de soins de santé et de l’incapacité du pays à développer ses infrastructures publiques.

Une enquête menée en 2022 par le New York Times a en outre révélé que les Haïtiens avaient fini par verser plus de 112 millions de francs au cours de sept décennies, soit 560 millions de dollars en valeur actualisée (525 millions d’euros). (Un coût estimé en perte de croissance économique de 21 à 115 milliards de dollars (de 20 à 108 milliards d’euros) par le New York Times, ndlr).

Conscient de la gravité de ce scandale, l’économiste français Thomas Piketty a estimé que la France devrait restituer au moins 30 milliards d’euros à Haïti.

Une dette à la fois morale et matérielle

Les anciens présidents français, de Jacques Chirac à François Hollande en passant par Nicolas Sarkozy, entretiennent un historique de punitions, d’esquives ou de minimisations face aux demandes haïtiennes de réparation.

En mai 2015, lorsque François Hollande devint seulement le deuxième chef d’État français à visiter Haïti, il reconnut que son pays devait « solder la dette ». Plus tard, réalisant qu’il venait sans le vouloir d’alimenter les arguments juridiques déjà préparés par l’avocat Ira Kurzban au nom du peuple haïtien, le président français précisa qu’il entendait par là une dette uniquement « morale ».

Nier que les conséquences de l’esclavage aient également été matérielles, c’est nier l’histoire même de la France. Celle-ci a aboli tardivement l’esclavage, en 1848, dans ses dernières colonies de la Martinique, la Guadeloupe, La Réunion et la Guyane française, qui sont encore aujourd’hui des territoires français. Par la suite, le gouvernement français a une nouvelle fois démontré qu’il comprenait bien le lien entre esclavage et économie en indemnisant financièrement les anciens propriétaires d’esclaves.

Conséquences du travail volé

L’écart de richesse raciale qui en résulte n’a rien d’une métaphore.

En France hexagonale, 14,1 % de la population vit sous le seuil de pauvreté. En Martinique et en Guadeloupe, en revanche, où plus de 80 % de la population est d’ascendance africaine, les taux de pauvreté sont respectivement de 38 % et 46 %. Le taux de pauvreté en Haïti est encore plus alarmant : 59 %.

Tandis que le produit intérieur brut par habitant – le meilleur indicateur du niveau de vie d’un pays – est de 44 690 dollars en France, il n’est que de 1 693 dollars en Haïti. Ces écarts peuvent être considérés comme les conséquences concrètes du travail volé de générations d’Africains et de leurs descendants.

Ces dernières années, des universitaires français ont commencé à s’investir de plus en plus dans le débat sur les préjudices de long terme que l’indemnité a causés à Haïti. Pourtant, ce qui revient en pratique à une absence de commentaire a longtemps été la seule réponse du gouvernement actuel de la France sous la présidence d’Emmanuel Macron.

Le 17 avril 2025, jour du bicentenaire de l’ordonnance d’indemnité, Macron a enfin brisé le silence. Dans un communiqué officiel, il a reconnu la « lourde indemnité financière » imposée par la France à Haïti et a annoncé « une commission mixte franco-haïtienne chargée d’examiner notre passé commun et d’en éclairer toutes les dimensions ». Mais il n’a pas abordé la question des réparations.

De nombreux Haïtiens, légitimement, ne s’en sont pas satisfaits : selon eux, la seule initiative de la France qui aurait véritablement de l’importance serait une proposition concrète de compensation économique pour le peuple haïtien.


Ceci est une version actualisée d’un article publié initialement, le 30 juin 2020.

The Conversation

Marlene L. Daut ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Il y a 200 ans, la France extorquait une « indemnité » à Haïti, dans l’un des plus grands braquages de l’histoire – et les Haïtiens veulent des réparations – https://theconversation.com/il-y-a-200-ans-la-france-extorquait-une-indemnite-a-ha-ti-dans-lun-des-plus-grands-braquages-de-lhistoire-et-les-ha-tiens-veulent-des-reparations-260650

Robots au conseil ? L’IA bouscule la gouvernance d’entreprise

Source: The Conversation – in French – By Julien Le Maux, Professeur titulaire, département de sciences comptables, HEC Montréal

Et si demain, un robot siégeait à la table des administrateurs ? Ce n’est plus un scénario de science-fiction. Si la question peut sembler surprenante, elle est déjà prise très au sérieux par certaines entreprises.

En 2014, la société Deep Knowledge Ventures a nommé un algorithme à son conseil d’administration. Plus récemment, la firme Realbotix a annoncé la nomination d’Aria, un robot doté d’intelligence artificielle (IA), comme conseillère stratégique.

L’intelligence artificielle s’invite progressivement dans les coulisses du pouvoir organisationnel. Son arrivée dans les conseils d’administration ouvre une ère nouvelle pour la gouvernance d’entreprise. Mais cette révolution soulève aussi de nombreuses questions éthiques, juridiques et stratégiques.

Directeur académique des certifications en ESG et en gouvernance d’entreprise à HEC Montréal, je mène des recherches sur la qualité de la gouvernance dans les organisations publiques et privées. Les travaux de ma co-auteure, Nadia Smaili, professeure à l’ESG UQAM, portent sur la gouvernance, la lutte contre la fraude et le lancement d’alerte éthique.

L’IA, nouvel outil de gouvernance

Les conseils d’administration sont confrontés à des volumes de données toujours plus importants et à des environnements d’incertitude grandissants. Dans ce contexte, l’IA apparaît comme un allié précieux. Elle permet de :

  • Analyser de grands volumes de données en temps réel ;

  • Identifier des signaux faibles (tendances, anomalies, risques émergents) ;

  • Améliorer la qualité des décisions stratégiques, notamment en réduisant les biais cognitifs ;

  • Optimiser la détection de fraudes ou de conflits d’intérêts.

Certaines entreprises utilisent déjà des outils d’IA pour appuyer les décisions de leurs conseils. L’IA y joue un rôle de vigie, de soutien analytique, voire de catalyseur dans les processus de décision.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Peut-on confier un mandat d’administrateur à une IA ?

C’est ici que les choses deviennent difficiles. Sur le plan juridique, dans la plupart des pays, un administrateur doit être une personne physique. Au Canada, la Loi canadienne sur les sociétés par actions est claire : un administrateur est une personne, avec des responsabilités fiduciaires bien définies.

Or, une IA ne peut être tenue responsable. Elle ne peut pas faire preuve de loyauté, de prudence ou de diligence au sens juridique. Elle ne peut pas non plus être poursuivie en cas de faute ni prendre en compte les dimensions éthiques ou sociales d’une décision. Bref, le droit n’est pas prêt pour des robots administrateurs.

L’illusion d’une gouvernance objective ?

L’un des arguments souvent avancés en faveur de l’IA est sa supposée objectivité. Contrairement aux humains, elle ne serait pas influencée par ses émotions, ses intérêts personnels ou ses relations. En théorie, cela permettrait de réduire les biais comportementaux qui affectent parfois les décisions des conseils.

Mais cela reste une illusion, car une IA est formée à partir de données humaines, souvent biaisées. Elle peut donc reproduire, voire amplifier, des discriminations existantes. Et contrairement à un administrateur humain, elle ne peut pas faire preuve de jugement dans des situations ambiguës ou éthiquement sensibles.

Gouvernance augmentée ou gouvernance automatisée ?

Faut-il dès lors rejeter l’IA ? Non. Mais il faut bien distinguer deux usages :

  • L’IA comme outil d’aide à la décision, au service des administrateurs humains (gouvernance augmentée) ;

  • L’IA comme substitut aux administrateurs (gouvernance automatisée).

La première option est réaliste et déjà utilisée. La seconde est encore largement théorique — et probablement risquée.

Comment les humains perçoivent-ils l’IA au conseil ?

Un autre enjeu réside dans l’acceptabilité sociale et psychologique de ces outils. Des recherches récentes montrent que les administrateurs humains restent souvent méfiants envers les recommandations issues d’un algorithme. L’effet « boîte noire » — l’opacité des décisions de l’IA — nuit à la confiance.

Certaines entreprises font face à un paradoxe : elles investissent dans des outils d’IA avancés… mais leurs dirigeants n’en tiennent pas compte dans leurs décisions. À l’inverse, d’autres conseils en viennent à s’en remettre trop aveuglément à la machine.

Le véritable défi est donc l’équilibre entre collaboration et esprit critique.

Vers une gouvernance hybride et responsable

L’IA transforme progressivement le paysage de la gouvernance. Mais cette transformation ne doit pas se faire au détriment des principes fondamentaux de responsabilité, de transparence et de délibération collectives.

La bonne approche n’est ni de rejeter l’IA, ni de l’ériger en oracle. Elle consiste à construire des conseils d’administration hybrides, où les compétences humaines et les capacités technologiques se complètent. Cela suppose aussi de :

  • Former les administrateurs aux enjeux de l’IA ;

  • Mettre en place des comités d’éthique algorithmique ;

  • Adopter des règles de transparence et d’audit des systèmes utilisés ;

  • Et veiller à ce que l’humain reste maître de la décision finale.

Un tournant irréversible

L’IA dans les conseils d’administration n’est plus une idée futuriste. Elle est déjà là, sous différentes formes, et continuera à s’imposer. La question n’est pas de savoir si elle doit être utilisée, mais comment, par qui, et dans quelles limites.

Il est temps de repenser la gouvernance à l’ère algorithmique — sans tomber dans l’aveuglement technologique, mais sans se réfugier non plus dans un conservatisme paralysant. Car une chose est sûre : le futur de la gouvernance ne se fera pas sans l’IA… mais il ne se fera pas sans humains non plus.

La Conversation Canada

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Robots au conseil ? L’IA bouscule la gouvernance d’entreprise – https://theconversation.com/robots-au-conseil-lia-bouscule-la-gouvernance-dentreprise-257770

Lors des canicules, notre cerveau ne s’aligne pas toujours avec le thermomètre et peut nous mettre en danger

Source: The Conversation – in French – By Elisabeth Bourgeois, Économiste, centrée sur les enjeux de climat, d’énergie et de vulnérabilités sociales, Université Savoie Mont Blanc

Pourquoi avons-nous tant de mal à nous adapter au changement climatique ? Quand l’asphalte chauffe, le thermomètre ne suffit pas à guider notre action : c’est notre manière de lire ses chiffres qui va décider de nos gestes. Perceptions, émotions et normes sociales forment un récit qui guide nos comportements – et qui façonne nos vulnérabilités face aux chaleurs extrêmes.


Il est 13 heures pile à l’école Joliot‑Curie dans une ville du Val‑de‑Marne. Un élève braque un thermomètre infrarouge sur la dalle : 52 °C. Trois pas plus loin, sous le paillis d’un jeune tilleul planté dans le cadre du programme européen OASIS – présenté comme étude de cas sur le portail Climate‑ADAPT de l’Agence européenne de l’environnement – le thermomètre tombe à 38 °C. Les enfants, médusés, rebaptisent la zone « four » et déplacent leur ballon vers l’ombre : en quelques secondes, la température devient un récit collectif qui reprogramme des gestes.

Pour réussir l’adaptation au changement climatique, à l’image de ces écoliers, nous devons voir les vagues de chaleur comme un récit partagé, avec des actions modulables. À cet égard, on dispose déjà d’une décennie de recherche internationale – et de l’expérience de quelques villes qui ont déjà mis ces travaux au service de la fraîcheur.

Les personnes en bonne santé plus susceptibles d’ignorer les risques de la chaleur

Au printemps 2025, nous avons publié une enquête, avec deux collègues économistes de l’énergie, dans la revue scientifique Climate Policy. Trois cents Français de plus de 55 ans, issus de 13 régions, étaient appelés à réagir à deux scénarios : l’un de cinq jours annoncés à 33 °C et, le deuxième, de cinq jours à 36 °C.

Ils devaient cocher, parmi une liste de cinq gestes protecteurs (boire plus d’eau, adapter sa tenue vestimentaire, prendre des mesures pour réguler au mieux la température de son logement, solliciter une aide extérieure et chercher un lieu frais), ceux qu’ils prévoyaient de réaliser.

Leurs réponses nous ont permis d’évaluer leurs croyances dans la probabilité d’une canicule et sa gravité pour leur santé, ainsi que la nature de leurs émotions face à ces scénarios.

De fait, les participants se disant « en pleine forme » passaient en moyenne de 3,6 gestes envisagés à 33 °C à 1,8 geste à 36 °C : près de deux fois moins. Ceux qui se déclaraient « un peu inquiets » suivaient le mouvement inverse : de 2,9 gestes à 4,4 (+ 52 %).

Certes, l’exercice reste déclaratif : il mesure l’intention et pas l’action. Mais des synthèses de psychologie sociale montrent qu’environ 40 % des comportements observés s’éclairent par les intentions déclarées. Dit autrement : quand l’intention augmente, le comportement suit souvent – pas toujours, mais suffisamment pour orienter à bon escient l’action publique.

Il suffit de trois degrés de plus pour que la vigilance change de camp et que la lecture de la situation change du tout au tout. Ces résultats prolongent ceux d’une méta‑analyse publiée dans Nature Climate Change. Notre perception du risque, notre sentiment d’efficacité et nos émotions expliquent près d’un tiers des conduites d’adaptation individuelles, davantage encore que l’âge ou la prise de médicaments comme des bêta-bloquants !

Le cerveau, pour le dire vite, règle le thermostat du corps. C’est notre « état intérieur » qui dicte pour beaucoup notre aptitude à nous adapter – et donc, notre vulnérabilité face aux chaleurs extrêmes.

Environnement, individu et comportement : un triptyque indissociable

Comme cela a été mis en évidence par une vaste revue de littérature publiée en 2019, les comportements face à la chaleur résultent toujours de la conjonction de trois types de facteur :

  • un facteur environnemental (géométrie urbaine, albédo – la capacité d’une surface à réfléchir la lumière –, circulation d’air…),

  • un facteur personnel (âge, santé, attentes, croyances…),

  • et, enfin, un facteur comportemental (type d’activité, normes sociales…).

Ces trois piliers sont indispensables pour prendre en compte la diversité des situations individuelles.

Les indicateurs utilisés pour évaluer le confort thermiques ne sont pertinents qu’en intérieur, et ne s’appliquent donc pas aux personnes actives en extérieur.
CC BY-NC-SA

Des indicateurs couramment utilisés pour évaluer le confort thermique, le Predicted Mean Vote (PMV) et le Physiologically Equivalent Temperature (PET) l’illustrent bien : le premier estime le « vote thermique moyen » d’un groupe assis dans un bureau climatisé et le second traduit l’état thermique équivalent pour un individu immobile.

Parfaits en intérieur, ces outils montrent leurs limites lorsqu’on les applique à un joggeur, à un ouvrier ou à des enfants dans une cour d’école. Autant dire que prédire la sensation d’un joggeur marseillais avec un modèle mis au point dans une chambre climatique danoise équivaudrait à calibrer un sous‑marin avec un altimètre.




À lire aussi :
Végétaliser les cours de récréation pour encourager la curiosité des enfants


Pourquoi et comment s’adapter au changement climatique

Les chiffres sont têtus et l’impact des vagues de chaleur difficile à ignorer. Par exemple :

L’adaptation n’a donc de sens que si l’on agit, en même temps, sur la façon dont les habitants lisent, ressentent et anticipent les degrés supplémentaires. Un espace vert ou un refuge climatisé ne suffisent pas : encore faut‑il que chacun sache où ils sont, quand ils ouvrent, ce qu’on y trouve et qu’on s’y sente légitime. C’est le rôle des récits collectifs.

Le retour d’expérience des villes pionnières montre que c’est possible :

Le parc de la citadelle, à Barcelone (Espagne), est un exemple de refuge climatique.
Barcelona for Climate

Mais les infrastructures ne suffisent pas. Elles rendent possible le geste (se déplacer, s’abriter, ralentir…), mais c’est d’abord le message ciblé qui fournira la clé cognitive pour le faire (« Je suis concerné », « Je sais quoi faire », « Je peux effectivement le faire »).

Adaptation et action publique : comment débusquer le biais d’invulnérabilité

Il est donc essentiel de tenir compte des éléments de psychologie et des biais de perception, mentionnés plus haut, pour améliorer l’adaptation climatique, et, en particulier, l’action publique dans ce domaine.

Réécrire les alertes est la première évidence. Ainsi, des messages d’ordre général comme « Buvez de l’eau » glisseront sur les profils les plus optimistes. Au contraire, un SMS nominatif rappelant, par exemple, qu’un traitement diurétique triple le risque de déshydratation va augmenter significativement l’adoption de gestes de protection et réduire le risque de stress thermique chez les personnes âgées.

En Finlande, par exemple, le service météorologique publie des avertissements relatifs aux températures et l’institut finnois pour la santé et le bien-être (THL) publie des guides spécifiques pour les crèches et écoles. La Ville d’Helsinki a d’ailleurs évalué l’adaptation au climat de ses écoles et de ses garderies.

Reste le cas des « invincibles volontaires » – ceux qui ont décidé qu’ils supporteront la chaleur. Là, l’outil le plus efficace n’est pas le gobelet d’eau mais l’autodiagnostic.

Un quiz de deux minutes, intégré à une appli de running par exemple, pourrait faire virer l’écran au rouge dès que l’humidex – indice combinant température et humidité – tutoie le seuil de danger. La liberté d’aller courir demeure, mais le sportif ne peut plus ignorer les risques.

Planter des arbres, enfin, est utile en ville pour limiter l’effet îlot de chaleur urbain (ICU), mais doit être fait avec discernement. Selon la Commission européenne, couvrir 30 % de la surface urbaine par le feuillage des arbres (canopée) permettrait d’éviter plus de 2 500 décès prématurés en Europe chaque été. Mais si un tilleul avenue Montaigne (Paris) va simplement flatter Instagram, le même tilleul à Clichy‑sous‑Bois (Seine-Saint-Denis) devient un acte de santé publique.

Ces enseignements ne suffiront probablement pas à dompter l’été 2050. Ils rappellent cependant que la chaleur meurtrière n’est pas qu’une donnée météorologique, mais avant tout un récit à réécrire sans cesse – avec des SMS, des cours, des QR codes sur les abribus et des arbres là où ils comptent.

Retour à Joliot‑Curie. Les élèves ont rangé le thermomètre et filent sous l’ombre maigre mais tangible du jeune tilleul. Le thermomètre ment rarement, mais nos certitudes, elles, peuvent tuer. Les tempérer – par un message bien tourné, un tilleul bien placé, un voisin bien informé – est tout aussi important que de faire tomber la température.

The Conversation

Elisabeth Bourgeois a reçu des financements de l’ANR (ANR‑18‑EURE‑0016 – Solar Academy) et de la Public Trust in Health Chair (Grenoble École de Management). Aucun autre intérêt déclaré.

ref. Lors des canicules, notre cerveau ne s’aligne pas toujours avec le thermomètre et peut nous mettre en danger – https://theconversation.com/lors-des-canicules-notre-cerveau-ne-saligne-pas-toujours-avec-le-thermometre-et-peut-nous-mettre-en-danger-261012

Canicule : soulignons, sans état d’âme, nos progrès d’adaptation depuis 2003

Source: The Conversation – in French – By François Lévêque, Professeur d’économie, Mines Paris – PSL

Depuis 2003, l’Europe a réalisé des progrès conséquents dans l’adaptation aux vagues de chaleur : en proportion, on meurt moins, même si les températures sont plus élevées. Et demain ?


La chaleur tue : on a recensé plusieurs centaines de décès à Paris ainsi que dans d’autres grandes capitales européennes lors de la canicule de mi-juin à début juillet 2025. Le nombre de morts aurait triplé par rapport à la normale du fait du changement climatique, selon une estimation réalisée par des chercheurs britanniques.

Ces chiffres font peur. Ils masquent cependant les grands progrès réalisés pour limiter notre vulnérabilité face à la multiplication des vagues de chaleur. La chaleur tue mais de moins en moins, grâce à nos actions individuelles et collectives d’adaptation. Il faut s’en féliciter, et non l’ignorer.

Les données d’observation de mortalité par les agences sanitaires n’étant pas encore disponibles, le calcul qui précède repose sur des modèles et des méthodes, connus des spécialistes. La plupart sont désormais suffisamment au point pour rendre compte en confiance de leurs résultats sur les progrès de l’adaptation.

La canicule de 2003, ou l’Année zéro

Commençons notre examen en prenant pour point de repère la canicule de 2003 en France. Cet été-là le pays a connu une véritable hécatombe : près de 15 000 décès en excès.

En contrecoup, les pouvoirs publics ont décidé toute une série d’actions préventives pour protéger la population des grandes chaleurs : mise en place d’un système d’alerte annonçant les canicules, campagnes d’information auprès du public sur les façons de se protéger, formation du personnel de santé, ouverture d’espaces climatisés dans les maisons de retraite et les services hospitaliers, etc.

Quelques années plus tard, une équipe regroupant des chercheurs de l’Inserm, de Météo France et de Santé publique France s’est demandé si ces mesures avaient bien été suivies d’effet. À partir d’un modèle reliant mortalité et températures observées en France sur vingt-cinq ans, ils ont estimé que la canicule de l’été 2006 s’était traduite par une baisse de plus de moitié du nombre de décès en excès.

Ce progrès ne peut pas, bien sûr, être imputé aux seules actions publiques. La canicule de 2003 a été à l’origine d’une prise de conscience généralisée des méfaits de la chaleur, de changement des comportements individuels et d’achat d’appareils de rafraîchissement, tels que ventilateurs et climatiseurs, mais aussi d’équipements plus innovants apparus plus tard sur le marché, comme les rafraîchisseurs d’air ou les pompes à chaleur réversibles.

Attention, le frigidaire distributeur de glaçons ne fait pas partie de cette panoplie ! En cas de fortes températures, il faut éviter de boire de l’eau glacée pour se rafraîchir. Elle ralentit la sudation, mécanisme fondamental de l’organisme pour lutter contre la chaleur.

Pourquoi il est délicat de comparer 2022 et 2003

L’été 2022 a constitué la seconde saison la plus chaude jamais enregistrée dans l’Hexagone. Le nombre de décès en excès a été toutefois cinq fois moindre que celui de 2003, mais on ne sait pas précisément quelle part de cette baisse est simplement due à des conditions caniculaires un peu moins défavorables.

La comparaison 2003/2022 est tout aussi délicate au niveau européen. On dispose bien, à cette échelle, de travaux d’estimation de la surmortalité en lien avec la chaleur aux deux dates, mais ils reposent sur des méthodes différentes qui rendent leurs résultats peu comparables : 74 483 décès pour la canicule de 2003 en Europe contre 61 672 morts lors de la canicule de 2022.

En effet, le premier chiffre mesure des décès en excès par rapport à une période de référence, tandis que le second découle de l’application d’une méthode épidémiologique. Celle-ci, plus sophistiquée, mais aussi plus rigoureuse, consiste à estimer pour une ville, une région ou un pays, le risque de mortalité relatif en fonction de la température, à tracer une « courbe exposition-réponse », selon le jargon des spécialistes.

Pour l’Europe entière, le risque est le plus faible autour de 17 °C à 19 °C, puis grimpe fortement au-delà. Connaissant les températures journalières atteintes les jours de canicule, on en déduit alors le nombre de décès associés à la chaleur.

Quelles canicules en Europe à l’horizon 2050 ?

Résumé ainsi, le travail paraît facile. Il exige cependant une myriade de données et repose sur de très nombreux calculs et hypothèses.

C’est cette méthode qui est employée pour estimer la surmortalité liée aux températures que l’on rencontrera d’ici le milieu ou la fin de ce siècle, en fonction, bien sûr, de différentes hypothèses de réchauffement de la planète. Elle devrait par exemple être décuplée en Europe à l’horizon 2100 dans le cas d’un réchauffement de 4 °C.

Ce chiffre est effrayant, mais il ne tient pas compte de l’adaptation à venir des hommes et des sociétés face au réchauffement. Une façon de la mesurer, pour ce qui est du passé, consiste à rechercher comment la courbe exposition-réponse à la température se déplace dans le temps. Si adaptation il y a, on doit observer une mortalité qui grimpe moins fortement avec la chaleur qu’auparavant.

C’est ce qui a été observé à Paris en comparant le risque relatif de mortalité à la chaleur entre la période 1996-2002 et la période 2004-2010. Aux températures les plus élevées, celles du quart supérieur de la distribution, le risque a diminué de 15 %.

Ce chiffre ne semble pas très impressionnant, mais il faut savoir qu’il tient uniquement compte de la mortalité le jour même où une température extrême est mesurée. Or, la mort associée à la chaleur peut survenir avec un effet de retard qui s’étend à plusieurs jours voire plusieurs semaines.

La prise en compte de cet effet diminue encore le risque entre les deux périodes : de 15 % à 50 %. Cette baisse de moitié est plus forte que celle observée dans d’autres capitales européennes comme Athènes et Rome. Autrement dit, Paris n’est pas à la traîne de l’adaptation aux canicules.

De façon générale et quelle que soit la méthode utilisée, la tendance à une diminution de la susceptibilité de la population à la chaleur se vérifie dans nombre d’autres villes et pays du monde développé. L’adaptation et la baisse de mortalité qu’elle permet y est la règle.

La baisse de la mortalité en Europe compensera-t-elle l’augmentation des températures ?

C’est une bonne nouvelle, mais cette baisse de la surmortalité reste relative. Si les progrès de l’adaptation sont moins rapides que le réchauffement, il reste possible que le nombre de morts en valeur absolue augmente. En d’autres termes, la mortalité baisse-t-elle plus vite ou moins vite que le réchauffement augmente ?

Plus vite, si l’on s’en tient à l’évolution observée dans dix pays européens entre 1985 et 2012. Comme ces auteurs l’écrivent :

« La réduction de la mortalité attribuable à la chaleur s’est produite malgré le décalage progressif des températures vers des plages de températures plus chaudes observées au cours des dernières décennies. »

En sera-t-il de même demain ? Nous avons mentionné plus haut un décuplement en Europe de la surmortalité de chaleur à l’horizon 2100. Il provient d’un article paru dans Nature Medicine qui estimait qu’elle passerait de 9 à 84 décès attribuables à la chaleur par tranche de 100 000 habitants.

Mais attention : ce nombre s’entend sans adaptation aucune. Pour en tenir compte dans leurs résultats, les auteurs de l’article postulent que son progrès, d’ici 2100, permettra un gain de mortalité de 50 % au maximum.

Au regard des progrès passés examinés dans ce qui précède, accomplis sur une période plus courte, une réduction plus forte ne semble pourtant pas hors de portée.

Surtout si la climatisation continue de se développer. Le taux d’équipement d’air conditionné en Europe s’élève aujourd’hui à seulement 19 %, alors qu’il dépasse 90 % aux États-Unis. Le déploiement qu’il a connu dans ce pays depuis un demi-siècle a conduit à une forte baisse de la mortalité liée à la chaleur.

Une moindre mortalité hivernale à prendre en compte

Derrière la question de savoir si les progrès futurs de l’adaptation permettront de réduire la mortalité liée à la chaleur de plus de 50 % en Europe, d’ici 2100, se joue en réalité une autre question : la surmortalité associée au réchauffement conduira-t-elle à un bilan global positif ou bien négatif ?

En effet, si le changement climatique conduit à des étés plus chauds, il conduit aussi à des hivers moins rudes – et donc, moins mortels. La mortalité associée au froid a été estimée en 2020 à 82 décès par 100 000 habitants. Avec une élévation de température de 4 °C, elle devrait, toujours selon les auteurs de l’article de Nature Medicine, s’établir à la fin du siècle à 39 décès par 100 000 personnes.

Si on rapporte ce chiffre aux 84 décès par tranche de 100 000 habitants liés à la chaleur, cités plus haut, on calcule aisément qu’un progrès de l’adaptation à la chaleur de 55 % suffirait pour que la mortalité liée au froid et à la chaleur s’égalisent. Le réchauffement deviendrait alors neutre pour l’Europe, si l’on examine la seule mortalité humaine liée aux températures extrêmes.

Mais chacun sait que le réchauffement est aussi à l’origine d’incendies, d’inondations et de tempêtes mortelles ainsi que de la destruction d’écosystèmes.

Sous cet angle très réducteur, le réchauffement serait même favorable, dès lors que le progrès de l’adaptation dépasserait ce seuil de 55 %. Si l’on ne considère que le cas de la France, ce seuil est à peine plus élevé : il s’établit à 56 %.

Des conclusions à nuancer

La moindre mortalité hivernale surprendra sans doute le lecteur, plus habitué à être informé et alarmé en période estivale des seuls effets sanitaires négatifs du réchauffement. L’idée déroutante que l’élévation des températures en Europe pourrait finalement être bénéfique est également dérangeante. Ne risque-t-elle pas de réduire les motivations et les incitations des Européens à diminuer leurs émissions de gaz à effet de serre ?

C’est peut-être cette crainte qui conduit d’ailleurs les auteurs de l’article de Nature Medicine à conclure que :

« La mortalité nette augmentera substantiellement si l’on considère les scénarios de réchauffement les plus extrêmes et cette tendance ne pourra être inversée qu’en considérant des niveaux non plausibles d’adaptation. »

Notons également que ces perspectives concernent ici l’Europe. Dans les pays situés à basse latitude, la surmortalité liée aux températures est effroyable. Leur population est beaucoup plus exposée que la nôtre au changement climatique ; elle est aussi plus vulnérable avec des capacités d’adaptation qui sont limitées par la pauvreté.

À l’horizon 2100, la mortalité nette liée aux températures est estimée à plus de 200 décès pour 100 000 habitants en Afrique sub-saharienne et à près de 600 décès pour 100 000 habitants au Pakistan.

Concluons qu’il ne faut pas relâcher nos efforts d’adaptation à la chaleur en Europe, quitte à ce qu’ils se soldent par un bénéfice net. Les actions individuelles et collectives d’adaptation à la chaleur sauvent des vies. Poursuivons-les. Et ne relâchons pas pour autant nos efforts de réduction des émissions, qui sauveront des vies ailleurs, en particulier dans les pays pauvres de basses latitudes.


François Lévêque a publié, avec Mathieu Glachant, Survivre à la chaleur. Adaptons-nous, Odile Jacob, 2025.

The Conversation

François Lévêque ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Canicule : soulignons, sans état d’âme, nos progrès d’adaptation depuis 2003 – https://theconversation.com/canicule-soulignons-sans-etat-dame-nos-progres-dadaptation-depuis-2003-262091

Quand les femmes prenaient déjà la vague : l’histoire oubliée du surf californien

Source: The Conversation – in French – By Jeffrey Swartwood, Maître de conférences, Civilisation américaine, Université Bordeaux Montaigne

Mary-Ann Hawkins, championne de surf féminin de la côte Pacifique en 1938, en 1939 et en 1940. Wikimedias Commons, CC BY

Le surf se développe sur les côtes californiennes à partir des années 1920 pendant la période des « hommes de fer et planches en bois ». Dans ce milieu contre-culturel, un premier mouvement de femmes part alors à la recherche de la vague parfaite, malgré les injonctions et les stéréotypes de la période.


Le surf connaît aujourd’hui une nouvelle vague de popularité avec quelque 3,8 millions de pratiquants. Comme à chaque phase d’expansion de ce sport, l’équilibre se redessine entre son image de pratique contre-culturelle –  associée à la liberté, au sport dans les grands espaces – et sa place dans la culture dominante.

Malgré une augmentation considérable du surf féminin (entre 35 % et 40 % des pratiquants), l’imaginaire public entourant le surf reste (très) majoritairement masculin.

À l’heure actuelle, des surfeuses de shortboard comme celles de longboard voyagent en solo à travers le monde, surfent des grosses vagues, créent des modes de vie alternatifs et défient la vision traditionnelle de ce sport si longtemps orienté vers les hommes. Ces femmes suscitent à la fois l’intérêt du public et l’attention des chercheurs, comme en témoignent des ouvrages tels que Surfer Girls in the New World Order de Krista Comer.

Pourtant, le monde de la publicité, jusque dans la presse spécialisée, continue de présenter un déséquilibre : les photos d’action sont largement consacrées aux surfeurs masculins, tandis que les images de femmes, même de surfeuses professionnelles, sont encore souvent prises sur la plage ou sur un parking

L’icône contre-culturelle du surf semble être encore fortement genrée et, en ce sens, pas si contre-culturelle que ça. Et ce n’est pas un phénomène nouveau.

Une liberté d’homme ?

Dans les années 1960, à l’apogée de la révolution contre-culturelle aux États-Unis, la liberté du surf était représentée comme quasi exclusivement masculine.

Dans les premiers magazines tels que Surfer ou Surfing, malgré certaines exceptions, les photos d’action montrant des femmes surfant étaient rares, même quand il s’agissait de traiter la performance des surfeuses lors des compétitions, par exemple.

Pourtant, selon les récits traditionnels hawaiens, depuis ses débuts vers le XIIᵉ siècle, le surf était pratiqué autant par les femmes que les hommes. Avant l’arrivée des missionnaires occidentaux, les femmes étaient étroitement associées à l’histoire du surf hawaïen. Mais ces derniers, animés d’un zèle socioreligieux marqué par des normes strictes de séparation des sexes et une vision productiviste de la société, ont œuvré à l’éradication de l’activité. La pratique du surf a donc progressivement décliné – surtout chez les femmes – jusqu’à quasiment disparaitre pour tous à la fin du XIXe siècle.

Surf aux îles Sandwich, illustration datant de 1897 issue de l'un des journaux de voyage James Cook.
Surf aux îles Sandwich, illustration datant de 1897 issue de l’un des journaux de voyage James Cook.
British Library, CC BY

Le sport renaît au début du XXe siècle à Hawaii et en Californie, sous l’effet d’une curiosité presque ethnologique et d’une prise de conscience de son potentiel touristique. L’activité est alors devenue presque exclusivement masculine, au point que, dans son livre The History of Surfing, le champion de surf Nat Young ne mentionne les surfeuses californiennes que dans une petite parenthèse, vers la fin.

Des planches trop lourdes pour les femmes pour surfer ?

L’historien Scott Laderman explique que cela est dû non seulement au sexisme dominant mais aussi au fait que les surfeuses étaient rares car, avant la Deuxième Guerre mondiale, les planches étaient très lourdes et difficiles à manier. Surfeur reconnu, Mickey Munoz va plus loin en racontant qu’il n’y avait pas de femmes qui surfaient dans la Californie avant la fin des années 40 car les planches étaient trop lourdes.

Pourtant, confronté aux archives historiques et à une analyse approfondie, l’argument selon lequel les femmes ne pratiquaient pas, ou peu, le surf avant la fin des années 1950 ne tient pas la route. Des photosle prouvent, tout comme des articles de journaux et d’autres documents.

Le manque de maniabilité des planches de surf de l’époque est insatisfaisant pour expliquer la quasi-invisibilité des surfeuses de la période. Les planches étaient effectivement en bois et non en mousse, comme le montre la collection du musée Surfing Heritage and Culture Center de San Clemente. Mais leur poids variait énormément, allant de planches en balsa verni d’environ 10 kg à des mastodontes en séquoia pesant jusqu’à 45 kg (un longboard moderne en mousse et résine pèse entre 4 kg et 7 kg.

Et si les planches de trois mètres abondaient, des photographies et des références historiques à des planches plus courtes et plus légères évoquent une diversité plus grande que ne le laisse entendre le stéréotype.

Moins nombreuses que les hommes, mais bien présentes

Les surfeuses étaient vraisemblablement minoritaires sur la côte californienne, mais certaines femmes se consacraient malgré tout à ce sport et menaient une vie alternative. À ce jour, il est difficile de dire combien. Dans toute la Californie d’avant-guerre, il y avait probablement moins de 200 surfeurs et nous pourrions actuellement identifier une trentaine de surfeuses. À San Diego, dès 1925, Fay Baird Fraser, une jeune femme de 16 ans apprenait à surfer en tandem avec le sauveteur Charles Wright. Elle a ensuite continué à surfer seule dans la région, équipée de sa planche longue de 8 pieds (2,42 m).

Plus au nord, à Newport Beach, durant l’entre-deux-guerres, Duke Kahanamoku, hawaïen, champion olympique de natation et surfeur expert fut une figure clé de l’introduction du surf en Californie. Il rapporte avoir enseigné le surf à autant de femmes que d’hommes, et que parmi l’ensemble de ses élèves, tous sexes confondus, une jeune femme dénommée Bebe Daniels, de Corona Del Mar, était la meilleure.

Il y avait même quelques compétitions de surf avec une division féminine à la fin des années 1930. Mary Anne Hawkins, de Costa Mesa, a remporté ces championnats féminins de surf de la côte Pacifique en 1938, en 1939 et en 1940, à l’apogée de l’ère des planches en bois. Nous pourrions également mentionner les californiennes Vicki Flaxman ou Aggie Bane, parmi tant d’autres qui surfaient avant les années 50. Chacune de ces surfeuses talentueuses occupe une place bien documentée dans l’histoire des débuts du surf en Californie.

D’après l’historien Matt Warshaw, leur place était même telle, qu’à la fin des années 1940, alors que le surf évoluait à un rythme rapide et que le mode de vie des surfeurs s’ancrait dans la culture régionale, ces pionnières ont servi de modèle à toute la génération suivante de surfeurs californiens, hommes et femmes.

Selon Joe Quigg, fabriquant respecté de planches et figure iconique du surf, les femmes ont joué un rôle de premier plan dans la scène surf de Malibu dans les années 1940/50. Or, cette scène est devenue l’incarnation de la culture surf californienne, contribuant elle-même à façonner la contre-culture américaine des années 1950 et 1960. Dans un entretien, il va jusqu’à dire que la scène surf à Malibu était composé « de tous les âges et tous les sexes ».

À un moment où les récits traditionnels sont souvent remis en question, la construction de l’imaginaire du surf ne fait pas exception. Il est difficile d’imaginer que nous acceptions collectivement que dans les années 30, des garçons de 10 ans puissent traîner de lourdes planches jusqu’aux vagues pour apprendre, mais que les femmes, même adultes et nageuses accomplies passionnées de sports nautiques, ne le pouvaient pas. Elles le pouvaient, et elles le faisaient. T

out comme aujourd’hui, les femmes se lançaient dans les vagues, loin du rôle traditionnellement attribué à la petite amie qui attend avec patience sur la plage ou à la femme au foyer qui prépare soigneusement un pique-nique pour que son homme passe la journée à surfer. Face au sexisme de l’époque, elles ne représentaient qu’un faible pourcentage de la population des surfeurs. Cela souligne la nature hautement contre culturelle de leur pratique.

The Conversation

Jeffrey Swartwood est membre de l’International Association of Surfing Researchers, le Surf & Nature Alliance, l’Institut des Amériques et CLIMAS (EA4196) et l’Université Bordeaux Montaigne.

ref. Quand les femmes prenaient déjà la vague : l’histoire oubliée du surf californien – https://theconversation.com/quand-les-femmes-prenaient-deja-la-vague-lhistoire-oubliee-du-surf-californien-261868

Le « brain freeze » : d’où vient cette impression de gel du cerveau quand on consomme une glace ou une boisson très froide ?

Source: The Conversation – in French – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

Le « brain freeze », ou « céphalée due à un stimulus froid », se ressent quand on mange une glace ou quand on consomme une boisson très froide. Les études menées sur ce phénomène, généralement sans gravité mais soutenu par des mécanismes neurologiques plus complexes qu’il n’y paraît, aident à approfondir les connaissances sur les réactions du cerveau soumis au froid, mais aussi sur les facteurs de risque de migraine.


Vous êtes en train de prendre un granité, cette boisson à base de glace pilée ou de mordre trop rapidement dans une crème glacée. Et soudain, vous ressentez une douleur aiguë, glaciale et lancinante, aussi brève qu’intense, qui vous traverse le front. Selon la classification internationale des céphalées, il s’agit d’une « céphalée due à un stimulus froid », également connue sous le nom de « mal de tête dû à la glace », en anglais brain freeze. Et bien que cela puisse paraître trivial, ce phénomène révèle une complexité neurologique et médicale surprenante.

Ces dernières années, plusieurs recherches ont révélé que ce petit « mal de l’été » pourrait nous en apprendre davantage sur le traitement des migraines, les réactions cérébrales au froid et, de manière surprenante, sur la manière de protéger le cerveau dans des situations critiques.

Un signal envoyé au cerveau

Le brain freeze est une douleur frontale ou temporale de courte durée, qui peut être intense. Chez les personnes sensibles, elle est provoquée par le passage d’un élément froid (solide, liquide ou gazeux) au niveau du palais et/ou de la paroi postérieure du pharynx.

Ce changement brusque de température provoque une vasoconstriction, suivie d’une vasodilatation des vaisseaux sanguins dans cette zone. Le nerf trijumeau, qui relie le visage au cerveau, interprète ce changement comme une menace thermique et envoie un « signal de douleur » au cerveau.

Ce qui est curieux, c’est que cette douleur n’est pas ressentie dans la bouche, mais au niveau du front ou des tempes. C’est ce qu’on appelle « une douleur référée » (On parle aussi de douleur projetée, ndlr) : le cerveau interprète mal la source du stimulus, ce qui est très courant dans d’autres types de douleurs viscérales.

Un article publié dans Critical Care Medicine, en 2010, sous le titre provocateur « Can an ice cream headache save your life? » (en français « Un mal de tête causé par une glace peut-il vous sauver la vie ? »), suggérait que les mécanismes à l’origine du brain freeze pourraient inspirer des stratégies cliniques visant à protéger le cerveau après un arrêt cardiaque, en ayant recours à l’hypothermie thérapeutique. Ce type de réactions neurovasculaires rapides aiderait à réguler la pression intracrânienne, le flux sanguin cérébral et les réflexes autonomes.

En d’autres termes, une glace peut activer des mécanismes que les médecins tentent de reproduire de manière contrôlée en soins intensifs.

Une douleur qui en dit plus long qu’il n’y paraît

Un article publié en 2023, qui faisait la synthèse sur la bibliographie disponible sur ce sujet, a examiné comment des structures profondes du crâne telles que le nerf trijumeau et le ganglion sphénopalatin – tous deux connus pour être impliqués dans les migraines, les céphalées en grappe et les névralgies faciales – peuvent jouer un rôle dans ce phénomène.

De plus, de nombreux travaux de recherche ont montré que la réponse douloureuse au froid pourrait révéler une hypersensibilité du système trigéminal, en particulier chez des personnes prédisposées. La prévalence de ce phénomène varie entre 15 et 37 % dans la population générale. Mais elle est nettement plus élevée chez les enfants et les adolescents, chez qui elle atteint des chiffres compris entre 40,6 % et 79 %, selon les données recueillies dans la littérature scientifique.

Une étude clé, menée en Allemagne auprès d’élèves âgés de 10 à 14 ans, de leurs parents et de leurs enseignants, a montré une prévalence de 62 % chez les enfants et de 31 % chez les adultes. Cette différence pourrait s’expliquer par une combinaison de facteurs : l’apprentissage comportemental visant à éviter les déclencheurs de la douleur, une plus grande stabilité neuronale face au froid avec l’âge et des différences anatomiques qui rendent les enfants plus sensibles à une stimulation rapide des récepteurs du froid.

D’autre part, la douleur provoquée par le froid est étroitement liée aux antécédents de migraine. Les personnes souffrant de ce type de douleur présentent une prévalence comprise entre 55,2 % et 73,7 %, bien supérieure à celle des personnes souffrant de céphalées de tension (23-45,5 %). Une étude a même révélé une prévalence surprenante de 94 % chez les personnes ayant des antécédents de céphalées en coup de poignard. Cela suggère que le brain freeze pourrait servir de marqueur clinique indirect d’une sensibilité trigéminale accrue commune à d’autres céphalées plus invalidantes.

D’autres facteurs de risque ont été identifiés, notamment des antécédents de traumatisme crânien et, en particulier, des antécédents familiaux : les enfants dont les parents souffrent de céphalées induites par le froid présentent un risque significativement plus élevé de développer cette affection. Si la mère en a souffert, le risque pourrait être multiplié par 10,7 et, si c’est le père, par 8,4.

Toutes ces données révèlent que ce qui est souvent perçu comme une simple « douleur due à la glace » est en réalité l’expression de processus neurologiques complexes. Loin d’être banale, cette sensation pourrait aider à mieux comprendre les seuils de douleur et la prédisposition à des troubles neurosensoriels plus larges.

Est-ce dangereux ?

En général, non. Il s’agit d’un phénomène bénin, qui disparaît spontanément et sans conséquences médicales. Cependant, il existe un cas clinique extraordinaire, publié en 1999 dans l’American Journal of Forensic Medicine and Pathology, où un jeune homme s’est effondré après avoir bu de l’eau très froide. Les médecins légistes ont soupçonné un réflexe vagal extrême comme cause du décès, non pas un brain freeze classique, mais une réponse autonome incontrôlée dans un contexte de chaleur extrême et de prédisposition physiologique.

Cet événement, qui reste isolé, sert davantage à montrer la capacité du corps à réagir de manière drastique à des stimuli extrêmes qu’à susciter une inquiétude concernant les glaces ou les boissons froides.

Comment l’éviter ?

La bonne nouvelle, c’est que cette céphalée particulière peut être évitée grâce à quelques stratégies simples.

La stratégie la plus efficace consiste à manger ou à boire lentement. Lorsque nous ingérons des aliments froids à grande vitesse, le stimulus thermique au niveau du palais est trop brusque pour que le corps puisse le compenser à temps, ce qui déclenche la réponse douloureuse.

Il est également important d’éviter que les aliments dont la température est basse entrent en contact direct avec le palais supérieur, car cette zone est très vascularisée et proche du trajet du nerf trijumeau. Utiliser une paille, garder le liquide sur la langue avant d’avaler ou ne pas laisser la glace fondre trop rapidement dans la bouche peut aider.

Et si la douleur s’est déjà manifestée, il existe une astuce simple : appuyez votre langue contre le palais. Ce contact aide à rétablir la température et à soulager la gêne en quelques secondes.

Donc la prochaine fois qu’une cuillère de glace vous gèle le front, rappelez-vous : ce que vous ressentez n’est pas exagéré. Votre système nerveux est juste en train de tester une réaction que les scientifiques tentent encore de comprendre… et peut-être d’exploiter.

The Conversation

José Miguel Soriano del Castillo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le « brain freeze » : d’où vient cette impression de gel du cerveau quand on consomme une glace ou une boisson très froide ? – https://theconversation.com/le-brain-freeze-dou-vient-cette-impression-de-gel-du-cerveau-quand-on-consomme-une-glace-ou-une-boisson-tres-froide-262544

Universités américaines : l’internationalisation devient-elle une ligne de défense ?

Source: The Conversation – in French – By Alessia Lefébure, Sociologue, membre de l’UMR Arènes (CNRS, EHESP), École des hautes études en santé publique (EHESP)

Ouvrir des campus à l’étranger peut-il devenir une stratégie pour les universités américaines désireuses d’échapper aux pressions politiques du locataire de la Maison Blanche ? Pas si sûr… Coûts cachés, standards académiques difficiles à maintenir, instabilité des pays hôtes : ces implantations sont bien plus fragiles qu’elles n’en ont l’air – et parfois tout simplement intenables.


Sous la pression croissante de l’administration Trump, certaines grandes universités américaines repensent leur stratégie internationale. Quand Columbia University (New York) accepte en juillet 2025 de modifier sa gouvernance interne, son code disciplinaire et sa définition de l’antisémitisme dans le cadre d’un accord extrajudiciaire, sans décision de justice ni loi votée, c’est bien plus qu’un règlement de litige. C’est un précédent politique. L’université new-yorkaise entérine ainsi un mode d’intervention directe de l’exécutif fédéral, hors du cadre parlementaire, qui entame l’autonomie universitaire sous couvert de rétablir l’ordre public sur le campus, en acceptant par exemple l’ingérence des forces de l’ordre fédérales pour le contrôle des étudiants internationaux.

Le même type de menace vise Harvard depuis quelque temps : restriction des visas étudiants internationaux, blocage potentiel de financements fédéraux, suspicion d’inaction face aux mobilisations étudiantes. Dans les deux cas, les plus éclatants et les plus médiatisés, l’administration fédérale a agi sans légiférer. Cette méthode « ouvre la voie à une pression accrue du gouvernement fédéral sur les universités », créant un précédent que d’autres établissements pourraient se sentir obligés de suivre.

Un redéploiement partiel à l’étranger

Un tel brouillage des repères juridiques transforme en profondeur un système universitaire que l’on croyait solide et protégé : celui des grandes institutions de recherche américaines. Désormais confrontées à une instabilité structurelle, ces universités envisagent une option qui aurait semblé incongrue il y a encore peu : se redéployer partiellement hors des États-Unis, moins par ambition conquérante que par volonté de sauvegarde.

Dans cette perspective, le transfert partiel à l’étranger, tactique pour certains, prémices d’une nouvelle stratégie pour d’autres, tranche par rapport aux dynamiques d’internationalisation des décennies passées. Georgetown vient de prolonger pour dix ans supplémentaires son implantation à Doha ; l’Illinois Institute of Technology prépare l’ouverture d’une antenne à Mumbai. Jadis portés par une ambition d’expansion, ces projets prennent aujourd’hui une tournure plus défensive. Il ne s’agit plus de croître, mais d’assurer la continuité d’un espace académique et scientifique stable, affranchi de l’arbitraire politique intérieur.

Pour autant, l’histoire récente invite à relativiser cette stratégie. Le Royaume-Uni post-Brexit n’a pas vu ses universités créer massivement des campus continentaux. Dans un contexte certes différent, la London School of Economics, pourtant pionnière en matière d’internationalisation, a renforcé ses partenariats institutionnels et doubles diplômes en France, mais a écarté le projet d’une implantation offshore. Les universités britanniques ont préféré affermir des réseaux existants plutôt que de déployer des structures entières à l’étranger, sans doute conscientes que l’université ne se déplace pas comme une entreprise.

La France en tête avec 122 campus à l’étranger

Les campus internationaux sont souvent coûteux, dépendants, fragiles. Le rapport Global Geographies of Offshore Campuses recense en 2020 bien 487 implantations d’établissements d’enseignement supérieur hors de leur pays d’origine. La France est en tête avec 122 campus à l’étranger, suivie par les États-Unis (105) et le Royaume-Uni (73).

Les principales zones d’accueil sont concentrées au Moyen-Orient et en Asie : les Émirats arabes unis (33 campus dont 29 à Dubaï), Singapour (19), la Malaisie (17), Doha (12) et surtout la Chine (67) figurent parmi les hubs les plus actifs. Pour le pays hôte, ces implantations s’inscrivent dans des stratégies nationales d’attractivité académique et de montée en gamme dans l’enseignement supérieur. Leur succès s’explique moins par des garanties de liberté académique que par des incitations économiques, fiscales et logistiques ciblées, ainsi que par la volonté des gouvernements locaux de positionner leur territoire comme pôle éducatif régional.

Le Golfe offre un contraste saisissant. Depuis plus de vingt ans, les Émirats arabes unis et le Qatar attirent des institutions prestigieuses : New York University (NYU), HEC, Cornell, Georgetown. Ces campus sont les produits d’une politique d’attractivité académique volontariste, soutenue par des États riches cherchant à importer du capital scientifique et symbolique. L’Arabie saoudite emboîte désormais le pas, avec l’annonce de l’ouverture du premier campus étranger d’une université américaine (University of New Haven) à Riyad d’ici 2026, visant 13 000 étudiants à l’horizon 2033.

En Asie du Nord-Est, aucun pays – Chine, Hongkong, Japon, Corée du Sud, Singapour – n’a envisagé d’accueillir un campus américain en réponse aux tensions récentes. En revanche, plusieurs cherchent à attirer les étudiants et doctorants affectés, notamment ceux de Harvard.

À Hongkong, des universités comme HKUST ou City University ont mis en place des procédures d’admission accélérées et assouplies. Tokyo, Kyoto ou Osaka proposent des bourses et exonérations de frais. Ces initiatives, qui relèvent d’une stratégie de substitution, s’appuient sur deux facteurs structurels : un investissement public soutenu dans l’enseignement supérieur et la présence d’un vivier scientifique asiatique considérable dans les universités américaines, facilitant les transferts. À ce titre, l’Asie-Pacifique apparaît aujourd’hui comme l’un des principaux bénéficiaires potentiels du climat d’incertitude politique aux États-Unis.

Aux États-Unis, le signe d’un basculement discret

La carte des campus offshore révèle un paradoxe historique. Jusqu’à récemment, les universités du Nord global ouvraient des campus dans des pays où la liberté académique n’était pas nécessairement mieux garantie (Singapour, Émirats arabes unis, Malaisie, Chine, Qatar…), mais où elles trouvaient stabilité administrative, incitations financières et accès à des étudiants de la région. Il s’agissait d’une stratégie d’expansion, pas d’un repli, comme aujourd’hui, face à une incertitude politique croissante.

L’idée reste encore marginale, émise à voix basse dans quelques cercles dirigeants. Mais elle suffit à signaler un basculement discret : celui d’une institution qui commence à regarder au-delà de ses murs, moins par ambition que par inquiétude. Or, l’international n’est ni un sanctuaire ni un espace neutre : traversé par des souverainetés, des règles et des normes, il peut exposer à d’autres contraintes.

La Sorbonne Abu Dhabi, inaugurée en 2006, relève d’une logique inverse : une université française établie dans l’espace du Golfe, à l’invitation du gouvernement d’Abu Dhabi, dans un cadre contractuel et de coopération bilatéral qui réaffirme, dans la durée, la capacité de projection mondiale d’un modèle académique national. Cette initiative ne visait pas la protection d’un espace académique menacé : elle cristallisait au contraire une stratégie d’influence assumée, dans un environnement institutionnel contrôlé.

Rien de tel dans les réflexions américaines actuelles où la logique d’évitement domine. Pourtant, les impasses du redéploiement sont déjà bien connues.

Des implantations fragiles

Les campus délocalisés à l’étranger souffrent d’une faible productivité scientifique, d’une intégration académique partielle et de formes de désaffiliation identitaire chez les enseignants expatriés.

Philip G. Altbach, figure incontournable parmi les experts de l’enseignement supérieur transnational, pointe depuis longtemps la fragilité des modèles délocalisés ; l’expert britannique Nigel Healey a identifié des problèmes de gouvernance, d’adaptation institutionnelle et d’intégration des enseignants. L’exemple plus récent de l’Inde montre que nombre de campus étrangers peinent à dépasser le statut de vitrines, sans réelle contribution durable à la vie académique locale ni stratégie pédagogique solide.

À ces limites structurelles s’ajoute une question peu abordée ouvertement, mais décisive : qui paierait pour ces nouveaux campus délocalisés hors des États-Unis ? Un nouveau campus international représente un investissement considérable, qu’il s’agisse de bâtiments, de systèmes d’information, de ressources humaines ou d’accréditations. L’installation d’un site pérenne exige plusieurs centaines de millions de dollars, sans compter les coûts d’exploitation. Or, dans un contexte de tension budgétaire croissante, de baisse des investissements publics dans l’enseignement supérieur et de reterritorialisation des financements, il n’est pas aisé d’identifier les acteurs – qu’ils soient publics, philanthropiques ou privés – qui seraient prêts à soutenir des universités américaines hors de leur écosystème.

Lorsque NYU s’installe à Abu Dhabi ou Cornell à Doha, c’est avec le soutien massif d’un État hôte. Cette dépendance financière n’est pas sans conséquence. Elle expose à de nouvelles contraintes, souvent plus implicites, mais tout aussi efficaces : contrôle des contenus enseignés, orientation scientifique, sélection conjointe des enseignants, autocensure sur certains sujets sensibles. En d’autres termes, vouloir échapper à une pression politique par l’exil peut parfois exposer à une autre. La liberté académique déplacée n’est qu’un mirage, si elle repose sur un modèle de financement aussi précaire que politiquement conditionné.

Mobilité académique et liberté de recherche

Dans un rapport récent du Centre for Global Higher Education, le sociologue Simon Marginson met en garde contre une lecture trop instrumentale de la mobilité académique. Ce ne sont pas les emplacements, mais les contextes politiques, sociaux et culturels qui garantissent ou fragilisent la liberté universitaire. Le risque majeur est la dissolution du cadre démocratique qui permet encore à l’université de penser, de chercher et d’enseigner librement.

Face à ce déplacement des lignes, l’ouverture d’un campus à l’étranger ne peut être qu’un geste provisoire, une tentative incertaine dans un monde déjà traversé par d’autres formes d’instabilité.

Ce que l’enseignement supérieur affronte aujourd’hui, ce n’est pas seulement la menace d’un pouvoir politique national, mais la fragilisation de l’espace où peut encore s’exercer une pensée critique et partagée. Certains observateurs, comme l’historien Rashid Khalidi, y voient le signe d’un basculement plus profond : celui d’universités qui, cédant à la pression politique, deviennent des « lieux de peur », où la parole est désormais conditionnée par le pouvoir disciplinaire.

Le défi n’est pas seulement de préserver une liberté. C’est de maintenir une capacité d’agir intellectuellement, collectivement, au sein d’un monde qui en restreint les conditions.

The Conversation

L’auteure a travaillé entre 2011 et 2017 à Columbia University.

ref. Universités américaines : l’internationalisation devient-elle une ligne de défense ? – https://theconversation.com/universites-americaines-linternationalisation-devient-elle-une-ligne-de-defense-262569