L’étonnante histoire du linguiste Nicolas Marr en URSS, ou quand la science est instrumentalisée à des fins idéologiques

Source: The Conversation – in French – By Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL

Un timbre à l’effigie de Nicolas Marr édité par la Poste de la république d’Arménie, où il a mené des fouilles archéologiques avant la révolution d’Octobre. Armenia Post/Wikimedia Commons, CC BY

Comment un philologue géorgien est-il devenu le théoricien officiel de la linguistique soviétique avant d’être renié par Staline? L’histoire de Nicolas Marr illustre les dangers de la science mise au service du pouvoir.


Nicolas Marr, né en 1865 (selon le calendrier grégorien) à Koutaïssi (Géorgie, Empire russe) et décédé en 1934 à Leningrad (URSS), occupe une place singulière dans l’histoire de la linguistique… moins pour ses apports scientifiques que pour l’influence politique qu’il exerça en Union soviétique, où sa théorie linguistique – aujourd’hui considérée comme largement fantaisiste, fut pendant plusieurs années érigée en doctrine officielle.

Son parcours intellectuel, culminant dans une consécration institutionnelle spectaculaire avant que Marr soit brutalement désavoué par Staline lui-même, offre un cas exemplaire de l’instrumentalisation des sciences humaines à des fins idéologiques. À l’heure où des gouvernements cherchent à encadrer les discours scientifiques sur des sujets sensibles (qu’il s’agisse du climat, du genre ou de l’histoire), le cas de Nicolas Marr rappelle que la liberté académique reste vulnérable face à des logiques politiques qui cherchent à imposer leurs propres normes de vérité.

Quand la linguistique devient idéologie

Formé comme philologue (spécialiste des textes anciens) à l’Université de Saint-Pétersbourg, Nicolas Marr se spécialise dans les langues caucasiennes. Son travail précoce est sérieux, et plutôt bien accueilli dans les cercles orientalistes de l’Empire russe.

Mais au fil des années, sa pensée s’éloigne des cadres méthodologiques établis, ce qui lui permet, fait rare pour un savant déjà reconnu avant 1917, de rester en vue sous le régime bolchévique : en requalifiant ses thèses de « matérialistes » et en les alignant sur les objectifs politiques (anti-occidentalisme, « modernisation linguistique » des peuples non russes, construction du socialisme), il transforme sa doctrine en orthodoxie institutionnelle, durablement adossée aux organes académiques et au pouvoir.

Marr est convaincu que l’approche traditionnelle concernant l’étude des langues indo-européennes (qui postule l’existence d’une langue mère commune, le proto-indo-européen, à l’origine de nombreuses langues d’Europe et d’Asie) est idéologiquement biaisée, car influencée par des présupposés élitistes et eurocentrés.

Il se lance alors dans la construction d’un nouveau paradigme linguistique, censé refléter une vision « matérialiste » de l’histoire des langues, c’est-à-dire une conception où le développement des langues est directement produit par les conditions sociales, économiques et historiques, conformément aux principes du marxisme.

Au cœur de sa théorie se trouve l’idée que toutes les langues humaines dérivent d’un protolangage unique fondé sur quatre éléments phonétiques fondamentaux : sal, ber, yon, rosh. Selon Nicolas Marr, ces « éléments de base » seraient les briques originelles de tout lexique, indépendamment des familles linguistiques reconnues. Il va jusqu’à proposer que l’évolution des langues obéit à des lois de type marxiste : la langue, comme tout autre superstructure (construction sociale dépendante des conditions économiques et des rapports de classe), serait le produit du développement des forces productives et l’histoire de la lutte des classes sociales.

Dans ses travaux ultérieurs, Nicolas Marr introduit la notion de langues « japhetiques », une famille hypothétique qu’il oppose aux langues indo-européennes (voir ici pour un compte rendu relativement favorable de l’époque, en 1936). Inspiré d’une relecture très libre de la Genèse, il affirme que les langues du Caucase – et bien d’autres – forment un rameau linguistique issu du personnage biblique Japhet. Cette classification fantaisiste, dépourvue de fondement comparatif rigoureux (par opposition à l’approche traditionnelle, fondée notamment sur des lois d’évolution phonétique strictement établies), lui permet d’insister sur l’existence d’un substrat linguistique commun à des peuples opprimés par le colonialisme occidental, théorie en phase avec l’idéologie soviétique des années 1920.

Une science d’État

Dans l’URSS des années 1920 et des années 1930, les sciences sont de plus en plus soumises à des critères politiques. Nicolas Marr, dont le discours allie un rejet de la tradition bourgeoise et une promesse d’unification linguistique du prolétariat mondial, s’impose rapidement comme un intellectuel « compatible ». Il avance que les langues évoluent selon les lois de la lutte des classes et que le langage reflète la structure sociale.

Cette approche plaît : Nicolas Marr, à la tête de nombreux instituts et entré à l’Académie des sciences en 1912, en devient vice-président et ses écrits deviennent obligatoires dans les cursus universitaires. Ses détracteurs sont marginalisés, voire écartés (comme Evgueni Polivanov).

La linguistique de Nicolas Marr (connue sous le nom de « nouvelle doctrine linguistique ») devient doctrine d’État : il ne s’agit plus seulement d’une théorie linguistique, mais d’une orthodoxie politique. La science du langage est désormais censée participer à la construction du socialisme.

L’influence de Nicolas Marr dépasse alors le simple champ académique. Ses idées sont mobilisées dans les débats sur les politiques de planification linguistique (c’est-à-dire l’intervention délibérée de l’État dans la codification, la standardisation, l’alphabétisation et l’enseignement des langues), en particulier concernant la création de systèmes d’écriture pour des langues jusqu’alors non écrites des républiques soviétiques. La linguistique devient un outil de gouvernement, au service de la « politique des nationalités » : il s’agit à la fois de favoriser le développement culturel des peuples non russes et de préparer leur intégration dans le cadre idéologique du marxisme-léninisme.

Nicolas Marr sert ici de caution savante : ses théories, même contestées sur le plan scientifique, sont valorisées parce qu’elles justifient une conception révolutionnaire et volontariste de la langue comme construction sociale. Dans ce contexte, contester Nicolas Marr, c’était risquer de contester la ligne du Parti.

Le retournement

La mort de Nicolas Marr en 1934 ne met pas immédiatement fin à son influence. Au contraire, ses disciples poursuivent l’expansion de son système et veillent à sa canonisation.

Mais en 1950, contre toute attente, Staline lui-même publie un article intitulé « Marxisme et questions de linguistique », dans lequel il critique ouvertement la théorie de Nicolas Marr. Il rejette l’idée que la langue serait déterminée par les classes sociales, réhabilite la linguistique comparée, et appelle à un retour à une approche plus empirique, voire classique.

Ce geste n’est pas anodin : Staline ne se contente pas de désavouer une théorie. Il démontre que, dans une dictature, l’autorité scientifique est subordonnée à la volonté politique suprême, et qu’elle peut être révoquée à tout moment. Les institutions obtempèrent : les disciples de Nicolas Marr sont discrédités, les manuels sont réécrits, et la théorie des quatre éléments disparaît du paysage scientifique.

Ce retournement brutal s’inscrit dans un contexte plus large de redéfinition des priorités idéologiques du régime. À la fin des années 1940, l’URSS amorce un resserrement doctrinal, marqué par la campagne contre le « cosmopolitisme » et le renforcement du nationalisme soviétique.

Dans ce climat, les constructions linguistiques trop spéculatives ou trop liées à l’internationalisme révolutionnaire deviennent suspectes. En dénonçant Nicolas Marr, Staline entend réaffirmer l’autonomie relative de certaines disciplines scientifiques, mais aussi reprendre la main sur un champ où l’orthodoxie avait été laissée aux mains d’un petit cercle de partisans zélés.

Ce n’est donc pas un retour à la science pour elle-même, mais une réaffirmation de l’autorité centrale dans l’arbitrage du vrai.

Héritage et leçons

Aujourd’hui, Nicolas Marr est largement oublié dans les manuels de linguistique. Son nom est parfois évoqué en histoire des sciences comme exemple extrême de science instrumentalisée, au même titre que Trofim Lyssenko en biologie. Ce dernier avait rejeté la génétique classique au nom du marxisme et imposé une théorie pseudoscientifique soutenue par le pouvoir soviétique.

Si ses premiers travaux sur les langues du Caucase semblent avoir été plus sérieux sur le plan philologique, ses grandes constructions théoriques sont aujourd’hui considérées comme infondées.

Mais l’histoire de Nicolas Marr mérite d’être relue. Elle rappelle que les sciences, surtout lorsqu’elles touchent au langage, à la culture et à l’identité, sont vulnérables aux pressions politiques.

Nicolas Marr n’est pas seulement un excentrique promu par accident ; il est le produit d’un moment historique où la vérité scientifique pouvait être décidée au sommet du Parti. Loin de n’être qu’un épisode marginal, l’histoire de Nicolas Marr éclaire un dilemme toujours actuel : celui de la vérité scientifique confrontée à des intérêts politiques, économiques ou idéologiques. Ce n’est pas tant le passé qui importe ici, mais ce qu’il permet encore de voir du présent.

The Conversation

Thierry Poibeau est membre de l’Institut Prairie-PSAI (Paris AI Research Institute – Paris School of Artificial Intelligence) et a reçu des financements à ce titre.

ref. L’étonnante histoire du linguiste Nicolas Marr en URSS, ou quand la science est instrumentalisée à des fins idéologiques – https://theconversation.com/letonnante-histoire-du-linguiste-nicolas-marr-en-urss-ou-quand-la-science-est-instrumentalisee-a-des-fins-ideologiques-262088

Les militants africains qui ont contesté l’esclavage à Lagos et en Côte-de-l’Or pendant l’époque coloniale

Source: The Conversation – in French – By Michael E. Odijie, Associate Professor, University of Oxford

Lorsque des historiens et le public pensent à la fin de l’esclavage domestique en Afrique de l’Ouest, ils imaginent souvent des gouverneurs coloniaux promulguant des décrets et des missionnaires œuvrant pour mettre fin au trafic local d’esclaves.

Deux de mes publications récentes racontent une autre histoire. Je suis historien spécialiste de l’Afrique de l’Ouest et, au cours des cinq dernières années, j’ai mené des recherches sur les idées et les réseaux anti-esclavagistes dans la région dans le cadre d’un projet de recherche plus large.

Mes recherches révèlent que les administrations coloniales ont continué à autoriser l’esclavage domestique dans la pratique et que des militants africains se sont battus contre cela.

Dans une étude, je me suis intéressé à Francis P. Fearon, un négociant basé à Accra, la capitale ghanéenne. Il a dénoncé le soutien à l’esclavage au sein du gouvernement colonial à travers de nombreuses lettres écrites dans les années 1890 (à l’époque où la colonie était connue sous le nom de Gold Coast – Côte de l’Or).

Dans une autre étude, j’ai examiné le Lagos Auxiliary, une groupe d’avocats, de journalistes et de membres du clergé au Nigeria. Leur campagne a permis l’abrogation en 1914 de la tristement célèbre Native House Rule Ordinance du Nigeria. Cette ordonnance avait été promulguée par le gouvernement colonial afin de maintenir l’esclavage local dans la région du delta du Niger.

Analysées ensemble, ces deux études montrent comment des militants locaux ont utilisé des lettres, la presse, les failles des empires coloniaux et leurs réseaux personnels pour s’opposer à des pratiques qui maintenaient des milliers d’Africains en esclavage.

Les méthodes mises au point par Fearon et le Lagos Auxiliary gardent toute leur actualité, car elles montrent comment des communautés marginalisées peuvent contraindre les détenteurs du pouvoir à se conformer à la loi. Elles nous rappellent que des témoignages locaux bien documentés, relayés sur le plan international, peuvent encore remettre en cause les discours officiels, imposer des changements politiques et obliger les institutions à rendre des comptes.

Une « abolition » coloniale qui n’en était pas une

L’Afrique de l’Ouest était une source importante d’esclaves pendant la traite transatlantique. La traite transatlantique a été abolie au début du XIXe siècle, mais cela n’a pas mis fin à l’esclavage domestique.

L’une des principales justifications de la colonisation en Afrique de l’Ouest était l’éradication de l’esclavage domestique.

En conséquence, lorsque la Côte-de-l’Or a été officiellement annexée en tant que colonie britannique en 1874, le gouvernement impérial a déclaré illégal le commerce des esclaves. Et la traite des esclaves a été criminalisée dans tout le sud du Nigeria en 1901. Sur le papier, ces mesures promettaient la liberté, mais dans la pratique, des failles ont permis aux propriétaires d’esclaves, aux chefs et aux fonctionnaires coloniaux de continuer à imposer le travail forcé.

Sur la Côte-de-l’Or, la loi d’abolition de 1874 n’a jamais été appliquée. Le gouverneur britannique a informé les propriétaires d’esclaves qu’ils pouvaient conserver leurs esclaves à condition que ceux-ci ne se plaignent pas. En 1890, l’esclavage des enfants était devenu très répandu dans des villes comme Accra. Selon les militants locaux, il était même toléré par le gouverneur colonial. Cela a conduit certains Africains à s’unir pour créer un réseau afin de s’y opposer.

La région du delta du Niger, au Nigeria, a connu une expérience similaire. L’administration coloniale a promulgué la Native House Rule Ordinance (ordonnance sur les règles domestiques) pour contrer les effets de la proclamation sur la traite des esclaves de 1901 qui criminalisait la traite des esclaves et punissait les contrevenants d’une peine de sept ans d’emprisonnement. Cette ordonnance obligeait chaque Africain à appartenir à une “maison” dirigée par un chef. Elle criminalisait également toute personne qui tentait de quitter sa « maison ».

Dans les royaumes du delta du Niger, comme Bonny, Kalabari ou Okrika, le mot “maison” ne désignait pas un simple foyer. Il s’agissait d’un grand groupe familial, comprenant des parents, des dépendants et des esclaves, dirigé par un chef et propriétaire de biens. À partir des années 1900, ces “maisons” devinrent les principales structures d’organisation de l’esclavage.

L’ordonnance obligeait donc les esclaves à rester avec leurs maîtres. Ces derniers pouvaient faire appel à l’autorité coloniale pour les punir. Les commissaires de district exécutaient les mandats d’arrêt contre les fugitifs. En échange, les chefs de maison et les chefs locaux fournissaient à l’administration coloniale une main-d’œuvre non rémunérée pour les travaux publics.

Des militants africains à Accra et à Lagos se sont organisés pour contester ce qu’ils percevaient comme le soutien de l’État colonial britannique à l’esclavage.

Fearon : un abolitionniste clandestin à Accra

Francis Fearon était un Africain instruit, actif à Accra pendant la seconde moitié du XIXe siècle. Il était très cultivé et faisait partie des cercles élitistes. Il était étroitement lié au journaliste Edmund Bannerman. Il écrivait régulièrement dans les journaux locaux, exprimant souvent ses préoccupations concernant le racisme à l’égard des Noirs et la dégradation des mœurs.

Le 24 juin 1890, Fearon envoya une lettre de 63 pages, accompagnée de dix annexes, à la Aborigines’ Protection Society à Londres. Ce dossier servira de base à plusieurs autres communications. Il y affirmait que le trafic d’enfants se poursuivait.

En guise de preuve, il a transcrit le registre confidentiel du tribunal d’Accra et a affirmé que le gouverneur W. B. Griffith avait ordonné aux propriétaires d’esclaves condamnés de récupérer leur « propriété ».

La tactique de Fearon était audacieuse. Il resta anonyme, s’appuya sur des greffiers pour obtenir des documents et fournit des preuves à la Société pour la protection des aborigènes. Il supplia cette dernière d’enquêter sur l’administration coloniale en Côte-de-l’Or.

Bien que la Société ait rendu public le scandale, les récits ultérieurs effacèrent discrètement la source africaine.

Les élites de Lagos s’organisent et nomment le problème

À l’instar de Fearon, des militants nigérians ont également écrit à la Société pour la protection des esclaves et des aborigènes. Ils dénoncèrent le gouvernement colonial nigérian pour sa complicité avec l’esclavage. Mais eux, choisirent de parler à visage découvert.

À cette époque, la Native House Rule Ordinance avait incité certains esclaves à fuir les districts où cette loi était appliquée. Ils se sont réfugiés à Lagos, où leur arrivée a permis aux élites locales de prendre connaissance de l’ordonnance. Elles ont alors lancé une campagne acharnée contre l’État colonial.

Parmi les principales figures de ce mouvement figuraient Christopher Sapara Williams, avocat, et James Bright Davies, rédacteur en chef du Nigerian Times. Parmi les autres personnalités, il y avait le politicien Herbert Macaulay, Herbert Pearse, un éminent commerçant, l’évêque James Johnson et le révérend Mojola Agbebi. Contrairement à la stratégie solitaire de Fearon, ils ont mené une offensive coordonnée contre l’administration coloniale. Ils ont rédigé des pétitions, informé les organisations européennes sympathisantes et inondé les journaux locaux de commentaires.

Leurs arguments mêlaient indignation humanitaire et solides connaissances du droit constitutionnel. Ils affirmaient que l’ordonnance était contraire aux idéaux libéraux britanniques et aux coutumes africaines.

Après des années de pression, la loi a été modifiée, puis discrètement abrogée en 1914.

Pourquoi ces histoires sont-elles importantes aujourd’hui ?

Les études contemporaines sur l’abolition de l’esclavage s’éloignent progressivement de la question « qu’a fait la Grande-Bretagne pour l’Afrique ? » pour s’intéresser au rôle joué par les Africains dans l’abolition de l’esclavage.

De nombreux abolitionnistes africains qui ont combattu et perdu la vie dans la lutte contre l’esclavage ont longtemps été ignorés. Cela commence à changer.

Les deux articles présentés ici mettent en lumière l’ingéniosité des Africains qui, des décennies avant l’apparition de la radio ou des ONG de défense des droits civiques, ont su utiliser les circuits d’information transatlantiques. Ils ont dénoncé les gouvernements coloniaux qui continuaient à s’appuyer sur des économies fondées sur le travail forcé longtemps après la fin officielle de l’esclavage.

Ils nous rappellent que la documentation locale peut remettre en cause les récits officiels. Le plaidoyer fondé sur des faits, la création de coalitions et l’utilisation stratégique des médias internationaux restent des instruments puissants.

The Conversation

Les recherches menées pour ces articles ont été financées par le Conseil européen de la recherche dans le cadre du programme de recherche et d’innovation Horizon 2020 de l’Union européenne (convention de subvention n° 885418).

ref. Les militants africains qui ont contesté l’esclavage à Lagos et en Côte-de-l’Or pendant l’époque coloniale – https://theconversation.com/les-militants-africains-qui-ont-conteste-lesclavage-a-lagos-et-en-cote-de-lor-pendant-lepoque-coloniale-262636

À la découverte du pika « chou », un animal étonnant menacé par le changement climatique

Source: The Conversation – in French – By Violaine Nicolas Colin, Maitre de conférence en systématique et phylogéographie, Muséum national d’histoire naturelle (MNHN)

Les pikas, avec leurs petites oreilles rondes et leur cri perçant, sont devenus des stars des réseaux sociaux. Malgré leur nom, ils n’ont pas inspiré l’emblématique Pokémon Pikachu. Mais ces lagomorphes, plus proches des lapins que des rats, dont le mode de vie est plein de surprises, sont aujourd’hui menacés par le changement climatique et par les activités humaines.


Avec leur petite bouille craquante, leurs oreilles rondes façon peluche et leur cri aigu à faire sursauter un caillou, les pikas ont conquis les réseaux sociaux

Les vidéos virales sont légion : on les admire perchés sur un rocher, joues pleines d’herbes voire de fleurs ou encore poussant leur fameux cri évoquant un « piiiik ! ».

Extrait d’un documentaire de la chaîne britannique BBC sur le pika.

Mais derrière cette adorable façade se cache un animal étonnant, au mode de vie bien plus complexe qu’il n’y paraît. Surtout, son habitat est aujourd’hui menacé par les activités humaines.

Non, les pikas n’ont pas inspiré Pikachu

Commençons par tordre le cou à un mythe tenace : malgré leur nom qui pourrait prêter à confusion, les pikas n’ont rien à voir avec Pikachu, la mascotte électrique de Pokémon.

Contrairement à ce qu’on pourrait penser, le Pokémon Pikachu n’a pas été inspiré par les pikas.
Sadie Hernandez, CC BY-SA

Le créateur de la saga, Satoshi Tajiri, a expliqué dans une interview que le nom vient d’onomatopées japonaises : pikapika (« étincelle ») et chu (le cri de la souris). Pikachu est donc censé être une souris… et non un pika. D’ailleurs, avec leurs oreilles arrondies et leur queue invisible, les vrais pikas ne lui ressemblent pas du tout !

Contrairement à ce que leur apparence pourrait laisser penser, les pikas ne sont d’ailleurs pas des rongeurs : ce sont des lagomorphes, comme les lapins et les lièvres. Leur dentition le prouve : deux paires d’incisives à la mâchoire supérieure (contre une seule chez les rongeurs), et une paire en bas. Ce détail anatomique les classe dans un autre groupe bien distinct.

Les pikas font partie de la famille des Ochotonidae. Petits (moins de 30 cm), dotés de courtes oreilles rondes (moins de 4 cm), d’une queue cachée et d’un crâne sans « processus supraorbital » (c’est ainsi que l’on nomme un relief osseux), ils diffèrent des léporidés (lapins et lièvres), leurs cousins aux grandes oreilles et aux queues visibles.

Leur famille ne compte plus qu’un seul genre vivant : Ochotona, composé de 34 espèces. Il n’existe donc pas une seule, mais plusieurs espèces de pikas !

Il existe plus de 30 espèces de pikas différentes (ici, pika américain).
US Geological Survey

Ce nombre continue d’évoluer grâce aux recherches récentes qui continuent d’identifier de nouvelles espèces, et en particulier grâce aux études basées sur l’ADN.

L’ancêtre commun des pikas actuel daterait du Miocène (il y a environ 23 millions d’années). Les pikas sont originaires du plateau tibétain-Qinghai et se sont ensuite dispersés et diversifiés dans d’autres régions de l’Eurasie et de l’Amérique du Nord.

Des « lièvres criards » à l’habitat diversifié

Les pikas vivent en Asie (32 espèces), et en Amérique du Nord (2 espèces, dont le pika à collier et le pika américain). Selon leur espèce, ils occupent deux types d’habitats : les milieux rocheux et montagneux, ou bien les prairies et les steppes.

Spécimen de pika à collier (Ochotona collaris).
Animalia, CC BY-SA

Les premiers utilisent les éboulis comme refuge, tandis que les seconds creusent des terriers où ils stockent des plantes pour l’hiver. Car, non, les pikas n’hibernent pas : ils passent la mauvaise saison à l’abri, sur leurs réserves.

Ce qui explique que l’on voit autant de vidéos de pika transportant des plantes dans la gueule vers leur abri ! Les pikas des prairies et des steppes ont tendance à se reproduire plus souvent et à avoir des portées plus nombreuses, mais vivent généralement moins longtemps que ceux habitant les milieux rocheux ou montagneux.

Un trait bien connu chez les pikas est leur propension à vocaliser. Leur sifflement strident, qui leur vaut les surnoms de « lièvres siffleurs » ou « lièvres criards », sert à avertir leurs congénères d’un danger ou à défendre leur territoire. Dans les paysages de montagnes, leur cri retentit comme un signal d’alerte minuscule, mais efficace.

Un régime alimentaire… un peu spécial

Les pikas sont principalement herbivores… avec une particularité. Comme leurs cousins les lapins, ils pratiquent la cæcotrophie : ils mangent une partie de leurs excréments (les cæcotrophes) pour mieux digérer les fibres et récupérer certains nutriments produits par les bactéries de leur intestin.

Autrement dit : un repas en deux services ! Mais ils vont parfois plus loin : certaines espèces, comme le pika à lèvres noires, peuvent même manger les crottes… d’autres animaux !

Sur le plateau tibétain, où les températures descendent jusqu’à -30 °C, cette espèce ralentit son métabolisme l’hiver et complète son alimentation en consommant… des crottes de yak.




À lire aussi :
Rose : « Pourquoi le lapin mange-t-il ses crottes ? »


Des boules de poil en danger d’extinction

Malheureusement, tout n’est pas rose pour ces petites boules de poils. Quatre espèces sont déjà officiellement considérées comme en danger d’extinction par l’Union internationale pour la conservation de la nature (UICN)  : Ochotona argentata, O. koslowi, O. hoffmanni et O. iliensis.

Le pika de Koslov (O. koslowi), en danger d’extinction, est une espèce endémique en Chine.
Planche zoologique de 1890

En cause, la destruction des habitats par la déforestation, par le surpâturage, ou par les effets du changement climatique. En raison de leurs capacités de dispersion limitée et de leur habitat fragmenté, il leur est difficile de se déplacer pour trouver un habitat plus favorable.

L’avenir de beaucoup d’autres espèces de pikas n’a encore fait l’objet d’aucune évaluation, car les données disponibles sur leurs populations et leur écologie sont insuffisantes.

Poussés vers les sommets, mais pas toujours capables d’y survivre

Reste que beaucoup d’espèces de pikas sont biologiquement adaptées à des environnements hivernaux froids. Avec le réchauffement climatique, ils pourront soit remonter vers le nord (ce qui leur est souvent difficile dans des environnements de plus en plus fragmentés), soit s’établir à des altitudes plus élevées… ce qui risque de leur poser problème en raison du manque d’oxygène.

Des chercheurs ont ainsi comparé dix espèces de pikas dont l’habitat se situe entre le niveau de la mer et plus de 5 000 mètres d’altitude.

Ils se sont intéressés à trois gènes présents dans les mitochondries – les minuscules « centrales énergétiques » que l’on trouve à l’intérieur de chaque cellule. Ces gènes permettent à l’organisme d’utiliser l’oxygène pour produire l’énergie dont il a besoin. Chez les pikas de haute altitude, les protéines produites par ces gènes sont particulièrement efficaces : elles permettent de tirer un maximum d’énergie de l’air raréfié en oxygène. Mais chez les pikas vivant plus bas, ces protéines fonctionnent différemment : elles produisent plus de chaleur, ce qui est utile pour rester au chaud, mais elles sont moins bonnes pour générer de l’énergie cellulaire.

Résultat : si ces pikas des basses terres sont contraints de grimper pour échapper au réchauffement climatique, ils risquent de ne pas survivre là-haut. Leur corps n’est tout simplement pas fait pour fonctionner avec si peu d’oxygène.

La disparition des pikas ne serait pas anodine. Dans des écosystèmes comme le plateau tibétain, où ces animaux sont trop souvent tués à cause de la croyance erronée selon laquelle ils dégraderaient les cultures, ces animaux jouent un rôle important dans la chaîne alimentaire et le fonctionnement global des milieux naturels. Leur déclin pourrait entraîner des déséquilibres majeurs.

The Conversation

Violaine Nicolas Colin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. À la découverte du pika « chou », un animal étonnant menacé par le changement climatique – https://theconversation.com/a-la-decouverte-du-pika-chou-un-animal-etonnant-menace-par-le-changement-climatique-262378

Il y a 200 ans, la France extorquait une « indemnité » à Haïti, dans l’un des plus grands braquages de l’histoire – et les Haïtiens veulent des réparations

Source: The Conversation – in French – By Marlene L. Daut, Professor of French and African American Studies, Yale University

Gravure de propagande française, datant de 1825, montrant le roi Charles X (1824-1830) « accordant la liberté » au peuple haïtien personnifié par un homme mis à genoux. ‘S.M. Charles X, le bien-aimé, reconnaissant l’indépendance de St. Domingue,’ 1825, Bibliothèque Nationale de France, Cabinet des Estampes, CC BY-SA

En 1825, la France a extorqué à Haïti une « indemnité » colossale en échange de la reconnaissance de son indépendance. Deux siècles plus tard, les demandes de compensations restent lettre morte.


En 2002, l’ancien président haïtien Jean-Bertrand Aristide a estimé que la France devait verser 21 milliards de dollars à son pays. La raison ? En 1825, la France a extorqué à la jeune nation une énorme « indemnité », en échange de la reconnaissance de son indépendance.

Le 17 avril 2025 a marqué le 200e anniversaire de cet accord d’indemnisation. Le 1er janvier de cette année, le désormais ancien président du Conseil présidentiel de transition d’Haïti Leslie Voltaire a réitéré cet appel à la France en lui demandant de « rembourser la dette de l’indépendance et d’effectuer des réparations pour l’esclavage ». En mars 2025, la star du tennis Naomi Osaka, d’origine haïtienne, a ajouté sa voix au chœur dans un tweet s’interrogeant sur le moment où la France rembourserait Haïti.

En tant que spécialiste de l’histoire et de la culture haïtiennes du XIXᵉ siècle, j’ai consacré une part importante de mes recherches à explorer le cas juridique particulièrement solide d’Haïti en matière de restitution vis-à-vis de la France.

L’histoire commence avec la Révolution haïtienne. La France a instauré l’esclavage dans la colonie de Saint-Domingue, dans le tiers occidental de l’île d’Hispaniola – l’actuelle Haïti – au XVIIe siècle. À la fin du XVIIIe siècle, la population réduite en esclavage s’est rebellée et a fini par proclamer l’indépendance. Au XIXe siècle, les Français ont exigé une compensation pour les anciens esclavagistes du peuple haïtien, et non l’inverse.

Tout comme l’héritage de l’esclavage aux États-Unis a créé une profonde disparité économique entre Noirs et Blancs, l’impôt sur sa liberté que la France a contraint Haïti à payer – désigné à l’époque comme une « indemnité » – a gravement compromis la capacité du pays nouvellement indépendant à prospérer.

Le coût de l’indépendance

Haïti a officiellement proclamé son indépendance de la France le 1er janvier 1804. En octobre 1806, à la suite de l’assassinat du premier chef d’État haïtien, le pays a été scindé en deux, avec Alexandre Pétion au pouvoir dans le sud et Henry Christophe dans le nord.

Bien que les deux dirigeants haïtiens soient des vétérans de la révolution haïtienne, les Français n’avaient jamais totalement renoncé à reconquérir leur ancienne colonie.

En 1814, Louis XVIII, qui devient roi après la chute de Napoléon plus tôt cette année-là, a envoyé trois commissaires en Haïti pour évaluer la volonté des dirigeants du pays de se rendre. Christophe, couronné roi en 1811, est resté inflexible face au plan dévoilé de la France visant à rétablir l’esclavage. Menace de guerre à l’appui, le membre le plus influent du cabinet de Christophe, le baron de Vastey, affirmait :

« Notre indépendance sera garantie par la pointe de nos baïonnettes ! »

À l’inverse, Pétion, le dirigeant du Sud d’Haïti, était disposé à négocier, espérant que le pays pourrait peut-être payer la France pour obtenir la reconnaissance de son indépendance.

En 1803, Napoléon avait vendu la Louisiane aux États-Unis pour 15 millions de dollars. Se servant de ce montant comme référence, Pétion proposa de payer la même somme. Refusant tout compromis avec ceux qu’il considérait comme des « esclaves marrons », Louis XVIII rejeta l’offre.

Pétion mourut subitement en 1818, mais Jean-Pierre Boyer, son successeur, poursuivit les négociations. Celles-ci continuèrent néanmoins de piétiner en raison de l’opposition tenace de Christophe. « Toute indemnisation des ex-colonistes », déclarait le gouvernement de Christophe, était « inadmissible ».

À la mort de Christophe en octobre 1820, Boyer réunifia les deux parties du pays. Toutefois, même sans l’obstacle que représentait Christophe, Boyer échoua à plusieurs reprises à négocier avec succès la reconnaissance de l’indépendance d’Haïti par la France. Déterminé à obtenir au moins une suzeraineté sur l’île – ce qui aurait fait d’Haïti un protectorat français –, Louis XVIII repoussa les deux commissaires envoyés par Boyer à Paris en 1824 pour tenter de négocier une indemnité en échange d’une reconnaissance.

Le 17 avril 1825, Charles X, frère de Louis XVIII et nouveau roi de France, fit soudain volte-face. Il émit un décret stipulant que la France reconnaîtrait l’indépendance haïtienne, mais uniquement contre la somme de 150 millions de francs – soit près du double des 80 millions de francs que les États-Unis avaient payés pour le territoire de la Louisiane.

Le baron de Mackau, que Charles X envoya pour transmettre l’ordonnance, arriva en Haïti en juillet, accompagné d’une escadre de 14 bricks de guerre transportant plus de 500 canons. Ses instructions précisaient que sa mission « n’était pas une négociation ». Ce n’était pas non plus de la diplomatie. C’était de l’extorsion.

Sous la menace d’une guerre violente et d’un blocus économique imminent, le 11 juillet 1825, Boyer signa le document fatal, qui déclarait :

« Les habitants actuels de la partie française de Saint-Domingue paieront […] en cinq versements égaux […] la somme de 150 000 000 de francs, destinée à indemniser les anciens colons. »

Une prospérité française fondée sur la pauvreté haïtienne

Des articles de journaux de l’époque montrent que le roi de France savait pertinemment que le gouvernement haïtien était à peine en mesure de réaliser ces paiements, la somme représentant près de six fois les recettes annuelles totales d’Haïti. Le reste du monde semblait d’accord sur le caractère absurde de l’accord. Un journaliste britannique nota que le « prix énorme » représentait une « somme que peu d’États en Europe pourraient supporter de sacrifier ».

Contraint d’emprunter 30 millions de francs à des banques françaises pour effectuer les deux premiers versements, il n’est guère surprenant qu’Haïti ait rapidement fait défaut. Pourtant, Louis-Philippe envoya une nouvelle expédition en 1838 avec 12 navires de guerre pour forcer la main du président haïtien. La révision de 1838, qualifiée à tort de « traité d’amitié », réduisit le montant restant à 60 millions de francs, mais le gouvernement haïtien fut de nouveau sommé de contracter des emprunts écrasants pour régler le solde.

Ce sont les Haïtiens qui ont payé le plus lourd tribut à ce vol par la France. Boyer imposa des taxes draconiennes pour rembourser les prêts. Et tandis que Christophe développait un système scolaire national durant son règne, sous Boyer et sous tous les présidents suivants, de tels projets durent être suspendus.

De plus, des chercheurs ont montré que la dette de l’indépendance et son impact sur le Trésor public haïtien sont directement responsables non seulement du sous-financement de l’éducation au XXe siècle, mais aussi du manque de soins de santé et de l’incapacité du pays à développer ses infrastructures publiques.

Une enquête menée en 2022 par le New York Times a en outre révélé que les Haïtiens avaient fini par verser plus de 112 millions de francs au cours de sept décennies, soit 560 millions de dollars en valeur actualisée (525 millions d’euros). (Un coût estimé en perte de croissance économique de 21 à 115 milliards de dollars (de 20 à 108 milliards d’euros) par le New York Times, ndlr).

Conscient de la gravité de ce scandale, l’économiste français Thomas Piketty a estimé que la France devrait restituer au moins 30 milliards d’euros à Haïti.

Une dette à la fois morale et matérielle

Les anciens présidents français, de Jacques Chirac à François Hollande en passant par Nicolas Sarkozy, entretiennent un historique de punitions, d’esquives ou de minimisations face aux demandes haïtiennes de réparation.

En mai 2015, lorsque François Hollande devint seulement le deuxième chef d’État français à visiter Haïti, il reconnut que son pays devait « solder la dette ». Plus tard, réalisant qu’il venait sans le vouloir d’alimenter les arguments juridiques déjà préparés par l’avocat Ira Kurzban au nom du peuple haïtien, le président français précisa qu’il entendait par là une dette uniquement « morale ».

Nier que les conséquences de l’esclavage aient également été matérielles, c’est nier l’histoire même de la France. Celle-ci a aboli tardivement l’esclavage, en 1848, dans ses dernières colonies de la Martinique, la Guadeloupe, La Réunion et la Guyane française, qui sont encore aujourd’hui des territoires français. Par la suite, le gouvernement français a une nouvelle fois démontré qu’il comprenait bien le lien entre esclavage et économie en indemnisant financièrement les anciens propriétaires d’esclaves.

Conséquences du travail volé

L’écart de richesse raciale qui en résulte n’a rien d’une métaphore.

En France hexagonale, 14,1 % de la population vit sous le seuil de pauvreté. En Martinique et en Guadeloupe, en revanche, où plus de 80 % de la population est d’ascendance africaine, les taux de pauvreté sont respectivement de 38 % et 46 %. Le taux de pauvreté en Haïti est encore plus alarmant : 59 %.

Tandis que le produit intérieur brut par habitant – le meilleur indicateur du niveau de vie d’un pays – est de 44 690 dollars en France, il n’est que de 1 693 dollars en Haïti. Ces écarts peuvent être considérés comme les conséquences concrètes du travail volé de générations d’Africains et de leurs descendants.

Ces dernières années, des universitaires français ont commencé à s’investir de plus en plus dans le débat sur les préjudices de long terme que l’indemnité a causés à Haïti. Pourtant, ce qui revient en pratique à une absence de commentaire a longtemps été la seule réponse du gouvernement actuel de la France sous la présidence d’Emmanuel Macron.

Le 17 avril 2025, jour du bicentenaire de l’ordonnance d’indemnité, Macron a enfin brisé le silence. Dans un communiqué officiel, il a reconnu la « lourde indemnité financière » imposée par la France à Haïti et a annoncé « une commission mixte franco-haïtienne chargée d’examiner notre passé commun et d’en éclairer toutes les dimensions ». Mais il n’a pas abordé la question des réparations.

De nombreux Haïtiens, légitimement, ne s’en sont pas satisfaits : selon eux, la seule initiative de la France qui aurait véritablement de l’importance serait une proposition concrète de compensation économique pour le peuple haïtien.


Ceci est une version actualisée d’un article publié initialement, le 30 juin 2020.

The Conversation

Marlene L. Daut ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Il y a 200 ans, la France extorquait une « indemnité » à Haïti, dans l’un des plus grands braquages de l’histoire – et les Haïtiens veulent des réparations – https://theconversation.com/il-y-a-200-ans-la-france-extorquait-une-indemnite-a-ha-ti-dans-lun-des-plus-grands-braquages-de-lhistoire-et-les-ha-tiens-veulent-des-reparations-260650

Robots au conseil ? L’IA bouscule la gouvernance d’entreprise

Source: The Conversation – in French – By Julien Le Maux, Professeur titulaire, département de sciences comptables, HEC Montréal

Et si demain, un robot siégeait à la table des administrateurs ? Ce n’est plus un scénario de science-fiction. Si la question peut sembler surprenante, elle est déjà prise très au sérieux par certaines entreprises.

En 2014, la société Deep Knowledge Ventures a nommé un algorithme à son conseil d’administration. Plus récemment, la firme Realbotix a annoncé la nomination d’Aria, un robot doté d’intelligence artificielle (IA), comme conseillère stratégique.

L’intelligence artificielle s’invite progressivement dans les coulisses du pouvoir organisationnel. Son arrivée dans les conseils d’administration ouvre une ère nouvelle pour la gouvernance d’entreprise. Mais cette révolution soulève aussi de nombreuses questions éthiques, juridiques et stratégiques.

Directeur académique des certifications en ESG et en gouvernance d’entreprise à HEC Montréal, je mène des recherches sur la qualité de la gouvernance dans les organisations publiques et privées. Les travaux de ma co-auteure, Nadia Smaili, professeure à l’ESG UQAM, portent sur la gouvernance, la lutte contre la fraude et le lancement d’alerte éthique.

L’IA, nouvel outil de gouvernance

Les conseils d’administration sont confrontés à des volumes de données toujours plus importants et à des environnements d’incertitude grandissants. Dans ce contexte, l’IA apparaît comme un allié précieux. Elle permet de :

  • Analyser de grands volumes de données en temps réel ;

  • Identifier des signaux faibles (tendances, anomalies, risques émergents) ;

  • Améliorer la qualité des décisions stratégiques, notamment en réduisant les biais cognitifs ;

  • Optimiser la détection de fraudes ou de conflits d’intérêts.

Certaines entreprises utilisent déjà des outils d’IA pour appuyer les décisions de leurs conseils. L’IA y joue un rôle de vigie, de soutien analytique, voire de catalyseur dans les processus de décision.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Peut-on confier un mandat d’administrateur à une IA ?

C’est ici que les choses deviennent difficiles. Sur le plan juridique, dans la plupart des pays, un administrateur doit être une personne physique. Au Canada, la Loi canadienne sur les sociétés par actions est claire : un administrateur est une personne, avec des responsabilités fiduciaires bien définies.

Or, une IA ne peut être tenue responsable. Elle ne peut pas faire preuve de loyauté, de prudence ou de diligence au sens juridique. Elle ne peut pas non plus être poursuivie en cas de faute ni prendre en compte les dimensions éthiques ou sociales d’une décision. Bref, le droit n’est pas prêt pour des robots administrateurs.

L’illusion d’une gouvernance objective ?

L’un des arguments souvent avancés en faveur de l’IA est sa supposée objectivité. Contrairement aux humains, elle ne serait pas influencée par ses émotions, ses intérêts personnels ou ses relations. En théorie, cela permettrait de réduire les biais comportementaux qui affectent parfois les décisions des conseils.

Mais cela reste une illusion, car une IA est formée à partir de données humaines, souvent biaisées. Elle peut donc reproduire, voire amplifier, des discriminations existantes. Et contrairement à un administrateur humain, elle ne peut pas faire preuve de jugement dans des situations ambiguës ou éthiquement sensibles.

Gouvernance augmentée ou gouvernance automatisée ?

Faut-il dès lors rejeter l’IA ? Non. Mais il faut bien distinguer deux usages :

  • L’IA comme outil d’aide à la décision, au service des administrateurs humains (gouvernance augmentée) ;

  • L’IA comme substitut aux administrateurs (gouvernance automatisée).

La première option est réaliste et déjà utilisée. La seconde est encore largement théorique — et probablement risquée.

Comment les humains perçoivent-ils l’IA au conseil ?

Un autre enjeu réside dans l’acceptabilité sociale et psychologique de ces outils. Des recherches récentes montrent que les administrateurs humains restent souvent méfiants envers les recommandations issues d’un algorithme. L’effet « boîte noire » — l’opacité des décisions de l’IA — nuit à la confiance.

Certaines entreprises font face à un paradoxe : elles investissent dans des outils d’IA avancés… mais leurs dirigeants n’en tiennent pas compte dans leurs décisions. À l’inverse, d’autres conseils en viennent à s’en remettre trop aveuglément à la machine.

Le véritable défi est donc l’équilibre entre collaboration et esprit critique.

Vers une gouvernance hybride et responsable

L’IA transforme progressivement le paysage de la gouvernance. Mais cette transformation ne doit pas se faire au détriment des principes fondamentaux de responsabilité, de transparence et de délibération collectives.

La bonne approche n’est ni de rejeter l’IA, ni de l’ériger en oracle. Elle consiste à construire des conseils d’administration hybrides, où les compétences humaines et les capacités technologiques se complètent. Cela suppose aussi de :

  • Former les administrateurs aux enjeux de l’IA ;

  • Mettre en place des comités d’éthique algorithmique ;

  • Adopter des règles de transparence et d’audit des systèmes utilisés ;

  • Et veiller à ce que l’humain reste maître de la décision finale.

Un tournant irréversible

L’IA dans les conseils d’administration n’est plus une idée futuriste. Elle est déjà là, sous différentes formes, et continuera à s’imposer. La question n’est pas de savoir si elle doit être utilisée, mais comment, par qui, et dans quelles limites.

Il est temps de repenser la gouvernance à l’ère algorithmique — sans tomber dans l’aveuglement technologique, mais sans se réfugier non plus dans un conservatisme paralysant. Car une chose est sûre : le futur de la gouvernance ne se fera pas sans l’IA… mais il ne se fera pas sans humains non plus.

La Conversation Canada

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Robots au conseil ? L’IA bouscule la gouvernance d’entreprise – https://theconversation.com/robots-au-conseil-lia-bouscule-la-gouvernance-dentreprise-257770

Lors des canicules, notre cerveau ne s’aligne pas toujours avec le thermomètre et peut nous mettre en danger

Source: The Conversation – in French – By Elisabeth Bourgeois, Économiste, centrée sur les enjeux de climat, d’énergie et de vulnérabilités sociales, Université Savoie Mont Blanc

Pourquoi avons-nous tant de mal à nous adapter au changement climatique ? Quand l’asphalte chauffe, le thermomètre ne suffit pas à guider notre action : c’est notre manière de lire ses chiffres qui va décider de nos gestes. Perceptions, émotions et normes sociales forment un récit qui guide nos comportements – et qui façonne nos vulnérabilités face aux chaleurs extrêmes.


Il est 13 heures pile à l’école Joliot‑Curie dans une ville du Val‑de‑Marne. Un élève braque un thermomètre infrarouge sur la dalle : 52 °C. Trois pas plus loin, sous le paillis d’un jeune tilleul planté dans le cadre du programme européen OASIS – présenté comme étude de cas sur le portail Climate‑ADAPT de l’Agence européenne de l’environnement – le thermomètre tombe à 38 °C. Les enfants, médusés, rebaptisent la zone « four » et déplacent leur ballon vers l’ombre : en quelques secondes, la température devient un récit collectif qui reprogramme des gestes.

Pour réussir l’adaptation au changement climatique, à l’image de ces écoliers, nous devons voir les vagues de chaleur comme un récit partagé, avec des actions modulables. À cet égard, on dispose déjà d’une décennie de recherche internationale – et de l’expérience de quelques villes qui ont déjà mis ces travaux au service de la fraîcheur.

Les personnes en bonne santé plus susceptibles d’ignorer les risques de la chaleur

Au printemps 2025, nous avons publié une enquête, avec deux collègues économistes de l’énergie, dans la revue scientifique Climate Policy. Trois cents Français de plus de 55 ans, issus de 13 régions, étaient appelés à réagir à deux scénarios : l’un de cinq jours annoncés à 33 °C et, le deuxième, de cinq jours à 36 °C.

Ils devaient cocher, parmi une liste de cinq gestes protecteurs (boire plus d’eau, adapter sa tenue vestimentaire, prendre des mesures pour réguler au mieux la température de son logement, solliciter une aide extérieure et chercher un lieu frais), ceux qu’ils prévoyaient de réaliser.

Leurs réponses nous ont permis d’évaluer leurs croyances dans la probabilité d’une canicule et sa gravité pour leur santé, ainsi que la nature de leurs émotions face à ces scénarios.

De fait, les participants se disant « en pleine forme » passaient en moyenne de 3,6 gestes envisagés à 33 °C à 1,8 geste à 36 °C : près de deux fois moins. Ceux qui se déclaraient « un peu inquiets » suivaient le mouvement inverse : de 2,9 gestes à 4,4 (+ 52 %).

Certes, l’exercice reste déclaratif : il mesure l’intention et pas l’action. Mais des synthèses de psychologie sociale montrent qu’environ 40 % des comportements observés s’éclairent par les intentions déclarées. Dit autrement : quand l’intention augmente, le comportement suit souvent – pas toujours, mais suffisamment pour orienter à bon escient l’action publique.

Il suffit de trois degrés de plus pour que la vigilance change de camp et que la lecture de la situation change du tout au tout. Ces résultats prolongent ceux d’une méta‑analyse publiée dans Nature Climate Change. Notre perception du risque, notre sentiment d’efficacité et nos émotions expliquent près d’un tiers des conduites d’adaptation individuelles, davantage encore que l’âge ou la prise de médicaments comme des bêta-bloquants !

Le cerveau, pour le dire vite, règle le thermostat du corps. C’est notre « état intérieur » qui dicte pour beaucoup notre aptitude à nous adapter – et donc, notre vulnérabilité face aux chaleurs extrêmes.

Environnement, individu et comportement : un triptyque indissociable

Comme cela a été mis en évidence par une vaste revue de littérature publiée en 2019, les comportements face à la chaleur résultent toujours de la conjonction de trois types de facteur :

  • un facteur environnemental (géométrie urbaine, albédo – la capacité d’une surface à réfléchir la lumière –, circulation d’air…),

  • un facteur personnel (âge, santé, attentes, croyances…),

  • et, enfin, un facteur comportemental (type d’activité, normes sociales…).

Ces trois piliers sont indispensables pour prendre en compte la diversité des situations individuelles.

Les indicateurs utilisés pour évaluer le confort thermiques ne sont pertinents qu’en intérieur, et ne s’appliquent donc pas aux personnes actives en extérieur.
CC BY-NC-SA

Des indicateurs couramment utilisés pour évaluer le confort thermique, le Predicted Mean Vote (PMV) et le Physiologically Equivalent Temperature (PET) l’illustrent bien : le premier estime le « vote thermique moyen » d’un groupe assis dans un bureau climatisé et le second traduit l’état thermique équivalent pour un individu immobile.

Parfaits en intérieur, ces outils montrent leurs limites lorsqu’on les applique à un joggeur, à un ouvrier ou à des enfants dans une cour d’école. Autant dire que prédire la sensation d’un joggeur marseillais avec un modèle mis au point dans une chambre climatique danoise équivaudrait à calibrer un sous‑marin avec un altimètre.




À lire aussi :
Végétaliser les cours de récréation pour encourager la curiosité des enfants


Pourquoi et comment s’adapter au changement climatique

Les chiffres sont têtus et l’impact des vagues de chaleur difficile à ignorer. Par exemple :

L’adaptation n’a donc de sens que si l’on agit, en même temps, sur la façon dont les habitants lisent, ressentent et anticipent les degrés supplémentaires. Un espace vert ou un refuge climatisé ne suffisent pas : encore faut‑il que chacun sache où ils sont, quand ils ouvrent, ce qu’on y trouve et qu’on s’y sente légitime. C’est le rôle des récits collectifs.

Le retour d’expérience des villes pionnières montre que c’est possible :

Le parc de la citadelle, à Barcelone (Espagne), est un exemple de refuge climatique.
Barcelona for Climate

Mais les infrastructures ne suffisent pas. Elles rendent possible le geste (se déplacer, s’abriter, ralentir…), mais c’est d’abord le message ciblé qui fournira la clé cognitive pour le faire (« Je suis concerné », « Je sais quoi faire », « Je peux effectivement le faire »).

Adaptation et action publique : comment débusquer le biais d’invulnérabilité

Il est donc essentiel de tenir compte des éléments de psychologie et des biais de perception, mentionnés plus haut, pour améliorer l’adaptation climatique, et, en particulier, l’action publique dans ce domaine.

Réécrire les alertes est la première évidence. Ainsi, des messages d’ordre général comme « Buvez de l’eau » glisseront sur les profils les plus optimistes. Au contraire, un SMS nominatif rappelant, par exemple, qu’un traitement diurétique triple le risque de déshydratation va augmenter significativement l’adoption de gestes de protection et réduire le risque de stress thermique chez les personnes âgées.

En Finlande, par exemple, le service météorologique publie des avertissements relatifs aux températures et l’institut finnois pour la santé et le bien-être (THL) publie des guides spécifiques pour les crèches et écoles. La Ville d’Helsinki a d’ailleurs évalué l’adaptation au climat de ses écoles et de ses garderies.

Reste le cas des « invincibles volontaires » – ceux qui ont décidé qu’ils supporteront la chaleur. Là, l’outil le plus efficace n’est pas le gobelet d’eau mais l’autodiagnostic.

Un quiz de deux minutes, intégré à une appli de running par exemple, pourrait faire virer l’écran au rouge dès que l’humidex – indice combinant température et humidité – tutoie le seuil de danger. La liberté d’aller courir demeure, mais le sportif ne peut plus ignorer les risques.

Planter des arbres, enfin, est utile en ville pour limiter l’effet îlot de chaleur urbain (ICU), mais doit être fait avec discernement. Selon la Commission européenne, couvrir 30 % de la surface urbaine par le feuillage des arbres (canopée) permettrait d’éviter plus de 2 500 décès prématurés en Europe chaque été. Mais si un tilleul avenue Montaigne (Paris) va simplement flatter Instagram, le même tilleul à Clichy‑sous‑Bois (Seine-Saint-Denis) devient un acte de santé publique.

Ces enseignements ne suffiront probablement pas à dompter l’été 2050. Ils rappellent cependant que la chaleur meurtrière n’est pas qu’une donnée météorologique, mais avant tout un récit à réécrire sans cesse – avec des SMS, des cours, des QR codes sur les abribus et des arbres là où ils comptent.

Retour à Joliot‑Curie. Les élèves ont rangé le thermomètre et filent sous l’ombre maigre mais tangible du jeune tilleul. Le thermomètre ment rarement, mais nos certitudes, elles, peuvent tuer. Les tempérer – par un message bien tourné, un tilleul bien placé, un voisin bien informé – est tout aussi important que de faire tomber la température.

The Conversation

Elisabeth Bourgeois a reçu des financements de l’ANR (ANR‑18‑EURE‑0016 – Solar Academy) et de la Public Trust in Health Chair (Grenoble École de Management). Aucun autre intérêt déclaré.

ref. Lors des canicules, notre cerveau ne s’aligne pas toujours avec le thermomètre et peut nous mettre en danger – https://theconversation.com/lors-des-canicules-notre-cerveau-ne-saligne-pas-toujours-avec-le-thermometre-et-peut-nous-mettre-en-danger-261012

Canicule : soulignons, sans état d’âme, nos progrès d’adaptation depuis 2003

Source: The Conversation – in French – By François Lévêque, Professeur d’économie, Mines Paris – PSL

Depuis 2003, l’Europe a réalisé des progrès conséquents dans l’adaptation aux vagues de chaleur : en proportion, on meurt moins, même si les températures sont plus élevées. Et demain ?


La chaleur tue : on a recensé plusieurs centaines de décès à Paris ainsi que dans d’autres grandes capitales européennes lors de la canicule de mi-juin à début juillet 2025. Le nombre de morts aurait triplé par rapport à la normale du fait du changement climatique, selon une estimation réalisée par des chercheurs britanniques.

Ces chiffres font peur. Ils masquent cependant les grands progrès réalisés pour limiter notre vulnérabilité face à la multiplication des vagues de chaleur. La chaleur tue mais de moins en moins, grâce à nos actions individuelles et collectives d’adaptation. Il faut s’en féliciter, et non l’ignorer.

Les données d’observation de mortalité par les agences sanitaires n’étant pas encore disponibles, le calcul qui précède repose sur des modèles et des méthodes, connus des spécialistes. La plupart sont désormais suffisamment au point pour rendre compte en confiance de leurs résultats sur les progrès de l’adaptation.

La canicule de 2003, ou l’Année zéro

Commençons notre examen en prenant pour point de repère la canicule de 2003 en France. Cet été-là le pays a connu une véritable hécatombe : près de 15 000 décès en excès.

En contrecoup, les pouvoirs publics ont décidé toute une série d’actions préventives pour protéger la population des grandes chaleurs : mise en place d’un système d’alerte annonçant les canicules, campagnes d’information auprès du public sur les façons de se protéger, formation du personnel de santé, ouverture d’espaces climatisés dans les maisons de retraite et les services hospitaliers, etc.

Quelques années plus tard, une équipe regroupant des chercheurs de l’Inserm, de Météo France et de Santé publique France s’est demandé si ces mesures avaient bien été suivies d’effet. À partir d’un modèle reliant mortalité et températures observées en France sur vingt-cinq ans, ils ont estimé que la canicule de l’été 2006 s’était traduite par une baisse de plus de moitié du nombre de décès en excès.

Ce progrès ne peut pas, bien sûr, être imputé aux seules actions publiques. La canicule de 2003 a été à l’origine d’une prise de conscience généralisée des méfaits de la chaleur, de changement des comportements individuels et d’achat d’appareils de rafraîchissement, tels que ventilateurs et climatiseurs, mais aussi d’équipements plus innovants apparus plus tard sur le marché, comme les rafraîchisseurs d’air ou les pompes à chaleur réversibles.

Attention, le frigidaire distributeur de glaçons ne fait pas partie de cette panoplie ! En cas de fortes températures, il faut éviter de boire de l’eau glacée pour se rafraîchir. Elle ralentit la sudation, mécanisme fondamental de l’organisme pour lutter contre la chaleur.

Pourquoi il est délicat de comparer 2022 et 2003

L’été 2022 a constitué la seconde saison la plus chaude jamais enregistrée dans l’Hexagone. Le nombre de décès en excès a été toutefois cinq fois moindre que celui de 2003, mais on ne sait pas précisément quelle part de cette baisse est simplement due à des conditions caniculaires un peu moins défavorables.

La comparaison 2003/2022 est tout aussi délicate au niveau européen. On dispose bien, à cette échelle, de travaux d’estimation de la surmortalité en lien avec la chaleur aux deux dates, mais ils reposent sur des méthodes différentes qui rendent leurs résultats peu comparables : 74 483 décès pour la canicule de 2003 en Europe contre 61 672 morts lors de la canicule de 2022.

En effet, le premier chiffre mesure des décès en excès par rapport à une période de référence, tandis que le second découle de l’application d’une méthode épidémiologique. Celle-ci, plus sophistiquée, mais aussi plus rigoureuse, consiste à estimer pour une ville, une région ou un pays, le risque de mortalité relatif en fonction de la température, à tracer une « courbe exposition-réponse », selon le jargon des spécialistes.

Pour l’Europe entière, le risque est le plus faible autour de 17 °C à 19 °C, puis grimpe fortement au-delà. Connaissant les températures journalières atteintes les jours de canicule, on en déduit alors le nombre de décès associés à la chaleur.

Quelles canicules en Europe à l’horizon 2050 ?

Résumé ainsi, le travail paraît facile. Il exige cependant une myriade de données et repose sur de très nombreux calculs et hypothèses.

C’est cette méthode qui est employée pour estimer la surmortalité liée aux températures que l’on rencontrera d’ici le milieu ou la fin de ce siècle, en fonction, bien sûr, de différentes hypothèses de réchauffement de la planète. Elle devrait par exemple être décuplée en Europe à l’horizon 2100 dans le cas d’un réchauffement de 4 °C.

Ce chiffre est effrayant, mais il ne tient pas compte de l’adaptation à venir des hommes et des sociétés face au réchauffement. Une façon de la mesurer, pour ce qui est du passé, consiste à rechercher comment la courbe exposition-réponse à la température se déplace dans le temps. Si adaptation il y a, on doit observer une mortalité qui grimpe moins fortement avec la chaleur qu’auparavant.

C’est ce qui a été observé à Paris en comparant le risque relatif de mortalité à la chaleur entre la période 1996-2002 et la période 2004-2010. Aux températures les plus élevées, celles du quart supérieur de la distribution, le risque a diminué de 15 %.

Ce chiffre ne semble pas très impressionnant, mais il faut savoir qu’il tient uniquement compte de la mortalité le jour même où une température extrême est mesurée. Or, la mort associée à la chaleur peut survenir avec un effet de retard qui s’étend à plusieurs jours voire plusieurs semaines.

La prise en compte de cet effet diminue encore le risque entre les deux périodes : de 15 % à 50 %. Cette baisse de moitié est plus forte que celle observée dans d’autres capitales européennes comme Athènes et Rome. Autrement dit, Paris n’est pas à la traîne de l’adaptation aux canicules.

De façon générale et quelle que soit la méthode utilisée, la tendance à une diminution de la susceptibilité de la population à la chaleur se vérifie dans nombre d’autres villes et pays du monde développé. L’adaptation et la baisse de mortalité qu’elle permet y est la règle.

La baisse de la mortalité en Europe compensera-t-elle l’augmentation des températures ?

C’est une bonne nouvelle, mais cette baisse de la surmortalité reste relative. Si les progrès de l’adaptation sont moins rapides que le réchauffement, il reste possible que le nombre de morts en valeur absolue augmente. En d’autres termes, la mortalité baisse-t-elle plus vite ou moins vite que le réchauffement augmente ?

Plus vite, si l’on s’en tient à l’évolution observée dans dix pays européens entre 1985 et 2012. Comme ces auteurs l’écrivent :

« La réduction de la mortalité attribuable à la chaleur s’est produite malgré le décalage progressif des températures vers des plages de températures plus chaudes observées au cours des dernières décennies. »

En sera-t-il de même demain ? Nous avons mentionné plus haut un décuplement en Europe de la surmortalité de chaleur à l’horizon 2100. Il provient d’un article paru dans Nature Medicine qui estimait qu’elle passerait de 9 à 84 décès attribuables à la chaleur par tranche de 100 000 habitants.

Mais attention : ce nombre s’entend sans adaptation aucune. Pour en tenir compte dans leurs résultats, les auteurs de l’article postulent que son progrès, d’ici 2100, permettra un gain de mortalité de 50 % au maximum.

Au regard des progrès passés examinés dans ce qui précède, accomplis sur une période plus courte, une réduction plus forte ne semble pourtant pas hors de portée.

Surtout si la climatisation continue de se développer. Le taux d’équipement d’air conditionné en Europe s’élève aujourd’hui à seulement 19 %, alors qu’il dépasse 90 % aux États-Unis. Le déploiement qu’il a connu dans ce pays depuis un demi-siècle a conduit à une forte baisse de la mortalité liée à la chaleur.

Une moindre mortalité hivernale à prendre en compte

Derrière la question de savoir si les progrès futurs de l’adaptation permettront de réduire la mortalité liée à la chaleur de plus de 50 % en Europe, d’ici 2100, se joue en réalité une autre question : la surmortalité associée au réchauffement conduira-t-elle à un bilan global positif ou bien négatif ?

En effet, si le changement climatique conduit à des étés plus chauds, il conduit aussi à des hivers moins rudes – et donc, moins mortels. La mortalité associée au froid a été estimée en 2020 à 82 décès par 100 000 habitants. Avec une élévation de température de 4 °C, elle devrait, toujours selon les auteurs de l’article de Nature Medicine, s’établir à la fin du siècle à 39 décès par 100 000 personnes.

Si on rapporte ce chiffre aux 84 décès par tranche de 100 000 habitants liés à la chaleur, cités plus haut, on calcule aisément qu’un progrès de l’adaptation à la chaleur de 55 % suffirait pour que la mortalité liée au froid et à la chaleur s’égalisent. Le réchauffement deviendrait alors neutre pour l’Europe, si l’on examine la seule mortalité humaine liée aux températures extrêmes.

Mais chacun sait que le réchauffement est aussi à l’origine d’incendies, d’inondations et de tempêtes mortelles ainsi que de la destruction d’écosystèmes.

Sous cet angle très réducteur, le réchauffement serait même favorable, dès lors que le progrès de l’adaptation dépasserait ce seuil de 55 %. Si l’on ne considère que le cas de la France, ce seuil est à peine plus élevé : il s’établit à 56 %.

Des conclusions à nuancer

La moindre mortalité hivernale surprendra sans doute le lecteur, plus habitué à être informé et alarmé en période estivale des seuls effets sanitaires négatifs du réchauffement. L’idée déroutante que l’élévation des températures en Europe pourrait finalement être bénéfique est également dérangeante. Ne risque-t-elle pas de réduire les motivations et les incitations des Européens à diminuer leurs émissions de gaz à effet de serre ?

C’est peut-être cette crainte qui conduit d’ailleurs les auteurs de l’article de Nature Medicine à conclure que :

« La mortalité nette augmentera substantiellement si l’on considère les scénarios de réchauffement les plus extrêmes et cette tendance ne pourra être inversée qu’en considérant des niveaux non plausibles d’adaptation. »

Notons également que ces perspectives concernent ici l’Europe. Dans les pays situés à basse latitude, la surmortalité liée aux températures est effroyable. Leur population est beaucoup plus exposée que la nôtre au changement climatique ; elle est aussi plus vulnérable avec des capacités d’adaptation qui sont limitées par la pauvreté.

À l’horizon 2100, la mortalité nette liée aux températures est estimée à plus de 200 décès pour 100 000 habitants en Afrique sub-saharienne et à près de 600 décès pour 100 000 habitants au Pakistan.

Concluons qu’il ne faut pas relâcher nos efforts d’adaptation à la chaleur en Europe, quitte à ce qu’ils se soldent par un bénéfice net. Les actions individuelles et collectives d’adaptation à la chaleur sauvent des vies. Poursuivons-les. Et ne relâchons pas pour autant nos efforts de réduction des émissions, qui sauveront des vies ailleurs, en particulier dans les pays pauvres de basses latitudes.


François Lévêque a publié, avec Mathieu Glachant, Survivre à la chaleur. Adaptons-nous, Odile Jacob, 2025.

The Conversation

François Lévêque ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Canicule : soulignons, sans état d’âme, nos progrès d’adaptation depuis 2003 – https://theconversation.com/canicule-soulignons-sans-etat-dame-nos-progres-dadaptation-depuis-2003-262091

Quand les femmes prenaient déjà la vague : l’histoire oubliée du surf californien

Source: The Conversation – in French – By Jeffrey Swartwood, Maître de conférences, Civilisation américaine, Université Bordeaux Montaigne

Mary-Ann Hawkins, championne de surf féminin de la côte Pacifique en 1938, en 1939 et en 1940. Wikimedias Commons, CC BY

Le surf se développe sur les côtes californiennes à partir des années 1920 pendant la période des « hommes de fer et planches en bois ». Dans ce milieu contre-culturel, un premier mouvement de femmes part alors à la recherche de la vague parfaite, malgré les injonctions et les stéréotypes de la période.


Le surf connaît aujourd’hui une nouvelle vague de popularité avec quelque 3,8 millions de pratiquants. Comme à chaque phase d’expansion de ce sport, l’équilibre se redessine entre son image de pratique contre-culturelle –  associée à la liberté, au sport dans les grands espaces – et sa place dans la culture dominante.

Malgré une augmentation considérable du surf féminin (entre 35 % et 40 % des pratiquants), l’imaginaire public entourant le surf reste (très) majoritairement masculin.

À l’heure actuelle, des surfeuses de shortboard comme celles de longboard voyagent en solo à travers le monde, surfent des grosses vagues, créent des modes de vie alternatifs et défient la vision traditionnelle de ce sport si longtemps orienté vers les hommes. Ces femmes suscitent à la fois l’intérêt du public et l’attention des chercheurs, comme en témoignent des ouvrages tels que Surfer Girls in the New World Order de Krista Comer.

Pourtant, le monde de la publicité, jusque dans la presse spécialisée, continue de présenter un déséquilibre : les photos d’action sont largement consacrées aux surfeurs masculins, tandis que les images de femmes, même de surfeuses professionnelles, sont encore souvent prises sur la plage ou sur un parking

L’icône contre-culturelle du surf semble être encore fortement genrée et, en ce sens, pas si contre-culturelle que ça. Et ce n’est pas un phénomène nouveau.

Une liberté d’homme ?

Dans les années 1960, à l’apogée de la révolution contre-culturelle aux États-Unis, la liberté du surf était représentée comme quasi exclusivement masculine.

Dans les premiers magazines tels que Surfer ou Surfing, malgré certaines exceptions, les photos d’action montrant des femmes surfant étaient rares, même quand il s’agissait de traiter la performance des surfeuses lors des compétitions, par exemple.

Pourtant, selon les récits traditionnels hawaiens, depuis ses débuts vers le XIIᵉ siècle, le surf était pratiqué autant par les femmes que les hommes. Avant l’arrivée des missionnaires occidentaux, les femmes étaient étroitement associées à l’histoire du surf hawaïen. Mais ces derniers, animés d’un zèle socioreligieux marqué par des normes strictes de séparation des sexes et une vision productiviste de la société, ont œuvré à l’éradication de l’activité. La pratique du surf a donc progressivement décliné – surtout chez les femmes – jusqu’à quasiment disparaitre pour tous à la fin du XIXe siècle.

Surf aux îles Sandwich, illustration datant de 1897 issue de l'un des journaux de voyage James Cook.
Surf aux îles Sandwich, illustration datant de 1897 issue de l’un des journaux de voyage James Cook.
British Library, CC BY

Le sport renaît au début du XXe siècle à Hawaii et en Californie, sous l’effet d’une curiosité presque ethnologique et d’une prise de conscience de son potentiel touristique. L’activité est alors devenue presque exclusivement masculine, au point que, dans son livre The History of Surfing, le champion de surf Nat Young ne mentionne les surfeuses californiennes que dans une petite parenthèse, vers la fin.

Des planches trop lourdes pour les femmes pour surfer ?

L’historien Scott Laderman explique que cela est dû non seulement au sexisme dominant mais aussi au fait que les surfeuses étaient rares car, avant la Deuxième Guerre mondiale, les planches étaient très lourdes et difficiles à manier. Surfeur reconnu, Mickey Munoz va plus loin en racontant qu’il n’y avait pas de femmes qui surfaient dans la Californie avant la fin des années 40 car les planches étaient trop lourdes.

Pourtant, confronté aux archives historiques et à une analyse approfondie, l’argument selon lequel les femmes ne pratiquaient pas, ou peu, le surf avant la fin des années 1950 ne tient pas la route. Des photosle prouvent, tout comme des articles de journaux et d’autres documents.

Le manque de maniabilité des planches de surf de l’époque est insatisfaisant pour expliquer la quasi-invisibilité des surfeuses de la période. Les planches étaient effectivement en bois et non en mousse, comme le montre la collection du musée Surfing Heritage and Culture Center de San Clemente. Mais leur poids variait énormément, allant de planches en balsa verni d’environ 10 kg à des mastodontes en séquoia pesant jusqu’à 45 kg (un longboard moderne en mousse et résine pèse entre 4 kg et 7 kg.

Et si les planches de trois mètres abondaient, des photographies et des références historiques à des planches plus courtes et plus légères évoquent une diversité plus grande que ne le laisse entendre le stéréotype.

Moins nombreuses que les hommes, mais bien présentes

Les surfeuses étaient vraisemblablement minoritaires sur la côte californienne, mais certaines femmes se consacraient malgré tout à ce sport et menaient une vie alternative. À ce jour, il est difficile de dire combien. Dans toute la Californie d’avant-guerre, il y avait probablement moins de 200 surfeurs et nous pourrions actuellement identifier une trentaine de surfeuses. À San Diego, dès 1925, Fay Baird Fraser, une jeune femme de 16 ans apprenait à surfer en tandem avec le sauveteur Charles Wright. Elle a ensuite continué à surfer seule dans la région, équipée de sa planche longue de 8 pieds (2,42 m).

Plus au nord, à Newport Beach, durant l’entre-deux-guerres, Duke Kahanamoku, hawaïen, champion olympique de natation et surfeur expert fut une figure clé de l’introduction du surf en Californie. Il rapporte avoir enseigné le surf à autant de femmes que d’hommes, et que parmi l’ensemble de ses élèves, tous sexes confondus, une jeune femme dénommée Bebe Daniels, de Corona Del Mar, était la meilleure.

Il y avait même quelques compétitions de surf avec une division féminine à la fin des années 1930. Mary Anne Hawkins, de Costa Mesa, a remporté ces championnats féminins de surf de la côte Pacifique en 1938, en 1939 et en 1940, à l’apogée de l’ère des planches en bois. Nous pourrions également mentionner les californiennes Vicki Flaxman ou Aggie Bane, parmi tant d’autres qui surfaient avant les années 50. Chacune de ces surfeuses talentueuses occupe une place bien documentée dans l’histoire des débuts du surf en Californie.

D’après l’historien Matt Warshaw, leur place était même telle, qu’à la fin des années 1940, alors que le surf évoluait à un rythme rapide et que le mode de vie des surfeurs s’ancrait dans la culture régionale, ces pionnières ont servi de modèle à toute la génération suivante de surfeurs californiens, hommes et femmes.

Selon Joe Quigg, fabriquant respecté de planches et figure iconique du surf, les femmes ont joué un rôle de premier plan dans la scène surf de Malibu dans les années 1940/50. Or, cette scène est devenue l’incarnation de la culture surf californienne, contribuant elle-même à façonner la contre-culture américaine des années 1950 et 1960. Dans un entretien, il va jusqu’à dire que la scène surf à Malibu était composé « de tous les âges et tous les sexes ».

À un moment où les récits traditionnels sont souvent remis en question, la construction de l’imaginaire du surf ne fait pas exception. Il est difficile d’imaginer que nous acceptions collectivement que dans les années 30, des garçons de 10 ans puissent traîner de lourdes planches jusqu’aux vagues pour apprendre, mais que les femmes, même adultes et nageuses accomplies passionnées de sports nautiques, ne le pouvaient pas. Elles le pouvaient, et elles le faisaient. T

out comme aujourd’hui, les femmes se lançaient dans les vagues, loin du rôle traditionnellement attribué à la petite amie qui attend avec patience sur la plage ou à la femme au foyer qui prépare soigneusement un pique-nique pour que son homme passe la journée à surfer. Face au sexisme de l’époque, elles ne représentaient qu’un faible pourcentage de la population des surfeurs. Cela souligne la nature hautement contre culturelle de leur pratique.

The Conversation

Jeffrey Swartwood est membre de l’International Association of Surfing Researchers, le Surf & Nature Alliance, l’Institut des Amériques et CLIMAS (EA4196) et l’Université Bordeaux Montaigne.

ref. Quand les femmes prenaient déjà la vague : l’histoire oubliée du surf californien – https://theconversation.com/quand-les-femmes-prenaient-deja-la-vague-lhistoire-oubliee-du-surf-californien-261868

Pourquoi mon téléphone ne sonne pas parfois ? Un expert répond

Source: The Conversation – in French – By Jairo Gutierrez, Professor, Department of Computer and Information Sciences, Auckland University of Technology

Une notification d’appel manqué sur l’écran du téléphone. (Tada Images)

J’éprouve un certain sentiment au creux de l’estomac lorsque j’attends un appel important. Vous savez de quoi il s’agit : un appel de votre patron, d’un nouvel employeur potentiel ou la nouvelle de l’accouchement imminent d’un être cher.

Dans ce genre de situation, j’ai l’habitude de fixer mon téléphone, en attendant qu’il sonne. Je m’assure — encore et encore — qu’il n’est pas en mode silencieux ou en mode « ne pas déranger ». Lorsque l’écran est hors de ma vue, je m’imagine entendre la sonnerie familière.

C’est alors qu’apparaît la notification d’appel manqué. Mais le téléphone n’a jamais sonné. Que s’est-il passé ?

Comment fonctionnent les appels mobiles ?

Lors d’un appel mobile sur les réseaux 4G ou 5G, l’appelant compose un numéro et son opérateur de réseau (Telstra ou OneNZ, par exemple) transmet la demande à l’appareil du destinataire.

Pour que cela fonctionne, les deux téléphones doivent être enregistrés auprès d’un sous-système multimédia IP — ou IMS — ce qui se produit automatiquement lorsque vous allumez votre téléphone. L’IMS est le système qui permet de combiner les appels vocaux, les messages et les communications vidéo.

Les deux téléphones doivent également être connectés à une antenne-relais 4G ou 5G. Le réseau de l’appelant envoie une invitation à l’appareil du destinataire, qui commence alors à sonner.

Ce processus est généralement très rapide. Mais au fur et à mesure que les générations de réseaux cellulaires ont évolué (vous vous souvenez de la 3G ?), devenant plus rapides et dotés d’une plus grande capacité, ils sont également devenus plus complexes, avec de nouveaux risques de dysfonctionnement.

Des pannes de téléphone aux « zones mortes »

Les téléphones mobiles utilisent la voix sur LTE (VoLTE) pour les réseaux 4G ou la voix sur la nouvelle radio (VoNR) pour la 5G. Ces technologies permettent de passer des appels vocaux sur ces deux types de réseaux et utilisent l’IMS mentionné ci-dessus.

Dans certains pays comme la Nouvelle-Zélande, si l’une ou l’autre de ces technologies n’est pas activée ou prise en charge par votre appareil (certains téléphones ont la VoLTE désactivée par défaut), celui-ci peut tenter de basculer sur le réseau 3G, qui a été désactivé en Australie en 2024 et qui est actuellement en cours de suppression progressive en Nouvelle-Zélande.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Si cette bascule échoue ou est retardée, le téléphone du destinataire peut ne pas sonner ou tomber directement sur la messagerie vocale.

Il est également possible que votre téléphone n’ait pas réussi à s’enregistrer sur le réseau IMS. Dans ce cas, en raison d’un problème logiciel, d’un problème de carte SIM ou d’un problème de réseau, le téléphone ne reçoit pas le signal d’appel et ne sonne pas.

Viennent ensuite les problèmes de transfert. Chaque antenne-relais couvre une zone particulière et, si vous vous déplacez, votre appel sera pris en charge par l’antenne qui offre la meilleure couverture. Parfois, votre téléphone utilise la 5G pour les données et la 4G pour la voix ; si le transfert entre la 5G et la 4G est lent ou échoue, l’appel risque de ne pas sonner. Si la 5G est utilisée à la fois pour les données et la voix, on a recours à la VoNR, qui n’est pas encore très répandue et peut échouer.

Les applications mobiles posent d’autres problèmes potentiels. Par exemple, sur Android, les fonctions agressives d’économie de la batterie peuvent restreindre les processus d’arrière-plan, y compris l’application du téléphone, l’empêchant de répondre aux appels entrants. Les applications tierces telles que les bloqueurs d’appels, les outils antivirus ou même les applications de messagerie peuvent également interférer avec les notifications d’appels.

Enfin, si votre téléphone se trouve dans une zone de mauvaise réception, il se peut qu’il ne reçoive pas le signal d’appel à temps pour sonner. Ces « zones mortes » sont plus fréquentes que les opérateurs de télécommunications ne veulent l’admettre. J’habite au bout d’une longue allée dans une banlieue bien couverte d’Auckland, en Nouvelle-Zélande. Mais, selon l’endroit où je me trouve dans la maison, je rencontre encore des zones mortes et, souvent, les applications d’appels compatibles wifi font sonner le téléphone de manière plus fiable.

Page de réglage de la batterie affichée sur l’écran d’un téléphone portable
Les fonctionnalités d’économie de batterie sur les téléphones peuvent restreindre les processus en arrière-plan, y compris l’application téléphonique, l’empêchant de répondre aux appels entrants.
(ymgerman/Shutterstock)

Que puis-je faire pour résoudre ce problème ?

Si votre téléphone ne sonne pas fréquemment en 4G ou 5G, il y a plusieurs choses que vous pouvez faire :

  • assurez-vous que la fonction VolTE/VoNR est activée dans vos paramètres réseau

  • redémarrez votre téléphone et activez le mode avion pour réinitialiser la connexion au réseau

  • vérifiez les paramètres d’optimisation de la batterie et excluez l’application téléphonique que vous utilisez

  • contactez votre opérateur pour confirmer la prise en charge et le provisionnement de VoLTE/VoNR.

Mais en fin de compte, il arrive qu’un appel échoue, et il n’y a pas grand-chose que l’on puisse faire pour y remédier. Ce qui, oui, est ennuyeux. Mais cela signifie aussi que vous avez une excuse sûre, techniquement justifiée, pour rater un appel de votre patron.

La Conversation Canada

Jairo Gutierrez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi mon téléphone ne sonne pas parfois ? Un expert répond – https://theconversation.com/pourquoi-mon-telephone-ne-sonne-pas-parfois-un-expert-repond-259863

Comment les « feux zombies » dans les tourbières du Grand Nord affectent le changement climatique global

Source: The Conversation – in French – By Apostolos Voulgarakis, AXA Chair in Wildfires and Climate Director, Laboratory of Atmospheric Environment & Climate Change, Technical University of Crete

Les feux dans le Grand Nord affectent l’atmosphère partout sur Terre. S’ils sont rendus plus fréquents par le changement climatique, ils contribuent à l’accélérer, notamment en libérant le carbone stocké par les tourbières.


Comprendre comment les mégafeux influencent le climat de notre planète est un défi de taille. Bien que les incendies aient toujours existé, presque partout sur la planète, ils restent l’un des éléments les moins compris du système Terre.

Récemment, le nombre de mégafeux dans les régions boréales et arctiques a beaucoup augmenté, ce qui a encore avivé l’attention de la communauté scientifique sur ces zones dont le rôle dans le climat de notre planète reste mystérieux.

En effet, le changement climatique joue probablement un rôle majeur dans l’augmentation du nombre d’incendies en Arctique ; mais les feux de forêt dans les hautes latitudes ne sont pas seulement un symptôme du changement climatique. Ils constituent une force accélératrice qui pourrait façonner l’avenir de notre climat d’une manière que nous sommes incapables de prédire actuellement.

La menace croissante des incendies dans le Grand Nord

À mesure que les températures mondiales augmentent, les grands incendies progressent vers le nord et atteignent l’Arctique. Le Canada, l’Alaska, la Sibérie, la Scandinavie et même le Groenland ont tous récemment connu des saisons de mégafeux parmi les plus intenses et les plus longues jamais enregistrées.

Outre les incendies de forêt classiques qui détruisent la végétation de surface, de nombreux incendies dans les hautes latitudes brûlent la tourbe, une couche dense et riche en carbone composée de matière organique partiellement décomposée. Bien qu’elles ne couvrent que 3 % de la surface terrestre, les tourbières sont l’un des plus importants réservoirs de carbone au monde, contenant environ 25 % du carbone présent dans les sols de la planète.

De plus, le réchauffement climatique est encore plus rapide aux hautes latitudes qu’ailleurs sur Terre (au pôle Nord du moins) — un phénomène appelé « amplification polaire », qui augmente la vulnérabilité des écosystèmes nordiques aux incendies, avec des conséquences potentiellement graves pour le climat mondial.

En effet, lorsque les tourbières s’enflamment, elles libèrent d’énormes quantités de « carbone fossile » emprisonné depuis des siècles, voire des millénaires. Les feux de tourbière, qui sont les incendies les plus importants et les plus persistants sur Terre, peuvent couver pendant de longues périodes, sont difficiles à éteindre et peuvent continuer à brûler sous terre tout au long de l’hiver, pour se rallumer à la surface au printemps. Ils ont récemment été qualifiés de « feux zombies ».

Si les conditions plus chaudes et plus sèches induites par le changement climatique rendent les forêts boréales plus inflammables, on s’attend également à ce qu’elle augmente la fréquence et l’intensité des feux de tourbe, transformant potentiellement les tourbières de puits de carbone (qui absorbent et stockent le carbone contenu dans l’atmosphère) en sources nettes d’émissions de gaz à effet de serre.




À lire aussi :
Voir la planète respirer depuis l’espace, ou comment mesurer les gaz à effet de serre par satellite


Un tel changement pourrait déclencher une « boucle de rétroaction », c’est-à-dire qu’un réchauffement climatique entraînerait davantage d’émissions de carbone, qui à leur tour accéléreraient le changement climatique.

Les mégafeux affectent la santé humaine, entre stress, deuil, et pollution

Les mégafeux dégagent aussi de grandes quantités de particules de fumée dans l’atmosphère sous forme d’aérosols, contribuant de manière significative à la dégradation de la qualité de l’air à l’échelle locale et régionale. Ces particules sont nocives pour la santé humaine et peuvent provoquer de graves problèmes respiratoires et cardiovasculaires, tandis qu’une exposition prolongée peut entraîner un stress important, des hospitalisations et une augmentation de la mortalité. Les incendies sont également la cause de troubles mentaux liés aux pertes de proches, d’un foyer, de moyens de subsistance ou aux évacuations.

L’impact sur les conditions météorologiques à travers le monde est ressenti à court terme

Au-delà de leurs effets à long terme sur le climat, les émissions des mégafeux peuvent également influencer les conditions météorologiques à plus court terme par leur impact sur les niveaux de pollution atmosphérique. Les particules de fumée interagissent avec la lumière du soleil et les processus de formation des nuages, affectant par la suite les températures, les régimes des vents et les précipitations.

Par exemple, nous avons récemment démontré, sur les impacts atmosphériques à grande échelle des incendies, que les aérosols issus des incendies au Canada en 2023 ont entraîné une baisse de la température de l’air en surface qui s’est étendue à tout l’hémisphère nord. Le refroidissement a été particulièrement prononcé au Canada (jusqu’à -5,5 °C en août), où se situaient les émissions, mais il a également été significatif dans des régions éloignées telles que l’Europe de l’Est et même la Sibérie (jusqu’à environ -2,5 °C en juillet).

L’anomalie moyenne de la température hémisphérique que nous avons calculée (proche de -1 °C) souligne le potentiel des émissions régionales importantes provenant des mégafeux à perturber les conditions météorologiques pendant des semaines sur tout un hémisphère, avec des implications profondes pour les prévisions.

Un effet peu intuitif de ces perturbations est qu’ils impactent la fiabilité des prévisions météorologiques. Des prévisions peu fiables peuvent perturber les activités quotidiennes et présenter des risques pour la sécurité publique, en particulier lors d’événements extrêmes tels que les vagues de chaleur ou les tempêtes. Elles ont également de graves conséquences pour des secteurs tels que l’agriculture, la pêche et les transports, où la planification dépend fortement de prévisions précises et opportunes.

Les effets méconnus des feux de tourbe sur le climat

Bien qu’il soit essentiel d’intégrer les rétroactions des feux de tourbières dans les modèles du système Terre pour obtenir des projections climatiques précises (la plupart des modèles existants ne prennent pas en compte les feux de tourbières).

Il est donc primordial de comprendre le comportement de combustion lente des sols organiques, leur inflammabilité et la manière dont ces processus peuvent être représentés à l’échelle mondiale.

Les efforts de recherche récents visent à combler cette lacune. Par exemple, à l’Université technique de Crète, nous collaborons avec le groupe de recherche Hazelab de l’Imperial College London et le Leverhulme Centre for Wildfires, Environnement et Société afin de mener des recherches sur le terrain et des expériences de pointe sur la combustion lente de la tourbe, dans le but de mieux comprendre les mécanismes complexes des feux de tourbe.

L’intégration de ces résultats de laboratoire dans les modèles numériques du système Terre doit permettre de modéliser les émissions de feux de manière plus précise, ce qui pourrait modifier nos prévisions du climat futur sur Terre.

En quantifiant comment les feux de forêts boréales et de tourbières affectent aujourd’hui l’atmosphère, nous devrions être en mesure d’améliorer la qualité des projections de l’augmentation de la température globale moyenne, mais aussi d’affiner les prévisions des impacts climatiques régionaux liés aux aérosols, tels que les changements de régime pluviométrique ou l’accélération de la fonte des glaces en Arctique.

Relever le défi des feux dans le Grand Nord

Il ne fait aucun doute que nous sommes entrés dans une ère où les mégafeux sont plus fréquents et ont des conséquences catastrophiques. Les incendies récents dans les régions boréales et arctiques révèlent un changement radical dans la nature des feux de forêt aux hautes latitudes, ce qui nécessite une attention et une action urgente.

À mesure que la planète continue de se réchauffer, les incendies dans les hautes latitudes devraient contribuer à façonner l’avenir de notre planète. Les incendies de forêt massifs, tels que ceux qui ont ravagé le Canada en 2023, ont non seulement brûlé des millions d’hectares, mais ont également contraint des centaines de milliers de personnes à évacuer leurs maisons. Des quantités sans précédent de fumée ont recouvert certaines régions d’Amérique du Nord d’un brouillard toxique, entraînant la fermeture d’écoles, l’émission d’alertes sanitaires et obligeant les citoyens à rester chez eux pendant plusieurs jours. De tels événements reflètent une tendance croissante. Ils soulignent pourquoi il est non seulement impératif sur le plan scientifique, mais aussi moralement responsable, de faire progresser la recherche afin de mieux comprendre et prévoir la dynamique des feux de tourbières et de forêts dans le nord, et d’atténuer leurs impacts climatiques globaux.


Créé, en 2007, pour aider à accélérer et à partager les recherches scientifiques sur des enjeux sociaux majeurs, le Fonds d’Axa pour la recherche soutient près de 700 projets dans le monde mené par des chercheurs issus de 38 pays. Pour en savoir plus, visiter le site ou bien sa page LinkedIn.

The Conversation

Dimitra Tarasi a reçu des financements de la chaire AXA Wildfires and Climate, du Leverhulme Centre for Wildfires, Environment and Society et de la A.G. Leventis Foundation Educational Grants.

Apostolos Voulgarakis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment les « feux zombies » dans les tourbières du Grand Nord affectent le changement climatique global – https://theconversation.com/comment-les-feux-zombies-dans-les-tourbieres-du-grand-nord-affectent-le-changement-climatique-global-260605