Moins d’enfants, mêmes désirs : que révèle la baisse de la fécondité ?

Source: The Conversation – in French – By Laurence Charton, Sociodémographe, Institut national de la recherche scientifique (INRS)

Avec un indice synthétique de fécondité (ISF) de 1,33 enfant par femme en 2024, le Québec atteint son niveau le plus bas de son histoire démographique.


Ce chiffre, bien inférieur au seuil de remplacement des générations (2,1), alimente des débats récurrents sur le « déclin de la fécondité » ou l’« hiver démographique ». Ces formules masquent toutefois la complexité des dynamiques démographiques en jeu et les réponses politiques qu’il conviendrait d’adopter.

Sociologue et démographe, professeure titulaire à l’Institut national de la recherche scientifique (INRS), je m’intéresse aux conditions sociales qui conditionnent les choix et comportements reproductifs, notamment le fait d’avoir – ou de ne pas avoir – des enfants. C’est dans cette perspective que j’interroge ici ce que la baisse de la fécondité au Québec révèle, et ce qu’elle nous invite à repenser collectivement.

Trois phénomènes distincts derrière l’idée de « déclin »

L’expression « déclin de la fécondité » renvoie en réalité à trois phénomènes démographiques différents.

D’abord, le report des naissances. Au Québec, l’âge moyen à la première maternité dépasse aujourd’hui 30 ans, contre 25 ans en 1975, ce qui fait mécaniquement baisser les taux annuels de fécondité aux âges de la vingtaine, mais sans refléter nécessairement le nombre final d’enfants par femme.

Ensuite, la part des femmes sans enfant. Ce phénomène demeure cependant relativement stable, notamment au Québec depuis la génération 1965, contredisant ainsi dans la foulée l’idée d’un rejet de la maternité ou d’une montée du « non-désir d’enfant ».

Enfin, le nombre moyen d’enfant par femme en fin de vie reproductive. Avec un nombre d’enfants plus faible pour les générations actuelles comparativement aux précédentes, c’est ce phénomène qui contribue le plus aujourd’hui – au Québec et ailleurs – à la baisse de la fécondité.

Un écart persistant entre désirs et réalisations

Les études montrent que dans tous les pays occidentaux, les femmes et les hommes souhaitent encore en moyenne deux enfants. Pourtant, la plupart des personnes ne concrétisent pas leurs projets parentaux. Cet écart persistant suggère ainsi que la dénatalité ne vient pas des personnes elles-mêmes, mais de leurs conditions de vie.

Les aspirations reproductives n’ont pas diminué au cours des dernières décennies, mais les conditions structurelles se sont dégradées : logement cher et rare, insécurité locative, marché du travail précaire, horaires flexibles et atypiques, et inégalités persistantes dans le partage des responsabilités parentales, influencent surtout négativement la décision des couples d’avoir un deuxième ou un troisième enfant. Plus particulièrement, ces conditions structurelles sont plus susceptibles de décourager les femmes, qui assument davantage que les hommes les charges domestiques et familiales




À lire aussi :
Le travail invisible, une lutte sans fin pour les femmes


Au Québec, les régions où la fécondité est plus élevée sont d’ailleurs celles où l’accès au logement est encore globalement plus facile, comme en Chaudière-Appalaches, au Saguenay–Lac-Saint-Jean ou en Abitibi-Témiscamingue. Ces régions sont également celles qui permettent aux couples de compter le plus souvent sur le soutien de leur réseau familial.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Ce que montrent les comparaisons internationales

En 2023, la France enregistre un ISF à 1,59 (le plus élevé d’Europe), tandis que les pays nordiques oscillent entre 1,43 et 1,49, et que le Québec se rapproche de l’Allemagne (1,38) et du Canada dans son ensemble.

Ces différences ne reflètent pas des écarts dans les intentions de fécondité, mais plutôt des choix politiques. Les études comparatives montrent, par exemple, que les primes et allocations à l’enfant n’ont pas d’effet durable sur la fécondité. Les politiques efficaces sont celles qui combinent services de garde accessibles, congés parentaux bien rémunérés et partagés, logement abordable et flexibilité réelle du travail.




À lire aussi :
Le travail invisible, une lutte sans fin pour les femmes


Le Québec en a d’ailleurs déjà fait la démonstration avec une remontée notable de la fécondité au tournant des années 2000 lors de la mise en place des centres de la petite enfance (CPE) et du régime québécois d’assurance parentale (RQAP). Avant que cette dynamique ne s’essouffle, ces politiques avaient su réduire concrètement les obstacles à la parentalité en allégeant le poids financier et organisationnel qui pèse sur les familles. Cependant, la saturation progressive des services de garde, la flambée des coûts du logement et l’incapacité des pouvoirs publics à adapter leurs interventions aux nouvelles réalités des ménages (familles monoparentales, horaires atypiques, précarité d’emploi) ont fini par éroder les gains obtenus, faute d’une vision politique capable d’accompagner l’évolution profonde des structures familiales et sociales.

Une question de conditions, non d’incitatifs

Le niveau de fécondité reflète la cohérence entre politiques publiques et aspirations familiales.

Lorsque les intentions restent stables, mais que les réalisations diminuent, c’est le signe que les conditions matérielles et organisationnelles ne suivent plus. Miser sur des incitatifs ponctuels ou des slogans comme le « réarmement démographique » risque d’avoir peu d’effets, voire d’en aggraver la situation par rejet de l’idéologie associée (rhétorique nataliste et survie nationale).

Soutenir la fécondité implique ainsi de parler de droits à la parentalité plutôt que de devoirs, de viser la réalisation des désirs plutôt que la hausse des chiffres, de cibler autant les hommes que les femmes, et de reconnaître aussi le droit de ne pas avoir d’enfant.

Il s’agit en d’autres mots de permettre aux personnes qui souhaitent des enfants de les avoir dans de bonnes conditions.

La fécondité comme révélateur social

La fécondité est un indicateur de la capacité d’une société à offrir à ses membres des conditions favorables pour se projeter dans l’avenir.

Dans ces conditions, l’enjeu du « déclin de la fécondité » concerne moins la baisse du nombre d’enfants en soi, que la fragilisation de cette capacité de projection. La société doit offrir des conditions permettant aux personnes qui souhaitent des enfants de les avoir et de les accompagner sans que cela ne mette en péril leur équilibre individuel, conjugal, familial, professionnel ou économique.

La Conversation Canada

Laurence Charton a reçu des financements de CRSH, FRQ, INRS, Secrétariat à la condition féminine (gouvernement du Québec).

ref. Moins d’enfants, mêmes désirs : que révèle la baisse de la fécondité ? – https://theconversation.com/moins-denfants-memes-desirs-que-revele-la-baisse-de-la-fecondite-277345

Comment les chênes déjouent les chenilles en retardant l’ouverture de leurs bourgeons

Source: The Conversation – in French – By Andreas Prinzing, Professor

Lorsque les chênes sont fortement endommagés par des chenilles une année, ils ouvrent leurs bourgeons plus tard au printemps suivant. Notre équipe internationale de recherche a montré que cette stratégie est très efficace contre leurs prédateurs. Nous venons de publier nos résultats dans la revue Nature Ecology & Evolution.

Au printemps en forêt, de nombreuses chenilles éclosent précisément lorsque les feuilles des arbres sont encore jeunes et tendres. Elles trouvent ainsi une table abondamment garnie.

Si les chênes sont fortement infestés par des chenilles une année donnée, ils réagissent au printemps suivant : ils retardent l’apparition de leurs feuilles de trois jours. Cela est défavorable aux chenilles. Après l’éclosion, elles se retrouvent littéralement face à des assiettes vides, car les feuilles de chêne sont encore bien cachées dans les bourgeons.
Cette stratégie est très efficace : chez certaines espèces toutes les chenilles meurent après trois jours sans nourriture. En conséquence, ce stratégie de débourrement retardé diminue les dégâts causés par leur alimentation sur l’arbre de 55 %.

Comment avons-nous vu, depuis l’espace, comment les chênes combattent les chenilles ?

Pour démontrer ces liens, nous avons utilisé des méthodes interdisciplinaires de pointe issues de l’écologie et de la télédétection. Auparavant, les chercheurs devaient observer laborieusement des arbres individuels sur le terrain. Pour cette étude, cependant, une zone de 2 400 kilomètres carrés en Bavière du Nord a été surveillée en continu grâce aux données du satellite Sentinel-1. Ce qui rend ces satellites radar particuliers, c’est qu’ils fournissent des données précises sur l’état des canopées, même sous une épaisse couverture nuageuse.

Nous avons analysé un total de 137 500 observations individuelles sur cinq ans, de 2017 à 2021. Les satellites ont fourni des données avec une résolution de 10×10 mètres par pixel, ce qui correspond approximativement au houppier (la partie d’un arbre constituée d’un ensemble structuré des branches situées au sommet du tronc) d’un arbre unique. Au total, 27 500 pixels de ce type ont été analysés dans 60 zones forestières.

L’année 2019 s’est révélée particulièrement instructive, car la région a connu une invasion massive de la spongieuse (un ravageur des forêts de feuillus). Les capteurs radar ont enregistré précisément quels arbres ont perdu leurs feuilles et comment ils ont réagi l’année suivante.

En quoi cette découverte est-elle importante ?

Les arbres ne réagissent pas seulement à la météo au printemps. Cette tactique de retard est plus efficace pour le chêne qu’une défense chimique, comme les tanins amers présents dans les feuilles. En effet, l’arbre devrait dépenser beaucoup d’énergie pour augmenter sa production de tanins.

Pour la première fois, l’étude explique de manière concluante pourquoi, en moyenne, la forêt ne verdit pas aussi rapidement que les températures pourraient le laisser supposer. Les modèles informatiques antérieurs calculent souvent de manière inexacte l’état des forêts, car ils prennent exclusivement en compte des facteurs climatiques comme la température et ignorent les interactions biologiques entre plantes et insectes.

Les arbres se trouvent dans une sorte de bras de fer évolutif : alors que l’augmentation des températures liée au changement climatique les pousse à produire leurs feuilles de plus en plus tôt, la pression exercée par les insectes herbivores les contraint à retarder ce processus. Un avantage clé de cette stratégie de retard est qu’elle est temporaire et réversible. Comme les arbres ne retardent leur feuillaison qu’après une infestation réelle, les insectes ne peuvent pas s’y adapter de manière permanente. Cette interaction dynamique est un exemple de la grande résilience et capacité d’adaptation des forêts dans un monde en mutation.

Quelles sont les perspectives ?

Des expériences futures devraient permettre de mieux comprendre l’importance de ces mécanismes pour des patrons expliqués depuis des décennies par d’autres mécanismes, aussi bien que les conséquences pour les interactions des arbres avec leurs symbiontes mycorhiziens et avec les ennemies de leurs ennemies, comme les mésanges et des guêpes parasitoïdes.


Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Comment les chênes déjouent les chenilles en retardant l’ouverture de leurs bourgeons – https://theconversation.com/comment-les-chenes-dejouent-les-chenilles-en-retardant-louverture-de-leurs-bourgeons-281952

Faut‑il briser le carcan du franc CFA pour enfin transformer l’économie sénégalaise ? Les clés d’une transition réussie

Source: The Conversation – in French – By Souleymane Gueye, Professor of Economics and Statistics, City College of San Francisco

Le débat sur le franc CFA, monnaie commune utilisée par plusieurs pays d’Afrique de l’Ouest et d’Afrique centrale garantie par le Trésor français, fait rage chez les économistes depuis les années 60, mais il n’a jamais préoccupé la plupart des Sénégalais. Au cours de la dernière décennie, les médias, ainsi que les réseaux sociaux, ont manifesté un intérêt croissant pour l’usage du franc CFA.

Ces préoccupations de la population concernant les questions économiques liées au franc CFA devraient être saluées et prises en compte par les décideurs politiques. Elles s’expliquent notamment par les divergences d’interprétation quant au rôle de l’arrimage du franc CFA à l’euro dans les déséquilibres extérieurs structurels de l’économie sénégalaise, ainsi que par les débats sur sa contribution à l’incapacité à créer de l’emploi et à réduire la pauvreté au Sénégal. Cela alimente la discussion sur l’avenir de cette monnaie.

Plus d’un demi-siècle après l’indépendance, la question centrale demeure : le Sénégal peut-il opérer sa transformation économique et sociale sans disposer de la souveraineté monétaire nécessaire, alors qu’il continue de fonctionner dans le cadre du franc CFA ?

Pour une partie de la population, remettre en cause ce système est perçu comme un risque inutile. Pour d’autres, refuser d’en discuter démontre une résignation politique et intellectuelle évidente.

Par conséquent, il est impératif de poser la question essentielle : un État souverain peut-il conduire son développement économique sans maîtriser pleinement les principaux instruments macroéconomiques, au premier rang desquels la politique monétaire et celle du taux de change ?

Le Sénégal appartient aujourd’hui à l’Union économique et monétaire ouest-africaine (Uemoa), où la politique monétaire est exercée passivement par la Banque centrale des États de l’Afrique de l’Ouest (Bceao).

Pour avoir étudié les implications d’une éventuelle sortie du Sénégal de la zone CFA, j’estime que le franc CFA, arrimé à l’euro et garanti par la France dans un régime de change fixe, assure la stabilité et la crédibilité. Cela dit, il limite clairement la capacité du Sénégal à transformer structurellement son économie.




Read more:
Franc CFA : les conditions sont réunies pour remplacer la monnaie héritée du colonialisme


Deux regards opposés

Deux visions s’opposent :

Les partisans du CFA soulignent une souveraineté monétaire collective et une stabilité macroéconomique appréciable, qui renforcent la confiance des investisseurs et stabilisent l’inflation.

Les critiques estiment que le régime actuel constitue une contrainte structurelle.

L’absence de flexibilité du taux de change et l’autonomie limitée de la politique monétaire freinent la mobilisation des instruments nécessaires à l’industrialisation et à la création d’emplois.

Face à ces enjeux, la question monétaire devient centrale pour toute stratégie de développement ambitieuse. Dans le cadre du Programme de transformation du Sénégal à l’horizon 2050, la monnaie ne doit plus être considérée uniquement comme un instrument de stabilité, mais plutôt comme un levier essentiel de transformation systémique de l’économie sénégalaise.




Read more:
Renoncer au franc CFA ? Une opération périlleuse


Pourquoi envisager une monnaie nationale ?

Le franc CFA offre des avantages : faible inflation et stabilité du taux de change. Cependant, ces acquis s’accompagnent de contraintes susceptibles de limiter la transformation structurelle de l’économie sénégalaise. Par ailleurs, le projet de création de l’Eco, monnaie régionale commune des pays de la Communauté économique des État de l’Afrique de l’Ouest (Cedeao, 12 pays), demeure incertain.

La réunion des chefs d’État à Monrovia en février 2026 a une nouvelle fois confirmé les retards accumulés, notamment en raison de critères de convergence largement inspirés de l’expérience de l’Union européenne, mais difficilement applicables à des économies ouest-africaines encore très hétérogènes et faiblement intégrées.

Dans l’Union économique et monétaire ouest-africaine (Uemoa), le commerce intra-régional demeure relativement faible — à hauteur de 13 % des échanges — et les mécanismes de stabilisation budgétaire régionaux restent très limités.

Dans ce contexte, une monnaie nationale mérite d’être considérée pour trois raisons principales :

1. Corriger l’asymétrie de change et restaurer les instruments macroéconomiques

Avec une économie extravertie, spécialisée dans les produits primaires (arachide, pétrole, or, poisson, etc.) et très dépendante des importations alimentaires et énergétiques, le Sénégal reste vulnérable aux chocs externes.

L’arrimage du CFA à l’euro peut créer une asymétrie : une monnaie surévaluée pénalise les exportations et favorise les importations. Les déficits extérieurs structurels (-10,5 % du PIB) et un taux de couverture des importations par les exportations très faible (55 %) en résultent. Cela nuit à l’activité économique tout en maintenant la non-compétitivité des secteurs agricoles et industriels.

Une monnaie nationale bien gérée permettrait d’ajuster le taux de change en fonction des fondamentaux économiques, notamment les nouvelles ressources pétrolières, gazières et agro-industrielles, de corriger les déséquilibres structurels et de renforcer ainsi l’adaptabilité et la résilience économiques du pays aux chocs externes.

2. Adapter la politique monétaire aux priorités nationales

La politique monétaire de la Bceao privilégie principalement la stabilité des prix et l’ancrage externe de la monnaie, excluant toute possibilité de soutenir efficacement l’emploi, l’industrialisation ou la transformation agro-industrielle.
Une souveraineté monétaire nationale permettrait de coordonner la politique monétaire et la stratégie de développement.

Le taux de change pourrait devenir un levier de compétitivité pour les secteurs clés, et la politique monétaire pourrait soutenir directement les projets nationaux structurants à haute intensité de main-d’œuvre.

3. Prévenir une dépendance structurelle prolongée

Le Sénégal demeure prisonnier d’un système qu’il ne maîtrise pas pleinement. La réforme du CFA (ou la création de l’Eco) devait se substituer au franc CFA depuis 2020 peinent à aboutir. Au vu des lenteurs et des péripéties dans les négociations de 1980 à nos jours, ce serait une exception historique de voir des réformes drastiques sortir des discussions envisagées au niveau sous-régional et régional sur la question monétaire.

Dans un environnement international instable et une recomposition géopolitique certaine dans les années à venir, la maîtrise de la monnaie s’impose comme un levier stratégique pour contrer une dépendance économique prolongée. Par conséquent, le Sénégal doit prendre les devants comme le déclarait le Premier ministre sénégalais Ousmane Sonko “Le franc CFA ne cadre pas avec notre vision. Soit la monnaie sera changée avec nos partenaires de l’Uemoa, soit nous prendrons nos responsabilités, et nous nous préparerons à battre notre propre monnaie nationale”.

Etapes et conditions d’une sortie maîtrisée

Une sortie du CFA exige une planification progressive et un encadrement par des institutions robustes. La crédibilité de la future monnaie repose sur la confiance des ménages, des entreprises et des partenaires internationaux.

Pour une transition réussie, certains préalables sont nécessaires :

  1. Consolider le cadre macroéconomique : discipline budgétaire, politique monétaire crédible et cadre financier solide.

  2. Stabiliser la dette extérieure : réduire la vulnérabilité aux fluctuations des devises.

  3. Renforcer les réserves de change : stimuler les exportations et accroître la valeur ajoutée locale (agriculture, pêche, mines).

  4. Diversifier l’économie : développer de nouvelles filières industrielles et améliorer la productivité.

  5. Élargir l’assiette fiscale : mobiliser davantage de ressources domestiques et réduire la dépendance à l’endettement extérieur.

Construction d’institutions monétaires crédibles :

• Banque centrale indépendante : mandat clair (stabilité des prix, stabilité financière, soutien à l’activité économique).

• Gestion transparente des réserves : diversification en or et en devises (dollars, euros, yuans).

• Régime de change flexible : flottement administré ou indexé sur un panier de devises reflétant le poids de nos partenaires commerciaux, afin de limiter la volatilité.

• Sécurisation du système financier : garantie des dépôts, supervision bancaire renforcée, communication cohérente.

Impacts économiques : risques et opportunités

Toute transition monétaire comporte inévitablement une phase d’ajustement. Dans le cas d’une sortie du franc CFA, plusieurs risques à court terme doivent être clairement identifiés et anticipés afin d’éviter toute instabilité macroéconomique

A. Risques à court terme :

• Instabilité monétaire et fuite de capitaux : anticipation d’une dépréciation, demande accrue de devises, inflation importée.

• Augmentation du coût de la dette extérieure : dépréciation de la monnaie et pression sur les finances publiques.

• Ajustements commerciaux : coûts de conversion, risques de change, adaptations temporaires des chaînes régionales.

• Impact sur la diaspora et l’économie informelle : perturbations temporaires des transferts et de la formation des prix.

B. Opportunités à moyen et long terme :

Au-delà des risques de transition, une réforme du régime monétaire peut également ouvrir des perspectives économiques importantes si elle s’accompagne d’institutions solides et d’une stratégie de développement cohérente.

• Renforcer la compétitivité et l’industrialisation : ajustement du taux de change, substitution aux importations, développement des filières locales.

• Capacité accrue de financement contracyclique : refinancement bancaire, soutien à l’investissement et aux projets structurants.

• Meilleure maîtrise des flux financiers : contrôle des sorties non productives et mobilisation de l’épargne nationale.

Souveraineté monétaire et financement du développement

La monnaie nationale pourrait réduire la dépendance à l’endettement extérieur et mobiliser l’épargne locale pour financer le développement économique du pays. La banque centrale pourrait orienter le crédit vers les secteurs stratégiques (agriculture, industrie, agro-transformation) et coordonner les politiques industrielles, budgétaires et commerciales. Ainsi, la monnaie deviendrait un instrument actif de transformation économique, et non seulement un ancrage de stabilité.

En définitive, la monnaie est un instrument stratégique, pas une solution miracle. Le franc CFA garantit la stabilité et la crédibilité, mais limite la flexibilité stratégique cruciale pour un pays en mutation comme le Sénégal.

Je recommande de préparer une monnaie nationale avec rigueur, discipline et des institutions solides afin de :

• Financer le développement de manière endogène ;

• Soutenir le secteur productif ;

• Réduire la dépendance à l’endettement extérieur ;

• Renforcer la capacité d’ajustement face aux chocs internationaux en adaptant la politique monétaire.

La question n’est pas symbolique : il s’agit d’aligner les instruments macroéconomiques sur les ambitions de transformation structurelle du Sénégal. Pour un pays aspirant à l’émergence, la monnaie doit devenir un outil stratégique au service d’un développement endogène et durable comme l’avaient prévu les nouvelles autorités : «il n’y a pas de souveraineté sans souveraineté monétaire» dans leur programme de développement économique.

Malheureusement, la question monétaire est presque absente de la nouvelle Vision 2050, malgré les promesses de campagne et l’analyse détaillée des étapes nécessaires – similaires à celles évoquées dans ce texte– pour parvenir à une monnaie nationale.

Il est impératif de passer de l’intention à l’exécution avec rigueur, détermination et un sens aigu des responsabilités envers la population et l’avenir du pays – transformation systémique de l’économie

The Conversation

Souleymane Gueye does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Faut‑il briser le carcan du franc CFA pour enfin transformer l’économie sénégalaise ? Les clés d’une transition réussie – https://theconversation.com/faut-il-briser-le-carcan-du-franc-cfa-pour-enfin-transformer-leconomie-senegalaise-les-cles-dune-transition-reussie-278899

Photovoltaïque : les dernières avancées des « pérovskites », la filière émergente qui voudrait booster le silicium

Source: The Conversation – France in French (2) – By Claudine Katan, Directrice de Recherche, physicienne, Centre national de la recherche scientifique (CNRS)

Grâce aux panneaux solaires en silicium, l’électricité d’origine photovoltaïque est aujourd’hui disponible à faible coût. Pour aller plus loin – récolter plus d’énergie sur les mêmes surfaces pour des coûts réduits, produire plus localement – les scientifiques développent de nouveaux matériaux. Parmi eux, les « pérovskites » sont modulables et compatibles avec le silicium, ce qui les rend particulièrement prometteurs. Où en sont ces nouvelles technologies ? Quel chemin leur reste-t-il à parcourir ?


La filière du silicium est le leader du marché mondial des technologies photovoltaïque, avec 98 % des panneaux vendus. Grâce aux progrès dans le domaine, on dispose aujourd’hui d’électricité solaire déployable à faible coût dans la grande majorité des pays à travers le monde.

La montée en puissance des énergies renouvelables, avec en chef de file celle fondée sur la conversion directe de l’énergie solaire en électricité, légitime encore aujourd’hui le développement de nouvelles technologies photovoltaïques alliant frugalité, efficacité et longévité. Il s’agit d’augmenter encore les rendements de conversion et de minimiser les coûts (impact environnemental, prix de la fabrication, du transport, de l’installation, du recyclage), mais aussi de pouvoir garantir une durée de vie acceptable pour le fabricant, le consommateur et l’environnement.

Une des filières émergentes explorées par des chercheurs, start-up et industriels est celle exploitant les matériaux « pérovskites ». Dans cette communauté en ébullition, diverses stratégies sont développées pour allier de forts rendements et une longue durée de vie.

Dans nos études les plus récentes menées avec nos collaborateurs et publiées dans Science et Nature Synthesis, nous combinons plusieurs approches. La robustesse des nouvelles structures pérovskites est testée dans des conditions d’éclairement drastiques, simulant jusqu’à 15 fois la puissance du soleil. Ces résultats marquent une étape importante qui permet d’envisager de transposer les résultats en laboratoire à des produits industriels.

Le silicium, roi du marché, et les filières émergentes

Alors même que le silicium est devenu un matériau stratégique au cœur de nombreuses technologies électroniques, il risque de devenir une matière première critique (qui présente un risque d’approvisionnement). C’est tout particulièrement le cas en Europe, car la dernière fonderie de silicium active pourrait arrêter sa production, faute de pouvoir résister à la Chine en situation de surcapacité.

Parmi les filières photovoltaïques émergentes, celle des pérovskites fait la course seule en tête, car elle a rejoint en termes de performances (pour des cellules de laboratoire de petite surface, inférieures à un centimètre carré) la filière silicium avec des rendements certifiés supérieurs à 27 %. Les matières premières nécessaires sont disponibles en Europe.

Un de ses principaux atouts est d’être compatible avec les panneaux solaires silicium traditionnels, car ces deux technologies absorbent la lumière du soleil de façon complémentaire. Ainsi, en empilant une cellule silicium et une cellule pérovskite, on obtient une unique cellule dite « tandem » – qui dépasse aujourd’hui les 35 % pour des tandems de laboratoire et 27 % pour des modules de plus de 14 000 centimètres carrés (l’équivalent de panneaux carrés de 1,2 mètre de côté), permettant aux industriels – y compris en France — d’envisager sérieusement leur commercialisation.

En augmentant l’électricité produite pour une même surface de panneaux solaires, s’ouvre une perspective de retours sur investissements beaucoup plus rapides, qui pourrait encore booster le déploiement du photovoltaïque.

C’est pourquoi Daniel Lincot, membre de l’Académie des technologies et fervent défenseur de l’énergie solaire pour la transition énergétique et écologique, n’hésite pas à dresser un parallèle avec l’augmentation énorme et inattendue des vitesses des bateaux à voile au cours des dernières décennies grâce à l’ajout de surfaces portantes immergées (foils), en disant « les pérovskites sont les foils du silicium ».

Si le potentiel des matériaux pérovskites pour augmenter fortement les rendements des dispositifs photovoltaïques en silicium n’est désormais plus à démontrer, une dégradation rapide des performances en fonctionnement de ces nouvelles cellules et panneaux solaires est le verrou principal empêchant les pérovskites d’entrer sur le marché des panneaux solaires. Pour le lever, les scientifiques développent différentes stratégies pour mieux organiser la matière à l’échelle microscopique.

Les matériaux pérovskites : des promesses, des prouesses… et des défis

Le terme générique pérovskite désigne une structure cristalline caractéristique à l’échelle atomique avec des octaèdres partageant leurs sommets formant un réseau tridimensionnel (3D). La composition chimique des matériaux présentant cette structure varie avec notamment le titanate de calcium, un minéral découvert dès 1839 en milieu naturel et qui comprend des atomes d’oxygène (en bleu sur l’image).

Les compositions pertinentes pour le photovoltaïque et reconnues comme une nouvelle classe de semiconducteurs, sont, quant à elles, synthétiques (c’est-à-dire fabriquées par les chimistes) : l’oxygène est par exemple substitué par l’iode alors que le plomb (couleur or) occupe le centre de l’octaèdre, tandis qu’un atome tel que le Césium, ou une petite molécule organique (en rose) perd un électron (on parle de cation inorganique ou organique) et s’insère dans la cavité de la structure cristalline entre les octaèdres.

Si ce cation est trop petit ou au contraire trop volumineux, le réseau préfère adopter une autre structure cristalline qui n’aura pas les propriétés requises pour produire et conduire ensuite le courant électrique au sein d’une cellule solaire. Ceci se traduit par un changement de couleur, le matériau passant de la phase pérovskite semi-conductrice dite « noire », et donc fortement absorbante pour les longueurs d’onde visibles du spectre solaire (inférieures à 0,8 micromètre), à une phase non-pérovskite dite « jaune », signe que la gamme d’énergie des photons du soleil que le matériau est capable d’absorber est beaucoup plus restreinte (inférieures à 0,5 micromètre).

Ce changement de couleur est également observé lorsque le matériau pérovskite se dégrade, ce qui réduit fortement l’efficacité de conversion de l’énergie solaire. Depuis une dizaine d’années, la communauté de recherche s’efforce donc de comprendre les mécanismes de dégradation — et bien sûr, de les circonscrire.

Les dernières avancées pour des matériaux pérovskites efficaces et plus stables

Une des principales stratégies pour augmenter l’efficacité de conversion exploite des matériaux pérovskites qui sont en fait des mélanges de différents types de pérovskites synthétiques 3D. Malheureusement, ces alliages sont sujets à des phénomènes de démixtion et/ou à des déformations du réseau cristallin, notamment sous irradiation lumineuse – ce qui conduit à une dégradation irréversible. De plus, certaines de ces compositions 3D sont très sensibles à l’humidité. Enfin, on observe aussi des problèmes de stabilité à l’échelle du dispositif (cellule et panneau solaire), particulièrement en conditions opérationnelles (sous irradiation lumineuse ou lorsqu’un courant traverse la cellule solaire).

Au sein de la communauté internationale, plusieurs stratégies ont été inventées pour pallier ces problèmes. Par exemple, l’ingénierie des ligands a pris une place prépondérante avec l’exploration de divers acides qui viennent « passiver » les interfaces (c’est-à-dire empêcher la formation de « défauts » qui capturent les électrons et limitent donc la génération d’un courant électrique).

Un autre exemple est la « stratégie du millefeuille », explorée dès les années 90 : il s’agit d’une alternance périodique où la crème correspond à la couche organique et la pâte à la couche pérovskite. Des cellules solaires contenant ces pérovskites lamellaires ont atteint dès 2016 des stabilités record en fonctionnement.

En associant des pérovskites 2D (millefeuille) et 3D au sein d’une même cellule solaire, on combine la stabilité des premières aux rendements de conversion record des deuxièmes. En particulier, un design basé sur une ingénierie très poussée des hétérostructures 2D/3D a représenté l’état de l’art en 2022 et en 2024 en matière de stabilité pour une cellule solaire pérovskite en fonctionnement.

Aujourd’hui, nos tout derniers travaux publiés en ce printemps 2026 dans Science nous rapprochent encore plus de la stabilité requise en vue d’une commercialisation. En comprenant par quel chemin le matériau pérovskite synthétique passe de la phase noire à la phase jaune, l’ajout d’un additif spécifique a permis de soumettre les cellules 2D/3D à des tests encore plus drastiques : un flux lumineux équivalent à 15 soleils !

En parallèle, la fabrication récente de pérovskites 2D multicouches ne présentant aucune distorsion structurale et permettant un transfert des charges électriques générées par le soleil sur des distances records (au-delà de 2 micromètres, de l’ordre de 2 à 3 fois le diamètre d’un cheveu) permet pour la première fois d’envisager des dépôts de couches 2D et 3D avec des épaisseurs similaires de l’ordre de 300 à 500 nanomètres. Une telle épaisseur pour la partie 2D représente une barrière robuste à la pénétration d’espèces chimiques qui autrement risqueraient de détériorer la structure. Avec une couche épaisse, la partie 2D pourra aussi contribuer à la production d’électricité. De plus, les dernières couches 2D synthétisées possèdent des seuils d’absorption en énergie suffisamment bas pour qu’il soit envisageable de les tester en association avec le silicium dans des structures tandem en s’affranchissant totalement de la partie 3D.


Le projet SURFIN (ANR-23-CE09-0001) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Claudine Katan est membre du GDR HPERO.

George Volonakis a reçu des financements de l’Agence national de la recherche pare le projet de CPJ et le projet SURFIN (ANR-23-CE09-0001).

Jacky Even est membre du GDR HPERO et a reçu des financements de l’institut universitaire de France.

Aditya Mohite ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Photovoltaïque : les dernières avancées des « pérovskites », la filière émergente qui voudrait booster le silicium – https://theconversation.com/photovolta-que-les-dernieres-avancees-des-perovskites-la-filiere-emergente-qui-voudrait-booster-le-silicium-280612

Nouvelle tentative d’assassinat présumée contre Trump : il est peu probable que cela freine sa baisse de popularité

Source: The Conversation – in French – By James K. Rowe, Associate Professor of Political Ecology, University of Victoria

Le président américain semble avoir échappé de justesse à une nouvelle tentative d’assassinat.

La dernière tentative d’assassinat présumée lors du gala des correspondants de la Maison-Blanche n’aurait pas pu survenir à un meilleur moment, compte tenu de la popularité en baisse du président. Cependant, en raison du scepticisme largement répandu et des efforts déployés par l’équipe de Trump pour promouvoir la construction d’une salle de bal à la Maison-Blanche dès le lendemain de la fusillade, il est loin d’être certain que cet incident lui profitera.

Les tentatives d’assassinat contribuent souvent à rehausser la popularité des élus. En 1981, un homme a tiré sur Ronald Reagan devant l’hôtel Hilton de Washington, le même où s’est produite la récente tentative visant Trump. La cote de popularité de Reagan a grimpé en flèche après l’attaque.

Pourquoi la violence politique a-t-elle un effet positif sur la popularité ?

La réponse évidente est que le fait d’être victime de violence peut humaniser une personne, atténuant ainsi les critiques, tant de la part de ses partisans que de ses détracteurs.

Mais ce n’est pas la seule raison. Quand on voit un politicien éviter des balles ou y survivre, on peut le percevoir comme un être surhumain, avoir l’impression qu’il a été « touché » par Dieu ou qu’il détient un pouvoir de vie et de mort.




À lire aussi :
La tentative d’assassinat de Trump a des précédents historiques – et des implications futures en matière de sécurité


Trump, ce superhéros

Trump a créé une image emblématique lorsqu’il a levé le poing en signe de défi, le visage ensanglanté, à Butler, en Pennsylvanie, quelques mois avant l’élection présidentielle de 2024. Cela a renforcé sa campagne et forgé un mythe d’invincibilité.

C’est le même homme qui affirmait en 2016 qu’il pourrait « tirer sur quelqu’un en pleine 5e Avenue et ne perdre aucun électeur ». Malgré deux procédures de destitution, des verdicts de culpabilité pour 34 chefs d’accusation au criminel, des aveux d’agression sexuelle captés par un micro ouvert et de multiples accusations d’agression, Trump a été réélu en 2024. Là où d’autres auraient pu s’effondrer, Trump a poursuivi son ascension.

Si Trump a affirmé qu’il pourrait tirer sur des gens en plein centre de Manhattan et s’en sortir politiquement, la fusillade de Butler a donné l’impression qu’il pourrait recevoir des balles sans y laisser sa vie, qu’il n’a pas les mêmes vulnérabilités que le commun des mortels et qu’il est en quelque sorte surhumain. Trump a lui-même invoqué l’intervention divine pour expliquer comment il avait pu survivre à de multiples tentatives d’assassinat.

La gestion de la peur

La théorie de la gestion de la peur (TMT, pour terror management theory) est un courant de la psychologie qui étudie l’influence de notre rapport à la vie et à la mort sur les résultats politiques.

Selon cette théorie, nous gérons nos angoisses face à la mort par la quête d’un « héroïsme terrestre », c’est-à-dire en cherchant de l’estime d’une manière qui soit conforme à la vision du monde que nous avons choisie. De plus en plus de données expérimentales viennent étayer cette hypothèse.

Donald Trump est la preuve vivante de cette théorie.

Il est connu pour sa germophobie et son obsession pour les apparences de vitalité. Il est obsédé par ses cheveux, car il considère la calvitie comme un signe de faiblesse et d’échec. Avec sa quête effrénée d’argent — la mesure de la valeur dans les économies capitalistes — et sa manie d’apposer son nom sur tout, des immeubles à la vodka en passant par des bibles, il a cherché à se forger une image héroïque. Avant même qu’il ne se présente à la présidence, on pouvait déjà acheter une figurine à son effigie.

Selon l’anthropologue américain Ernest Becker, dont le livre The Denial of Death (Le déni de la mort), lauréat du prix Pulitzer, a posé les bases intellectuelles de la TMT :

Le monde réel… dit à l’être humain qu’il n’est qu’un petit animal tremblant, voué à la décomposition et à la mort. L’illusion transforme tout cela : elle lui donne l’impression d’être important, indispensable à l’univers, et en quelque sorte immortel.

Avec son obsession pour l’or, sa grandiloquence et ses cheveux dorés malgré son âge, Trump est un maître de l’illusion qui sait créer une image de superhéros pour sa base MAGA.

L’héroïsme peut aussi se vivre par procuration. C’est ce que beaucoup d’entre nous font avec des équipes sportives, des célébrités et des hommes politiques, en vivant leurs victoires et leurs défaites comme si c’étaient les nôtres.

Le bon moment ?

Le triomphe de Trump sur la mort à Butler, il y a deux ans — un incident que même certains partisans du mouvement MAGA remettent en doute aujourd’hui —, l’a aidé à franchir la ligne d’arrivée. Selon sa cheffe de cabinet, Susie Wiles, Butler aurait joué un « rôle important » dans la victoire républicaine de 2024.

Que penser alors de la tentative d’assassinat présumée dont il vient d’être victime ? Cela rehaussera-t-il sa cote de popularité, plus basse que jamais ?

D’un point de vue bassement politique, les précédents historiques montrent que cette tentative d’assassinat n’aurait pas pu survenir à un meilleur moment. Discrédité par ses liens avec le pédophile Jeffrey Epstein et engagé dans une guerre impopulaire contre l’Iran qui coûte des milliards de dollars et fait grimper le prix de l’essence, Trump avait besoin d’une bouée de sauvetage.

Le moment est si opportun que des théories du complot ont immédiatement commencé à circuler, selon lesquelles l’attaque aurait été orchestrée de l’intérieur dans le but de remonter la cote de popularité en chute libre du président.

Mort politique évitée ?

Il est toutefois peu probable que cet incident récent lui permette d’échapper à une mort politique. Après les échecs politiques du département de l’Efficacité gouvernementale (DOGE), l’affaire Epstein et une guerre risquée à l’issue incertaine, Trump est politiquement affaibli.

Même des membres influents de sa propre base, comme Tucker Carlson, ancien commentateur de Fox News, ne le glorifient plus et se demandent s’il ne serait pas l’antéchrist.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les images de la récente fusillade témoignent davantage de faiblesse que de vitalité. Les agents des services secrets ont eu du mal à sortir Trump de son siège, probablement en raison de ses problèmes de mobilité (même si le président affirme que sa lenteur était due au fait qu’il supervisait courageusement les opérations).

En outre, au lieu de lever le poing en signe de triomphe, comme à Butler, Trump est tombé alors qu’on l’emmenait précipitamment hors de scène (il prétend qu’on lui a dit de se baisser, mais sa sortie semble ardue).

Un reportage sur la tentative d’assassinat présumée à Washington, D.C. (CNN).

Alors que son équipe présente cette dernière fusillade comme une preuve supplémentaire de sa super-humanité, Trump semble chaque jour plus mortel, tant sur le plan politique que physique.

Trump a connu son heure de gloire, mais, tel Icare, son orgueil et son excès de zèle finissent par faire fondre ses ailes. Si l’illusion peut masquer l’inévitable pendant un certain temps, ce qui monte finit toujours par redescendre.

La Conversation Canada

James K. Rowe ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Nouvelle tentative d’assassinat présumée contre Trump : il est peu probable que cela freine sa baisse de popularité – https://theconversation.com/nouvelle-tentative-dassassinat-presumee-contre-trump-il-est-peu-probable-que-cela-freine-sa-baisse-de-popularite-281713

Pourquoi l’autopromotion ne se résume pas à se vanter. C’est un levier d’apprentissage et d’adaptation

Source: The Conversation – in French – By Jean-François Harvey, Associate Professor, Department of Entrepreneurship and Innovation, HEC Montréal

Le psychologue américain Edgar Schein soutenait avec force que l’humilité fait les grands leaders, en soulignant que l’apprentissage profond se produit lorsque nous écoutons plutôt que lorsque nous parlons. Sa perspective est fortement ancrée dans la pensée en leadership moderne en organisation, où la retenue et la curiosité sont souvent considérées comme les fondements d’une prise de décision efficace. Mais si ce n’était qu’une partie de l’histoire ?


J’ai récemment publié une étude qui porte sur des dirigeants de petites et moyennes entreprises confrontés à l’incertitude engendrée par la pandémie. Mes résultats suggèrent que les leaders qui expriment avec assurance leurs idées et leurs réalisations suscitent un engagement qui alimente l’apprentissage et l’adaptation. Loin d’être opposées, ces approches mettent en lumière deux voies complémentaires pour recueillir les informations nécessaires aux décisions stratégiques.

L’occasion manquée d’une autopromotion trop prudente

Ces dernières années, nous avons vu des cas extrêmes d’autopromotion se solder par des échecs spectaculaires : on peut penser à la femme d’affaires américaine Elizabeth Holmes, fondatrice de Theranos, qui affirmait avoir révolutionné les analyses sanguines avec une technologie ensuite largement invalidée et au cœur d’une affaire de fraude, ou à l’homme d’affaires israélo-américain Adam Neumann, cofondateur de WeWork, dont la rhétorique de « vision » a masqué des problèmes de modèle d’affaires et de gouvernance qui ont contribué à l’effondrement du projet d’IPO.

Ces exemples ont nourri un scepticisme plus large à l’égard d’une promotion entrepreneuriale excessive, amenant de nombreux dirigeants à conclure que l’autopromotion devrait être minimisée, voire évitée. Des plates-formes comme Kickstarter ont même instauré des politiques visant à ce que les entrepreneurs présentent leurs projets « plus fidèlement », en limitant les affirmations exagérées et l’optimisme incontrôlé.

Si ces garde-fous sont nécessaires, ils introduisent aussi un risque inattendu : la surcorrection. Des leaders devenus trop prudents pourraient passer à côté de l’un des bénéfices les plus sous-estimés de l’autopromotion : sa capacité à attirer des rétroactions constructives. Mon étude montre que l’autopromotion ne façonne pas seulement les perceptions externes : elle agit comme un mécanisme de recherche d’engagement, de stimulation des échanges et d’adaptation stratégique.

Cet enjeu est particulièrement critique en contexte d’incertitude. Les entrepreneurs et dirigeants évoluent souvent dans des environnements où les boucles de rétroaction structurées sont souvent absentes. Contrairement aux employés bénéficiant d’évaluations formelles, les leaders doivent générer activement des occasions d’obtenir des rétroactions. Plus ils parlent de leur travail, plus ils reçoivent des apports susceptibles d’affiner leur stratégie et d’orienter leurs prochaines décisions.




À lire aussi :
In-Carney le changement et un leadership gagnant en contexte de crise : comment le nouveau chef libéral a construit son image politique en ligne


Comment l’autopromotion crée une boucle de rétroaction

Dans une étude longitudinale en cinq vagues menée auprès de 574 entrepreneurs, complétée par des expérimentations contrôlées, mon travail a mis au jour un mécanisme surprenant.

Premièrement, l’autopromotion capte l’attention et favorise l’engagement. Lorsque des leaders mettent en avant leur travail – en soulignant réalisations, objectifs stratégiques et leçons apprises –, leur auditoire répond avec davantage de curiosité et d’implication. Les expériences montrent que des niveaux plus élevés d’autopromotion conduisent à des rétroactions plus riches et plus constructives, plutôt qu’à une réception passive de l’information.

Deuxièmement, ces rétroactions nourrissent l’expérimentation et l’adaptation. Des retours engagés incitent les leaders à tester de nouvelles idées, à ajuster leurs stratégies et à prendre des décisions plus adaptatives. En somme, l’autopromotion déclenche une boucle dans laquelle les individus reçoivent non seulement de la validation, mais aussi des informations précieuses pour innover et s’améliorer.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Cet effet n’est toutefois pas universel. Les leaders dotés d’un fort sentiment d’auto-efficacité, c’est-à-dire d’une confiance marquée en leurs capacités, exploitent plus efficacement les rétroactions. À l’inverse, ceux dont l’auto-efficacité est plus faible n’en tirent pas les mêmes bénéfices, probablement faute de confiance pour agir sur les retours reçus.

Ainsi, l’autopromotion est la plus efficace lorsqu’elle s’accompagne d’une ouverture à l’apprentissage. Les leaders qui l’utilisent stratégiquement – non pour se vanter, mais pour amorcer un dialogue porteur de sens – sont ceux qui en retirent le plus de bénéfices.




À lire aussi :
Du terrain de jeu aux conseils d’administration : comment l’enfance et de l’adolescence façonnent les leaders de demain


Repenser l’autopromotion comme un levier d’adaptation en leadership

La vision de Schein, centrée sur l’humilité et la curiosité, demeure un principe fondamental. Les leaders qui écoutent davantage qu’ils ne parlent peuvent découvrir des informations autrement invisibles. Mais l’idée qu’ils devraient éviter toute autopromotion ignore une réalité essentielle : la visibilité génère l’engagement, et l’engagement alimente l’apprentissage.

Plutôt que d’opposer ces approches, il convient de les considérer comme complémentaires. D’une part, le modèle d’humilité de Schein est particulièrement pertinent pour les décisions complexes et à forts enjeux, où l’écoute précède l’action. D’autre part, l’autopromotion stratégique est cruciale lorsque les boucles de rétroaction sont faibles et que les leaders doivent susciter activement l’engagement pour enrichir leur réflexion.

En pratique, cela implique de transformer l’autopromotion, d’un acte d’autocongratulation, en un acte d’engagement stratégique. Plutôt que de simplement énumérer des succès, les leaders gagneraient à concevoir leur communication comme une invitation au dialogue. Par exemple, une équipe responsable du développement d’un nouveau produit innovant pourrait partager, sur un ton affirmé, des constats encourageants et ainsi solliciter des perspectives sectorielles afin d’enrichir et d’améliorer la solution. De même, un dirigeant entrant sur un nouveau marché pourrait discuter ouvertement, et avec assurance, de ses choix de tarification ou de ses stratégies d’acquisition de clients, en invitant les experts concernés à contribuer.

Cette distinction est déterminante. Une autopromotion qui ouvre la conversation favorise la collaboration et l’affinement stratégique. À l’inverse, une autopromotion en quête exclusive de reconnaissance risque de susciter le désengagement.

Un changement de paradigme : de l’autopromotion à la découverte de soi

Le message central de mon étude est le suivant : lorsqu’elle est pratiquée avec discernement, l’autopromotion ne relève pas seulement de la visibilité, mais d’une visibilité intentionnelle. Il s’agit de recueillir les rétroactions capables de stimuler l’innovation, l’adaptation et le changement stratégique.

Pour les leaders, entrepreneurs et professionnels, cela suppose de repenser la manière de parler de leur travail. Plutôt que de craindre une perception de vantardise ou d’égocentrisme, il convient de reconnaître le potentiel de l’autopromotion à susciter des conversations porteuses d’apprentissages et de croissance.

À l’ère des transformations rapides, ceux qui mobilisent l’autopromotion comme un outil d’engagement – et non de simple exposition – seront les mieux placés pour s’adapter, innover et prospérer.

La Conversation Canada

Jean-François Harvey a reçu des financements du Conseil de recherches en sciences humaines du Canada (CRSH).

ref. Pourquoi l’autopromotion ne se résume pas à se vanter. C’est un levier d’apprentissage et d’adaptation – https://theconversation.com/pourquoi-lautopromotion-ne-se-resume-pas-a-se-vanter-cest-un-levier-dapprentissage-et-dadaptation-276131

« Les Français ne veulent plus travailler » : généalogie d’un soupçon qui a quarante ans

Source: The Conversation – in French – By Jean Pralong, Professeur de Gestion des Ressources Humaines, EM Normandie

Les Français ne travaillent pas assez. La valeur travail recule… Ces lieux communs qui tournent en boucle dans le débat public à gauche – pour s’en féliciter- comme à droite – pour le déplorer – alors même que les faits prouvent le contraire avec une étonnante régularité. Et si cette idée reçue développée dans les années 80 était la première fake news qui empêche de poser la question du travail de manière vraiment pertinente ?


Grande démission, quiet quitting, paresse supposée des nouvelles générations, crise du sens… les Français se seraient désengagés du travail. Le diagnostic a pourtant quarante ans. Il est né au début des années 1980, dans le moment néolibéral inauguré par Ronald Reagan et Margaret Thatcher, et n’a jamais désarmé depuis. Les enquêtes longues qui mesurent ce que les Français disent du travail le contredisent avec la même constance. Apparamment en vain.

Récits jumeaux

Au tournant des années 1980, deux discours sur la « crise du travail » émergent simultanément, dans des registres opposés. D’un côté, une critique intellectuelle annonce la fin de la société du travail. André Gorz publie Adieux au prolétariat en 1980, Roger Sue Vers une société du temps libre ? en 1982, Gilles Lipovetsky L’ère du vide en 1983. La séquence se prolongera quinze ans plus tard avec Jeremy Rifkin (La fin du travail, 1996). Le travail-valeur s’effacerait derrière l’individualisme contemporain : la critique vient de la gauche intellectuelle, elle accompagne la sortie du fordisme.

De l’autre s’installe un discours patronal et managérial, dans le sillage immédiat de l’élection de Margaret Thatcher (1979) et de Ronald Reagan (1981) : les salariés occidentaux ne travailleraient pas assez, leur productivité décrocherait face aux concurrents asiatiques, les rigidités du droit du travail nous tueraient. Ezra Vogel publie Japan as Number One en 1979 ; William Ouchi Theory Z en 1981 ; Tom Peters et Robert Waterman In Search of Excellence en 1982. Le Japon devient le miroir où l’Occident se regarde et se découvre déficitaire.




À lire aussi :
Libéraux et conservateurs ont-ils raison de s’attaquer à l’assistanat et à l’État social ?


La réthorique du « Jamais assez »

En France, le tournant de la rigueur de 1983 signe l’alignement de la gauche au pouvoir sur cette grammaire compétitive ; le patronat, par la voix d’Yvon Gattaz puis de ses successeurs au CNPF, fait du « jamais assez » sa rhétorique principale. Le salarié français n’est jamais assez conscient des enjeux économiques, jamais assez engagé, jamais assez productif. « Pendant que vous paressez, les Japonais travaillent » est le cliché des années 1980. L’Allemagne remplacera le Japon dans les années 1990, qui sera ensuite remplacé par la Corée, puis la Chine… Si le pays avec lequel on compare la France change ; la conclusion reste la même : un déficit permanent du salarié français, à mesurer à l’aune d’un autre toujours plus laborieux.

Si les deux récits induisent des politiques opposées, ils convergent sur une intuition partagée : le rapport au travail aurait changé. C’est cette intuition qui s’installe pour quarante ans.

Or, il existe un dispositif, l’European Values Study (EVS), qui mesure précisément ce que les Français disent du travail dans leur vie, et qui le mesure à intervalles réguliers depuis 1981. Lancée à l’initiative de chercheurs européens, conduite en France sous la direction d’Hélène Riffault, synthétisée pour l’essentiel par Jean Stoetzel dans Les valeurs du temps présent (PUF, 1983), elle interroge tous les neuf ans environ un échantillon représentatif. Cinq vagues à ce jour : 1981, 1990, 1999, 2008, 2018.

La centralité toujours renouvelée du travail

La question est simple : « Diriez-vous que le travail est, dans votre vie, très important, assez important, peu ou pas du tout important ? » Les réponses « très important » : 60 % en 1990, 69 % en 1999, 68 % en 2008, niveau comparable en 2018. La centralité subjective du travail est l’une des données les plus stables que les sciences sociales aient mesurées sur quatre décennies.

Pire pour le récit dominant : la France est parmi les pays européens où le travail conserve la plus forte centralité déclarée. L’enquête publiée en 2023 par l’Institut Montaigne avec Kantar Public, conduite sur 5 001 actifs et titrée Les Français au travail : dépasser les idées reçues – titre symptomatique du décalage –, confirme : satisfaction au travail élevée et stable, malgré une intensification massivement ressentie.

Que se passe-t-il, alors ? Une autre série d’enquêtes, conduites depuis 1978 par la DARES et renouvelées tous les sept ans (Conditions de travail 1978, 1984, 1991, 1998, 2005, 2013, 2016, 2019), documente avec précision ce qui s’est effectivement transformé, moins le rapport au travail que ses conditions concrètes d’exercice. Les contraintes de rythme se sont multipliées – en 2016, un salarié sur trois est soumis à au moins trois contraintes de rythme simultanées. La charge mentale a crû. L’autonomie réelle, malgré la rhétorique de l’empowerment et de la responsabilisation, recule. Le travail sous pression s’est durablement banalisé.

Quand la solution aggrave le problème

Cette dégradation n’est pas un effet de bord. Elle accompagne l’importation, à partir des années 1980, des pratiques managériales nées du diagnostic patronal : lean management, flexibilisation, juste-à-temps, cercles de qualité, individualisation des objectifs, évaluation continue. Le « jamais assez » a produit les dispositifs concrets qui intensifient le travail. Le diagnostic et son traitement forment un même mouvement.

Deux faits coexistent donc : le travail compte toujours autant pour les Français, même si les conditions d’exercice se sont durcies – précisément parce que la grammaire managériale dominante l’a voulu ainsi. La souffrance documentée par les enquêtes n’est pas le signe d’un retrait subjectif. Elle est l’effet d’une centralité maintenue dans des conditions dégradées par l’effort même de combattre un désengagement qui n’avait pas lieu.

Pourquoi le récit persiste

Dans ces conditions, si le récit du « jamais assez » persiste, c’est parce qu’il n’a jamais eu pour fonction de décrire, mais de justifier. Il est, d’abord, est un dispositif rhétorique qui produit la demande d’expertise censée le résoudre. Le baromètre annuel State of the Global Workplace publié par Gallup, qui chiffre depuis vingt ans le « désengagement » mondial, en est l’archétype : il documente en mesurant ce qu’il a besoin de constater pour justifier son commerce de conseil. McKinsey avait inauguré le genre à la fin des années 1990 avec son rapport War for Talent – autre récit de pénurie destiné à vendre une expertise. Chaque vague du récit nourrit un marché.

The Conversation France/Canalchat 2026.

Le dispositif a aussi une fonction générationnelle : présenter chaque cohorte qui entre sur le marché du travail comme étrangère à la précédente. Les baby-boomers étaient déjà soupçonnés en 1968 d’avoir « refusé le travail » ; les X « ne s’investissaient plus comme avant » dans les années 1990 ; les Y avaient « besoin de sens » dans les années 2000 ; les Z auraient désormais « la flemme ». La rupture est toujours générationnelle, et toujours nouvelle.

Une fonction politique enfin : il sert tour à tour à justifier la flexibilisation (« les jeunes ne veulent plus s’engager ») et à la dénoncer (« le néolibéralisme a tué le sens du travail »). Il est utilisable de tous bords.




À lire aussi :
Vote radical : ce que le travail nous apprend des colères qui séparent


Soupçons permanents

Mais ces fonctions recèlent une matrice plus profonde : un dispositif de soupçon permanent à l’égard du salarié, né dans le moment néolibéral du début des années 1980 et qui n’a depuis jamais cessé de se réinventer. Or si l’on prend les données au sérieux, les politiques d’engagement, de fidélisation ou de marque employeur ne s’adressent pas à des salariés désinvestis.

Elles s’adressent à des salariés qui tiennent au travail dans des organisations qui tiennent de moins en moins leurs promesses. Tant qu’on lit la souffrance comme un retrait, on cherche à réengager des gens jamais désengagés en empilant des dispositifs qui aggravent ce qu’ils prétendent soigner. Si on la lit pour ce qu’elle est – un engagement contrarié –, on s’oblige à regarder ce qui, dans les organisations, contrarie cet engagement : l’intensification non négociée, l’autonomie reprise, le sens promis et non tenu.

The Conversation

Jean Pralong ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Les Français ne veulent plus travailler » : généalogie d’un soupçon qui a quarante ans – https://theconversation.com/les-francais-ne-veulent-plus-travailler-genealogie-dun-soupcon-qui-a-quarante-ans-281780

Pourquoi les employés mentent (et ce que les gestionnaires peuvent y faire)

Source: The Conversation – in French – By Guillaume Desjardins, Associate professor, Industrial Relations, Université du Québec en Outaouais (UQO)

Le mensonge au travail est rarement spectaculaire. Il prend plutôt la forme de silences calculés et de demi-vérités. Et il en dit souvent plus sur l’organisation que sur la morale individuelle.


Imaginons qu’un employé soit à une seule transaction d’atteindre son quota et que vous soyez le dernier client d’un vendredi soir peu achalandé dans son magasin. Pourquoi pourrait-il vous promettre une livraison en 24 heures pour conclure la vente, alors qu’il sait très bien que ce délai ne sera probablement pas respecté ?

Le mensonge est défini de manière générale comme la transmission délibérée d’informations fausses ou trompeuses, et représente la manifestation la plus visible de la duplicité, entendue ici comme l’ensemble des pratiques intentionnellement trompeuses en contexte professionnel. Mais ces comportements ne sont pas toujours explicites : l’omission d’informations ou leur manipulation stratégique font également partie du phénomène.

Aujourd’hui, on ne considère plus le mensonge au travail comme une simple déficience morale individuelle. Les recherches récentes montrent que ce comportement reflète souvent des dynamiques organisationnelles et structurelles plus larges.

Les premières recherches ont privilégié une perspective psychologique, associant les tendances de duplicité à des dispositions individuelles telles que le machiavélisme et le narcissisme. Toutefois, au fil du temps, la recherche s’est élargie pour intégrer des cadres sociologiques et organisationnels qui tiennent compte des pressions environnementales et des contextes institutionnels favorisant la tromperie.

La littérature contemporaine souligne que les comportements des employés sont fréquemment façonnés par les normes institutionnelles. Pourtant, jusqu’à récemment, il n’existait pas d’outil validé pour mesurer la perception qu’ont les employés de la nécessité de recourir à la duplicité. La publication de l’échelle Organizational Induced Duplicity_ (OID) a permis de combler cette lacune.

Quel est l’apport individuel au mensonge ?

Certaines études ont montré qu’il n’existe pas de différence entre les hommes et les femmes en matière de mensonge dans le contexte du travail. Des traits individuels, comme le machiavélisme, peuvent prédire des comportements malhonnêtes, notamment lors d’interactions avec les clients.

Mais l’apport de ces facteurs reste très faible (moins de 5 %) pour expliquer la propension à mentir. Il faut donc regarder au-delà des individus pour comprendre ce phénomène.




À lire aussi :
Comment garder les employés performants tout en optimisant leur bien-être psychologique ?


Deux éléments organisationnels beaucoup plus importants

Une récente étude identifie deux éléments organisationnels majeurs pour expliquer la présence ou non de mensonges au travail.

1. Le leadership laissez-faire

Ce style de leadership, non interventionniste, où les dirigeants évitent de prendre des décisions et ne fournissent pas de direction claire, est systématiquement associé à des résultats négatifs dans les équipes de travail, notamment à ce qui à trait à la propension à mentir.

Par exemple, un gestionnaire pourrait, lors de réunions d’équipe, offrir des consignes vides de sens telles que : « Je n’ai pas à vous expliquer comment faire votre travail, vous le savez déjà ! » Ce genre de phrase donne l’impression de donner des ordres sans en prendre la responsabilité.

Dans ces environnements, l’absence de normes éthiques, de mécanismes de reddition de comptes et de supervision augmente la probabilité que les employés adoptent des comportements trompeurs. Cela est particulièrement problématique dans les rôles en contact direct avec la clientèle, où les employés peuvent percevoir la malhonnêteté comme un moyen légitime d’atteindre leurs objectifs, surtout si les dirigeants ne découragent pas ces comportements.

2. L’intégrité managériale perçue

L’intégrité perçue des gestionnaires – leur cohérence, honnêteté et orientation morale – joue un rôle central dans la promotion de comportements éthiques. Les études s’entendent pour dire que les gestionnaires intègres se distinguent par sept éléments : la cohérence entre discours et actions, l’équité dans la prise de décision, respect des engagements, transparence communicationnelle, responsable, conformité aux normes organisationnelles et traitement respectueux des employés sous son aile.

Par exemple, si un gestionnaire affirme que l’équilibre travail–vie personnelle est une priorité organisationnelle, il limitera lui-même les communications hors heures de travail et respectera les congés de ses employés.

Est-ce que les employés ont l’impression que leur gestionnaire tient ses promesses ? Est-ce que ce dernier s’astreint aux mêmes standards éthiques que ses employés ? Est-ce que le gestionnaire applique les politiques organisationnelles de manière constante, y compris lorsqu’elles sont contraignantes pour le gestionnaire lui-même ? Ce sont des signes d’un gestionnaire intègre.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Lorsque les employés perçoivent leurs gestionnaires comme intègres, ils sont plus susceptibles d’adopter des normes éthiques et de résister aux comportements malhonnêtes, y compris le mensonge ou la duplicité envers les clients. Ainsi, l’intégrité du gestionnaire agit comme facteur de protection pour éviter les comportements malhonnêtes au travail.




À lire aussi :
Isolés, pressurisés, stressés : voici comment réduire l’anxiété sociale chez les professionnels de la vente


Que devrions-nous changer au travail ?

Le style de leadership et l’intégrité des managers déterminent comment les employés perçoivent la nécessité ou la légitimité de la duplicité.

Les gestionnaires engagés, clairs dans leurs attentes et cohérents dans leurs décisions réduisent l’ambiguïté et les « zones grises » où la tromperie peut s’installer. Ils offrent un cadre où les employés peuvent poser des questions ou signaler des problèmes sans crainte.

À l’inverse, la recherche révèle que le leadership laissez-faire favorise l’émergence de la duplicité. Les recherches antérieures ont systématiquement associé ce leadership à l’ambiguïté de rôle, au désengagement moral et à une augmentation des comportements déviants. Sur le plan pratique, les gestionnaires qui négligent leur rôle de régulateur éthique créent involontairement un vide normatif dans lequel les pressions de performance, les exigences des clients et les interprétations opportunistes des objectifs organisationnels peuvent supplanter les attentes éthiques formelles.

Enfin, les mécanismes compétitifs (primes, classements, objectifs de performance) ne sont pas intrinsèquement problématiques. Leur impact dépend de la manière dont les managers les encadrent : lorsqu’ils sont associés à un leadership intègre et actif, ils peuvent motiver sans encourager la malhonnêteté. En d’autres mots, ce n’est pas parce que votre vendeur est payé à la commission qu’il sera nécessairement enclin à user de duplicité !

La Conversation Canada

Guillaume Desjardins a reçu des financements du FRSQ ainsi que du Gouvernement du Canada.

Gia Linh Lam a reçu des financements de Université d’Ottawa.

ref. Pourquoi les employés mentent (et ce que les gestionnaires peuvent y faire) – https://theconversation.com/pourquoi-les-employes-mentent-et-ce-que-les-gestionnaires-peuvent-y-faire-277309

Vingt ans de sanctions économiques, 16 000 frappes et 50 % d’inflation, pourquoi le régime des mollahs ne tombe-t-il pas ?

Source: The Conversation – in French – By Benyamin Shajari, Professeur de management de la chaîne d’approvisionnement, Excelia

Depuis le début de l’intervention israélo-états-unienne en Iran, la résilience du régime interroge. Alors que le caractère répressif du régime annihile les mouvements d’opposition, ce dernier a mis en place une organisation logistique favorisant la robustesse à tout prix plutôt que l’efficience à court terme. L’hyperperformance des systèmes logistiques est-elle devenue, a contrario, une source de faiblesse de premier plan ?


La quête de rentabilité absolue a créé un monstre fragile. Nos chaînes logistiques mondiales sont à la fois hyperoptimisées et vulnérables. Résultat : le moindre grain de sable paralyse désormais l’économie globale.

Cette fragilité systémique se confirme avec un exemple inattendu. Le régime iranien résiste de façon spectaculaire dans l’actuel conflit au Moyen-Orient, illustrant l’efficacité redoutable d’une stratégie fondée sur la robustesse plutôt que sur la performance.

Performance logistique

Durant quarante ans le commerce mondial a vénéré l’efficience maximale. Les entreprises ont vidé leurs entrepôts pour fonctionner en flux tendus permanents. Cette obsession a concentré les échanges autour de quelques passages maritimes étroits. Le détroit d’Ormuz, le Bab-el-Mandeb (détroit de la mer Rouge, ndlr), Taïwan, Malacca (dans le sud-ouest de la Malaisie, ndlr) ou le canal de Suez (en Égypte, ndlr) incarnent cette perfection dangereuse. Un cinquième du pétrole mondial transite chaque jour par Ormuz.




À lire aussi :
Le détroit d’Ormuz est un laboratoire pour gérer la logistique mondiale en temps de guerre


Cette concentration offre des profits immenses en temps de paix mais prive le système de toute marge d’erreur. Une pandémie, un navire échoué ou un conflit militaire suffit à faire vaciller l’édifice.

L’effondrement récent du trafic maritime au détroit d’Ormuz prouve que cette performance logistique est devenue notre principal point faible.

Une vulnérabilité fatale : la  perfection

Cette fragilité oblige les dirigeants à changer de logiciel mental. La performance pure ne fonctionne que dans un monde stable et abondant. Dans notre époque marquée par les crises et la rareté, l’optimisation devient une vulnérabilité fatale. Un système robuste accepte d’être sous-optimal à court terme pour garantir sa survie lors des tempêtes.

Ce renversement de pensée explique la dynamique du conflit actuel. Beaucoup prédisaient un effondrement rapide de Téhéran face à une puissance de feu supérieure. Pourtant, le régime tient bon. L’État iranien a substitué la survie à la victoire éclatante en imitant les mécanismes de défense de la nature.

La redondance comme levier de survie

Cette résilience résulte de plus de vingt années d’apprentissage forcé. La République islamique a transformé les pires sanctions de l’histoire en doctrine de survie. La redondance systémique est devenue sa règle d’or. Sur le plan militaire, Téhéran n’a pas concentré ses usines. La carte publiée par la CIA montre que le pays a disséminé la production de ses drones et de ses missiles sur tout son territoire.


CIA, Fourni par l’auteur

Ce maillage décentralisé permet à d’autres sites de prendre le relais sous les bombardements. Ainsi, une destruction de ce réseau par voie aérienne devient quasi impossible et très coûteuse. L’objectif pour le régime consiste donc à absorber le choc pour durer.

Cette logique de forteresse s’applique aussi à l’économie civile par des choix contre-intuitifs. Premièrement, l’Iran figure parmi le Top 15 mondial des producteurs de blé et frôle l’autosuffisance. Toutefois, selon l’agence de presse iranienne Tasnim, l’État, anticipant la possibilité d’un conflit majeur, a importé environ trois millions de tonnes de céréales fin 2025. Deuxièmement, le 3 mars 2026, Téhéran a même sacrifié ses précieuses rentrées de devises. Le gouvernement a interdit toute exportation agroalimentaire pour protéger son marché intérieur. Troisièmement, selon le média iranien Tabnak, le partenariat stratégique avec la Russie signé en 2025 continue à sécuriser la chaîne alimentaire par l’intermédiaire de la mer Caspienne depuis le début de la guerre en fin février. Enfin, pour contourner le blocus d’Ormuz, le pays a basculé ses échanges vers l’Asie centrale.

France 24, avril 2026.

Porte de secours

L’explosion du commerce, militaire et alimentaire, avec le Tadjikistan prouve l’efficacité de cette porte de secours. Les embargos et les bombardements n’ont donc pas tué la République islamique d’Iran. Ils ont forgé un écosystème où la sécurité des approvisionnements alimentaires et surtout militaires surpasse toujours la rentabilité.

Mais cela a forcément un prix, car l’inflation en Iran dépasse désormais le chiffre symbolique de 50 %.

Encaisser les chocs sans se briser

Cette séquence stratégique dépasse largement les frontières iraniennes. Elle sonne l’alarme pour tous les décideurs économiques. Ceci marque la fin d’une époque : la survie d’un acteur organisé pour la robustesse face à des adversaires structurés pour la performance. Dans un environnement avec des disruptions chroniques, les modèles d’affaires fondés sur la rationalisation extrême sont très fragiles.

Les entreprises doivent recréer des marges de manœuvre. Il faut accepter de sacrifier les profits immédiats. Il devient vital de multiplier les fournisseurs locaux et de reconstituer des stocks stratégiques. Une part d’inefficacité opérationnelle est le nouveau prix à payer pour la sécurité à long terme.

La compétition mondiale ne couronnera plus l’entité la plus optimisée. Elle récompensera celle qui saura encaisser les chocs sans se briser.

The Conversation

Benyamin Shajari ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Vingt ans de sanctions économiques, 16 000 frappes et 50 % d’inflation, pourquoi le régime des mollahs ne tombe-t-il pas ? – https://theconversation.com/vingt-ans-de-sanctions-economiques-16-000-frappes-et-50-dinflation-pourquoi-le-regime-des-mollahs-ne-tombe-t-il-pas-281782

Mesurer l’invisible : ce que l’écorce des arbres nous apprend de la pollution de l’air à Paris

Source: The Conversation – France (in French) – By Yann Sivry, Professeur des Universités, Institut de physique du globe de Paris (IPGP)

Les particules fines et ultrafines issues du trafic routier sont parmi les polluants les plus nocifs pour la santé. Elles sont aussi les plus difficiles à mesurer à l’échelle d’un quartier. À Paris, un projet de sciences participatives montre comment des citoyennes et des citoyens, en prélevant l’écorce des platanes qui peuplent la ville, peuvent compléter les dispositifs officiels et produire des données utiles à l’action publique.


Dans les grandes villes, la pollution de l’air est surveillée par des stations fixes, par exemple celles d’Airparif en Île-de-France, qui permettent le suivi assez fin de différents types de polluants et de modéliser les tendances générales. Ces stations sont encore trop peu nombreuses pour rendre compte de l’exposition réelle des populations, rue par rue.

Cette limite est particulièrement problématique pour la fraction inorganique des particules fines (de dimensions inférieurs à 2,5 micromètres) et ultrafines (plus petites que 0,1 micromètre). Par « fraction inorganique », on entend les particules minérales ne contenant pas de carbone. Elles sont d’origine soit primaire (érosion des sols, particules métalliques liées à l’usure des plaquettes de frein…), soit secondaire, formées à partir d’autres polluants gazeux. Ces particules sont étroitement liées au trafic routier et associées à des effets sanitaires majeurs. Or, à l’heure actuelle, une seule station de mesure fixe est opérationnelle dans Paris.

Platane dans le XVIᵉ arrondissement de Paris.
Polymagou/Wikimédia, CC BY-SA

Pourtant, la mesure devrait guider l’action : urbanisme, aménagements cyclables, piétonisation ou régulation du trafic reposent sur des données souvent trop parcellaires pour éclairer des décisions locales.

Notre recherche, publiée dans la revue Community Science, s’appuie sur un constat simple : les arbres enregistrent la pollution de leur environnement immédiat. Les particules issues du trafic se déposent sur l’écorce, qui agit comme un capteur passif intégrant la pollution sur plusieurs mois. Cela en fait un indicateur pertinent pour évaluer une exposition chronique.

L’écorce des platanes, révélatrice de pollution

Dans le cadre du projet Ecorc’Air, des volontaires collectent, chaque printemps, au moment de l’exfoliation annuelle, des fragments d’écorce de platanes, arbre omniprésent le long des rues – et notamment au sein de la capitale parisienne, qui abrite plus de 40 000 platanes.

Ces échantillons sont ensuite transmis en laboratoire, où ils sont analysés. La mesure d’une propriété physique particulière de l’échantillon, la susceptibilité magnétique, permet d’estimer la quantité de particules métalliques déposées. Ces dernières sont directement liées aux émissions du trafic automobile.




À lire aussi :
Pollution de l’air en ville : cartographie, microcapteurs et sciences participatives


Sur plusieurs milliers d’échantillons collectés depuis 2016, nous montrons que ce signal magnétique est fortement corrélé à la présence de métaux, dont certains peuvent se révéler toxiques en fonction de leur nature et des doses inhalées. Le protocole mis en place, très accessible même sans connaissances préalables, permet de cartographier la pollution à une échelle très fine, de l’ordre de quelques dizaines de mètres.

Susceptibilité magnétique des échantillons d’écorce collectés au cours des campagnes successives.
C. Carvallo et coll., 2024, Fourni par l’auteur

Grâce à cet échantillonnage massif, rendu possible par la participation citoyenne, plusieurs observations ont pu être faites :

  • d’abord, il existe des « points noirs » persistants. Certaines zones parisiennes présentent des niveaux élevés et récurrents de pollution en particules métalliques depuis le début du suivi : il s’agit des quais à forte circulation (la voie Georges-Pompidou sur sa portion carrossable, par exemple), des abords du périphérique et des axes congestionnés. À l’inverse, les parcs et les espaces éloignés du trafic affichent des niveaux relativement faibles. Ces cartes permettent d’identifier des priorités d’intervention, là où les stations de surveillance classiques ne suffisent pas.

  • Ensuite, la pollution décroît rapidement avec la distance. Nos données montrent une diminution nette de la contamination en particules dès que l’on s’éloigne de la chaussée, surtout dans les premiers mètres. Cela confirme l’importance du choix de l’implantation des trottoirs et des pistes cyclables vis-à-vis des barrières naturelles (haies ou arbustes) et des zones de repos (espaces où l’on trouve par exemple des bancs).




À lire aussi :
Pourquoi prendre le métro nous expose à davantage de particules fines


Quand les voitures font écran

L’un des résultats les plus frappants concerne l’organisation très concrète de l’espace public. Sur plusieurs grands axes parisiens, notamment le boulevard Saint-Germain, nous avons comparé les niveaux de pollution enregistrés par les arbres selon la configuration de la voie la plus proche : circulation automobile générale (configuration notée A sur le schéma ci-dessous), voie bus-taxi (C), voie partagée bus-vélo-taxi (D) ou présence d’une file de stationnement entre la chaussée et le trottoir (B).

Quatre configurations de la chaussée sont présentes sur le boulevard Saint-Germain.
C. Carvallo et coll., 2024, Fourni par l’auteur

Les différences observées sont nettes. Les arbres situés au plus près des voies de circulation automobile présentent systématiquement les valeurs de susceptibilité magnétique les plus élevées. À l’inverse, lorsqu’un élément (haie naturelle, véhicule stationné) sépare la chaussée du trottoir, les niveaux mesurés dans l’écorce sont significativement plus faibles. Cette diminution est suffisamment marquée pour être statistiquement robuste sur l’ensemble des données collectées en 2020 et 2021.

Cette observation suggère que les véhicules en stationnement jouent un double rôle. D’un côté, ils augmentent la distance entre la source d’émission et les piétons et piétonnes et, de l’autre, ils constituent un obstacle physique à la projection directe des particules métalliques issues du trafic vers les trottoirs. Cet effet de « paravent » réduit l’exposition des piétons et piétonnes de manière comparable à celle obtenue en s’éloignant de plusieurs mètres de la chaussée.

Les voies partagées avec les bus et les taxis, souvent présentées comme favorables aux mobilités actives, sont associées à des niveaux élevés de pollution.
Ben Welle, CC BY-SA

Notre point n’est pas ici de promouvoir la généralisation de places de stationnement le long des rues, qui favoriserait les déplacements en voiture, mais de pointer l’intérêt de penser une réelle séparation entre la chaussée et les piétons et piétonnes. À l’inverse, les voies partagées avec les bus et les taxis, souvent présentées comme favorables aux mobilités actives, restent associées à des niveaux élevés de pollution particulaire.

Ces résultats, intuitifs en apparence, sont pourtant rarement objectivés par des données à haute résolution spatiale. Ils montrent que des choix d’aménagement très concrets – plans de stationnement, élargissement des trottoirs, séparation réelle des pistes cyclables, séparation spatiale des zones piétonnes et du trafic routier, projets de végétalisation… – ont des effets mesurables sur l’exposition quotidienne des populations.




À lire aussi :
Quel bilan pour les nouvelles « forêts urbaines » d’Anne Hidalgo ?


Les sciences participatives changent la donne

Un tel niveau de détail n’aurait pas été possible sans la participation massive de volontaires. Les réseaux de surveillance réglementaires, indispensables pour suivre les tendances de fond, reposent sur un nombre limité de stations fixes. À Paris, comme dans la plupart des grandes villes, celles-ci sont trop espacées pour rendre compte des contrastes fins liés à la morphologie des rues, à l’intensité locale du trafic ou aux choix d’aménagement.

Le projet Ecorc’Air repose sur une logique différente : multiplier les points de mesure simples, robustes et comparables dans le temps. En mobilisant des bénévoles pour collecter des échantillons d’écorce de platanes à hauteur de respiration, il a été possible de constituer, année après année, une base de données accessible de plusieurs milliers de points, couvrant des quartiers entiers et permettant des comparaisons temporelles.

Résultats collectés par le projet Ecorc’Air entre 2016 et 2025

Cette approche présente un second avantage souvent sous-estimé : elle transforme la production de données en objet de dialogue. Les lieux de prélèvement ne sont pas ciblés uniquement par les équipes de recherche, mais également par les volontaires et les collectivités, en fonction de leur expertise sur leurs lieux de vie, de leur perception des nuisances, de leurs usages quotidiens ou de leurs questionnements sur des projets urbains en cours. Ce croisement entre savoirs scientifiques et expériences locales enrichit l’interprétation des données et renforce leur légitimité sociale.

Les entretiens menés par l’équipe scientifique dans le cadre du projet montrent d’ailleurs que les motivations à participer sont diverses. Certaines personnes s’engagent par curiosité scientifique, d’autres par inquiétude pour leur cadre de vie ou simple souhait d’amélioration de leur environnement. Du côté des collectivités, l’intérêt tient autant à la production de données environnementales qu’à la capacité à instaurer un lien avec les habitants et habitantes autour d’enjeux environnementaux et sanitaires majeurs. Les sciences participatives ne sont donc pas seulement un outil de mesure : elles deviennent un dispositif d’intermédiation entre science, population et action publique.

Pour les pouvoirs publics, la leçon est claire : il existe aujourd’hui des moyens complémentaires peu coûteux et éprouvés permettant de documenter l’exposition réelle des populations à la pollution liée au trafic. Sans se substituer aux réseaux officiels, ces démarches permettent d’identifier des zones à enjeu, d’évaluer l’impact d’aménagements urbains et de suivre des évolutions dans le temps à une échelle pertinente pour l’action locale.

Les résultats obtenus à Paris montrent que certaines zones restent durablement exposées, malgré une baisse globale des concentrations mesurées à l’échelle de la ville. Ils suggèrent également que des choix d’aménagement apparemment secondaires – emplacement des pistes cyclables, organisation du stationnement, largeur des trottoirs… – peuvent avoir des effets significatifs pour ce qui est de l’exposition aux particules inorganiques des passants et passantes.

Dans un contexte où les recommandations sanitaires internationales sont de plus en plus strictes et où la demande sociale de transparence environnementale s’accroît, ces données fines constituent un appui précieux à la décision. Elles permettent de dépasser les débats trop généraux sur la pollution pour entrer dans une logique d’action ciblée concrète, territorialisée et discutée, en concertation avec les usagers et usagères.

À terme, l’enjeu n’est pas seulement de mieux mesurer, mais de mieux décider. Les sciences participatives, intégrées aux politiques publiques, peuvent contribuer à combler un angle mort majeur de la gouvernance environnementale : celui de l’exposition quotidienne, réelle, vécue, à l’échelle de la rue. À Paris, mais aussi dans d’autres villes européennes, l’intérêt pour ce type de démarches grandit. L’enjeu n’est plus seulement de mesurer, mais de transformer ces données en leviers d’action, à l’échelle des quartiers.

The Conversation

Sivry Yann a reçu des financements de l’Agence Nationale pour la Recherche, du CNRS et de la Fondation Université Paris Cité.

Aude Isambert a reçu des financements du CPT (Centre des Politiques de la Terre) de l’Université Paris Cité (StratEx-IdEx).

Claire Carvallo a reçu des financements du CNRS.

Laure Turcati a reçu des financements à travers le réseau Science Ensemble du label SAPS de Sorbonne Université et de l’Etat au titre de France 2030 dans le cadre du projet SOUND porté par l’Alliance Sorbonne Université.

Christine Franke ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Mesurer l’invisible : ce que l’écorce des arbres nous apprend de la pollution de l’air à Paris – https://theconversation.com/mesurer-linvisible-ce-que-lecorce-des-arbres-nous-apprend-de-la-pollution-de-lair-a-paris-279149