Bats get fat to survive hard times. But climate change is threatening their survival strategy

Source: The Conversation – Canada – By Nicholas Wu, Lecturer in Wildlife Ecology, Murdoch University

Rudmer Zwerver/Shutterstock

Bats are often cast as the unseen night-time stewards of nature, flitting through the dark to control pest insects, pollinate plants and disperse seeds. But behind their silent contributions lies a remarkable and underappreciated survival strategy: seasonal fattening.

Much like bears and squirrels, bats around the world bulk up to get through hard times – even in places where you might not expect it.

In a paper published today in Ecology Letters, we analysed data from bat studies around the world to understand how bats use body fat to survive seasonal challenges, whether it’s a freezing winter or a dry spell.

The surprising conclusion? Seasonal fattening is a global phenomenon in bats, not just limited to those in cold climates.

Even bats in the tropics, where it’s warm all year, store fat in anticipation of dry seasons when food becomes scarce. That’s a survival strategy that’s been largely overlooked. But it may be faltering as the climate changes, putting entire food webs at risk.

Climate shapes fattening strategies

We found bats in colder regions predictably gain more weight before winter.

But in warmer regions with highly seasonal rainfall, such as tropical savannas or monsoonal forests, bats also fatten up. In tropical areas, it’s not cold that’s the enemy, but the dry season, when flowers wither, insects vanish and energy is hard to come by.

The extent of fattening is impressive. Some species increased their body weight by more than 50%, which is a huge burden for flying animals that already use a lot of energy to move around. This highlights the delicate balancing act bats perform between storing energy and staying nimble in the air.

Sex matters, especially in the cold

The results also support the “thrifty females, frisky males” hypothesis.

In colder climates, female bats used their fat reserves more sparingly than males – a likely adaptation to ensure they have enough energy left to raise young when spring returns. Since females typically emerge from hibernation to raise their young, conserving fat through winter can directly benefit their reproductive success.

Interestingly, this sex-based difference vanished in warmer climates, where fat use by males and females was more similar, likely because more food is available in warmer climates. It’s another clue that climate patterns intricately shape behaviour and physiology.

Climate change is shifting the rules

Beyond the biology, our study points to a more sobering trend. Bats in warm regions appear to be increasing their fat stores over time. This could be an early warning sign of how climate change is affecting their survival.

Climate change isn’t just about rising temperatures. It’s also making seasons more unpredictable.

Bats may be storing more energy in advance of dry seasons that are becoming longer or harder to predict. That’s risky, because it means more foraging, more exposure to predators and potentially greater mortality.

The implications can ripple outward. Bats help regulate insect populations, fertilise crops and maintain healthy ecosystems. If their survival strategies falter, entire food webs could feel the effects.

Fat bats, fragile futures

Our study changes how we think about bats. They are not just passive victims of environmental change but active strategists, finely tuned to seasonal rhythms. Yet their ability to adapt has limits, and those limits are being tested by a rapidly changing world.

By understanding how bats respond to climate, we gain insights into broader ecosystem resilience. We also gain a deeper appreciation for one of nature’s quiet heroes – fattening up, flying through the night and holding ecosystems together, one wingbeat at a time.

The Conversation

Nicholas Wu was the lead author of a funded Australian Research Council Linkage Grant awarded to Christopher Turbill at Western Sydney University.

ref. Bats get fat to survive hard times. But climate change is threatening their survival strategy – https://theconversation.com/bats-get-fat-to-survive-hard-times-but-climate-change-is-threatening-their-survival-strategy-259560

How old are you really? Are the latest ‘biological age’ tests all they’re cracked up to be?

Source: The Conversation – Canada – By Hassan Vally, Associate Professor, Epidemiology, Deakin University

We all like to imagine we’re ageing well. Now a simple blood or saliva test promises to tell us by measuring our “biological age”. And then, as many have done, we can share how “young” we really are on social media, along with our secrets to success.

While chronological age is how long you have been alive, measures of biological age aim to indicate how old your body actually is, purporting to measure “wear and tear” at a molecular level.

The appeal of these tests is undeniable. Health-conscious consumers may see their results as reinforcing their anti-ageing efforts, or a way to show their journey to better health is paying off.

But how good are these tests? Do they actually offer useful insights? Or are they just clever marketing dressed up to look like science?

How do these tests work?

Over time, the chemical processes that allow our body to function, known as our “metabolic activity”, lead to damage and a decline in the activity of our cells, tissues and organs.

Biological age tests aim to capture some of these changes, offering a snapshot of how well, or how poorly, we are ageing on a cellular level.

Our DNA is also affected by the ageing process. In particular, chemical tags (methyl groups) attach to our DNA and affect gene expression. These changes occur in predictable ways with age and environmental exposures, in a process called methylation.

Research studies have used “epigenetic clocks”, which measure the methylation of our genes, to estimate biological age. By analysing methylation levels at specific sites in the genome from participant samples, researchers apply predictive models to estimate the cumulative wear and tear on the body.

What does the research say about their use?

Although the science is rapidly evolving, the evidence underpinning the use of epigenetic clocks to measure biological ageing in research studies is strong.

Studies have shown epigenetic biological age estimation is a better predictor of the risk of death and ageing-related diseases than chronological age.

Epigenetic clocks also have been found to correlate strongly with lifestyle and environmental exposures, such as smoking status and diet quality.

In addition, they have been found to be able to predict the risk of conditions such as cardiovascular disease, which can lead to heart attacks and strokes.

Taken together, a growing body of research indicates that at a population level, epigenetic clocks are robust measures of biological ageing and are strongly linked to the risk of disease and death

But how good are these tests for individuals?

While these tests are valuable when studying populations in research settings, using epigenetic clocks to measure the biological age of individuals is a different matter and requires scrutiny.

For testing at an individual level, perhaps the most important consideration is the “signal to noise ratio” (or precision) of these tests. This is the question of whether a single sample from an individual may yield widely differing results.

A study from 2022 found samples deviated by up to nine years. So an identical sample from a 40-year-old may indicate a biological age of as low as 35 years (a cause for celebration) or as high as 44 years (a cause of anxiety).

While there have been significant improvements in these tests over the years, there is considerable variability in the precision of these tests between commercial providers. So depending on who you send your sample to, your estimated biological age may vary considerably.

Another limitation is there is currently no standardisation of methods for this testing. Commercial providers perform these tests in different ways and have different algorithms for estimating biological age from the data.

As you would expect for commercial operators, providers don’t disclose their methods. So it’s difficult to compare companies and determine who provides the most accurate results – and what you’re getting for your money.

A third limitation is that while epigenetic clocks correlate well with ageing, they are simply a “proxy” and are not a diagnostic tool.

In other words, they may provide a general indication of ageing at a cellular level. But they don’t offer any specific insights about what the issue may be if someone is found to be “ageing faster” than they would like, or what they’re doing right if they are “ageing well”.

So regardless of the result of your test, all you’re likely to get from the commercial provider of an epigenetic test is generic advice about what the science says is healthy behaviour.

Are they worth it? Or what should I do instead?

While companies offering these tests may have good intentions, remember their ultimate goal is to sell you these tests and make a profit. And at a cost of around A$500, they’re not cheap.

While the idea of using these tests as a personalised health tool has potential, it is clear that we are not there yet.

For this to become a reality, tests will need to become more reproducible, standardised across providers, and validated through long-term studies that link changes in biological age to specific behaviours.

So while one-off tests of biological age make for impressive social media posts, for most people they represent a significant cost and offer limited real value.

The good news is we already know what we need to do to increase our chances of living longer and healthier lives. These include:

  • improving our diet
  • increasing physical activity
  • getting enough sleep
  • quitting smoking
  • reducing stress
  • prioritising social connection.

We don’t need to know our biological age in order to implement changes in our lives right now to improve our health.

The Conversation

Hassan Vally does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How old are you really? Are the latest ‘biological age’ tests all they’re cracked up to be? – https://theconversation.com/how-old-are-you-really-are-the-latest-biological-age-tests-all-theyre-cracked-up-to-be-257710

Comment l’un des pesticides les plus répandus en France menace les moineaux

Source: The Conversation – Indonesia – By Pauline Bellot, Chercheuse postdoctorale à l’Université du Québec à Montréal (UQAM, laboratoire AVITOX), Université du Québec à Montréal (UQAM)

Moins connus que les insecticides, les fongicides triazolés sont pourtant très présents dans les milieux agricoles. L’un d’eux, le tébuconazole, est suspecté d’affecter la santé des oiseaux. Notre étude expérimentale met en effet en évidence des altérations du métabolisme, de la reproduction et de la survie chez les jeunes moineaux.


Depuis 1900, la population mondiale a quintuplé, ce qui a posé un défi de taille : nourrir toujours plus d’humains. Dans les années 1950-1960, la « révolution verte » a permis d’augmenter considérablement les rendements agricoles grâce à la modernisation et à l’intensification des pratiques agricoles. Cette mutation s’est appuyée en partie sur l’usage massif d’engrais et de pesticides, dont l’utilisation n’a cessé de croître au fil des décennies.

Les triazoles, des fongicides omniprésents

Parmi les pesticides, on trouve trois grandes catégories : les herbicides qui tuent les végétaux considérés comme indésirables, les insecticides qui s’attaquent aux insectes considérés comme nuisibles, et les fongicides. Ces derniers, destinés à lutter contre les champignons pathogènes des plantes, représentent en France près de 42 % des ventes totales de pesticides, soit une part bien supérieure à la moyenne mondiale.

Cette proportion élevée s’explique notamment par le poids de la viticulture dans l’agriculture française, les vignes étant particulièrement vulnérables aux maladies fongiques comme le mildiou.

Photo représentant un paysage viticole homogène, typique des zones de monoculture intensive Huney.
Un paysage viticole homogène, typique des zones de monoculture intensive.
Fourni par l’auteur

Parmi les fongicides, une famille se distingue : celle des triazoles. Très prisés pour leur efficacité contre un éventail de maladies fongiques, ces composés sont utilisés sur des cultures aussi variées que les céréales, les fruits ou la vigne. Aujourd’hui, les triazoles représenteraient à eux seuls environ un quart des ventes mondiales de fongicides.

Aux États-Unis, leur utilisation a augmenté de 400 % en seulement dix ans, entre 2006 et 2016.

Les oiseaux, sentinelles des milieux agricoles

Mais cet usage massif soulève des inquiétudes. Les triazoles sont suspectés d’être des perturbateurs endocriniens, c’est-à-dire d’interférer avec le système hormonal des êtres vivants, et d’impacter des espèces non ciblées. En la matière, les oiseaux sont dangereusement vulnérables. En effet, nombre d’entre eux, l’alouette des champs, le busard cendré ou le merle noir par exemple, accomplissent tout ou une partie de leur cycle de vie dans les milieux cultivés, c’est-à-dire des territoires où les fongicides triazolés peuvent se retrouver dans les sols, l’eau ou l’air, et contaminer la faune par l’intermédiaire des graines ou des insectes consommés par de nombreux oiseaux.

Une étude récente a ainsi révélé des concentrations particulièrement élevées de triazoles dans le sang de merles noirs vivant dans des zones viticoles intensives.

Cette exposition, qu’elle soit directe ou indirecte, pourrait nuire à leur santé, à leur reproduction ou au bon fonctionnement de leur organisme. Les oiseaux sont depuis longtemps considérés comme de bons indicateurs biologiques : leur présence, leur comportement ou leur état de santé donnent des indices de la qualité de l’environnement. En particulier dans les zones agricoles, leur déclin peut révéler des problèmes comme la pollution ou la dégradation des habitats. Et les tendances sont alarmantes : depuis 1980, 60 % des oiseaux des terres agricoles ont disparu en Europe.

Comprendre les causes pour mieux agir : l’enjeu d’une approche ciblée

Si les pesticides, triazoles inclus, participent potentiellement à ce déclin, ils ne sont pas les seuls en cause. La perte d’habitats naturels, l’intensification des pratiques agricoles, la mécanisation et le changement climatique exercent également une pression croissante sur la biodiversité.

Face à cette dégradation multifactorielle, les oiseaux nous envoient un signal d’alarme. Il est plus que jamais nécessaire de comprendre quelle pression exerce quels effets, et dans quelle mesure. Cela suppose de pouvoir isoler l’impact propre de chaque facteur, en particulier celui des contaminants chimiques, afin d’identifier précisément leur rôle dans les déclins observés et ainsi mieux orienter les mesures de conservation et de réglementation.

Pour cela, il est nécessaire de les étudier isolément, dans des conditions contrôlées. C’est pourquoi nous avons choisi de nous pencher sur un fongicide triazolé en particulier : le tébuconazole.

Il s’agit du fongicide que nous avons le plus fréquemment détecté chez les oiseaux vivant en zone viticole, et également de l’un des plus utilisés dans le monde.

Pour en évaluer les effets, nous avons mené une étude en conditions contrôlées sur des moineaux domestiques, une espèce typique des milieux agricoles, aujourd’hui en déclin. Faciles à maintenir en captivité, y compris pour la reproduction, les moineaux domestiques constituent un modèle biologique pertinent pour explorer les effets du tébuconazole en conditions expérimentales.

Les individus ont été répartis aléatoirement dans six volières expérimentales : trois recevaient une eau non contaminée et les trois autres une eau contenant du tébuconazole à des concentrations réalistes, comparables à celles mesurées chez des oiseaux vivant en milieu viticole intensif.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd’hui.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Des effets sur le métabolisme et la survie des juvéniles

Après plusieurs mois d’exposition, nous avons analysé divers paramètres de santé chez les adultes, notamment le métabolisme, les hormones thyroïdiennes et l’immunité. Nous avons aussi suivi la reproduction, la croissance des poussins, leur survie, ainsi que plusieurs indicateurs de succès reproducteur.

À gauche, photo fournie par l’autrice, présentant un moineau domestique quelques jours après la naissance. À droite : photo représentant un jeune moineau d’environ 14 jours.
Fourni par l’auteur

Pour la première fois, nos recherches ont montré que le tébuconazole, un fongicide largement utilisé en agriculture, peut perturber de manière significative la physiologie et la reproduction des oiseaux.

Chez les moineaux adultes exposés pendant plusieurs mois, nous avons observé une dérégulation des hormones thyroïdiennes, essentielles à la croissance, au métabolisme et à la mue. Bien que nous n’ayons pas trouvé d’effet sur l’immunité, le métabolisme des oiseaux était réduit.

Une diminution du métabolisme signifie que les oiseaux dépensent moins d’énergie pour assurer leurs fonctions vitales, ce qui peut réduire leur niveau d’activité, limiter leur capacité à maintenir leur température corporelle et ralentir des processus essentiels comme le fonctionnement cérébral ou la réparation des tissus.

De plus, la qualité de leur plumage était diminuée avec des plumes moins denses, ce qui pourrait altérer leur isolation thermique et leur efficacité en vol par exemple. Nous avons également obtenu des résultats notables du côté de la reproduction. Le tébuconazole a été transféré de la mère à ses œufs, exposant ainsi les poussins dès les premiers stades de leur développement. Ce transfert maternel s’est accompagné d’effets marqués : les poussins issus de parents exposés au tébuconazole présentaient une anomalie de croissance, environ 10 % plus petits en fin de développement, ainsi qu’une mortalité accrue.

Ces effets étaient particulièrement prononcés chez les femelles : leur taux de mortalité atteignait 65 % dans le groupe exposé, contre seulement 7 % dans le groupe témoin. Ces résultats suggèrent une sensibilité accrue au fongicide selon le sexe, et soulèvent des questions quant à la survie des jeunes dans les milieux contaminés.

Vers une meilleure régulation des usages ?

Ainsi, le tébuconazole pourrait représenter l’un des facteurs contribuant au déclin des oiseaux, en particulier dans les paysages agricoles intensifs.

Fait notable : ces effets sont survenus à une concentration environ 36 fois inférieure au seuil actuellement utilisé pour évaluer la toxicité reproductive chez les oiseaux. Bien que notre étude porte sur une seule molécule, elle met en lumière un angle mort persistant : la toxicité des fongicides reste encore largement sous-estimée, au profit d’une attention historique portée aux insecticides.

Or, dans les milieux cultivés, les espèces sont exposées à des mélanges complexes de pesticides, aux effets potentiellement cumulatifs ou synergiques. Mieux comprendre ces interactions ouvre de nouvelles pistes de recherche pour affiner l’évaluation des risques et repenser les pratiques agricoles dans une perspective plus durable et respectueuse de la biodiversité.

The Conversation

Cette recherche a été financée par l’Agence Nationale de la Recherche (projet ANR VITIBIRD attribué à F.A.), par la Région Nouvelle-Aquitaine (projet MULTISTRESS), par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (projet ANSES BiodiTox attribué à F.B.), par le Centre National de la Recherche Scientifique ainsi que par MITI-PEPSAN (mission pour les initiatives transversales et interdisciplinaires, attribuée à C.F.).

Ce travail a également été soutenu par le partenariat PARC (WP4), financé par l’Union européenne dans le cadre de la subvention 101057014. Les points de vue et opinions exprimés n’engagent toutefois que leurs auteurs et ne reflètent pas nécessairement ceux de l’Union européenne ou de l’Agence exécutive européenne pour la recherche ; ni l’Union européenne ni l’autorité de financement ne peuvent en être tenues responsables.

Frédéric Angelier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment l’un des pesticides les plus répandus en France menace les moineaux – https://theconversation.com/comment-lun-des-pesticides-les-plus-repandus-en-france-menace-les-moineaux-257032

Quel avenir pour les forêts ? Un nécessaire pas de côté pour la recherche forestière

Source: The Conversation – Indonesia – By Jacques Tassin, Chercheur en écologie forestière (HDR), spécialiste des rapports Homme / Nature, Cirad

La forêt est un lieu où abondent des problèmes pernicieux marqués par l’absence de solutions claires et définitives et, notamment, par la présence d’acteurs aux valeurs conflictuelles. Un conflit permanent y opère entre la conservation de la biodiversité et le développement économique. La recherche forestière conventionnelle est mise en défaut par une telle complexité lorsqu’elle implique une approche réductrice ou monodisciplinaire. Elle a désormais pour mission d’appréhender l’incertitude, la diversité et l’hétérogénéité qui président au devenir des forêts.

Le livre Vivre la forêt, coordonné par Jacques Tassin, auteur de plusieurs livres sur les arbres et les forêts, dont Penser comme un arbre, également publié chez Odile Jacob, explore les enjeux d’une recherche forestière rénovée à l’aide d’une démarche critique et réflexive. En sont présentés ici quelques extraits tirés de l’introduction.


Ce livre propose d’entreprendre un pas de côté pour réenvisager, dans toute son étendue et sa complexité, cette fameuse « communauté de destins » prêtée aux avenirs respectifs des forêts et des sociétés. Parler de la forêt, c’est en effet aussi parler des humains, de leurs regards, de leurs rapports et leurs relations aux espaces forestiers, de leurs imaginaires ou des inflexions que leurs ancêtres ou contemporains leur confèrent. En déroulant le fil des forêts, aussi « étrangères » soient-elles, on en arrive toujours aux hommes et aux femmes.

Qu’est-ce même que la forêt sinon le regard que l’on pose sur elle ? Et comment pourrions-nous considérer que ce regard est immuable ou, pire encore, que la forêt est elle-même un objet, sinon inerte, du moins voué à demeurer dans une présumée permanence ? La litanie invariable des chiffres de la déforestation mondiale, engouffrant avec eux une multitude de situations amalgamées sans même en rechercher les causes, intervient en effet tel un barrage de fumée nous empêchant, un peu plus en amont, de nous saisir d’une question clé que nous posons en ouverture de ce livre, « l’humanité et les forêts sont-elles compatibles ? ». […]

La forêt, bien plus que la déforestation

Toute vision réductrice est fâcheuse. Certes, les suivis satellitaires révèlent de manière indéniable un recul global des surfaces forestières. Pour autant, la forêt ne saurait se réduire de manière absurde à la déforestation, comme s’il était raisonnablement justifié de caractériser un objet par son absence. D’évidence, une telle proposition ne saurait être considérée comme neutre et l’un des paris de ce livre est de décrypter l’illusion d’une présumée neutralité.

Les suivis satellitaires, comme toute autre démarche consistant à moyenner le monde, ont leurs limites et ne nous révèlent pas grand-chose de plus que des cohortes de données chiffrées qu’il s’agit ensuite de réduire à des bilans ou à des inventaires simplifiés. Le bon sens inviterait pourtant à réinscrire les forêts dans des dynamiques situées, contingentes et localisées, selon des processus écologiques et humains qui conservent eux-mêmes souvent une dimension insaisissable. Toute forêt s’ancre dans une configuration, un environnement, une histoire, et nulle ne s’enracine dans des généralités planétaires.

Tout territoire forestier est parcouru de stratégies d’adaptation, certes souvent assorties d’un recul forestier ou d’une dégradation forestière de caractère effectif. Mais s’adjoignent aussi des dynamiques de reforestation, selon des situations contrastées qui instaurent de la nuance dans le mantra de la lutte contre la déforestation répétée ad nauseam dans toutes les conférences internationales.

Re-territorialiser les forêts, ici et ailleurs

Dans le même ordre d’esprit, l’idéalisation de la forêt primaire tropicale se construit en Occident moyennant l’oubli du rapport que les humains entretiennent ailleurs avec cet « écoumène », en tant que lieu de vie et de pratiques. Elle renvoie implicitement à un idéal colonial qui fait porter aux populations du Sud la charge mentale de la préservation des forêts tropicales sans partage avec les responsabilités du Nord ni perspectives de cocréer un avenir commun. […] En outre, il s’agit de considérer la tendance selon laquelle la mise en protection d’un espace donné agit en compensation d’un blanc-seing concédé pour permettre de détruire ailleurs.[…]


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Déterritorialiser les espaces forestiers n’a rien de satisfaisant. Cela revient non seulement, le lorgnon posé sur le nez, à promouvoir une approche disciplinaire et segmentée d’une réalité formidablement complexe, mais aussi, une fois encore,
à refuser de considérer les interdépendances locales opérant entre les forêts et les personnes qui y vivent ou en vivent, à commencer sans doute par les agriculteurs qui tentent de composer dans les limites de leurs propres contingences, mais sans toutefois s’y cantonner, dans un monde où les causalités les plus déterminantes sont aussi parfois les plus lointaines.

De la même manière qu’il s’agit aujourd’hui de considérer l’arbre comme un élément d’infrastructure de la ville, dès lors capable de concourir à l’infiltration des eaux dans le sol plutôt que les évacuer dans des réseaux d’évacuation coûteux, et de participer à la résorption des îlots de chaleur, il semble judicieux de réinscrire la forêt comme une composante clé du territoire qui l’englobe. De fait, dans chaque espace doté d’une composante forestière, un réapprentissage mutuel permanent s’établit, de sorte que la société environnante redéfinit cette part forestière, de la même manière que la forêt requalifie en retour cette société.

Couverture de l’ouvrage Vivre la forêt
Editions Odile Jacob

Rétablir la dimension territoriale de la forêt suppose non seulement de concéder à l’apprentissage de la complexité, mais aussi d’accepter que les problèmes que l’on identifie au premier abord ne soient pas toujours conformes à notre représentation, ni même au mode de pensée que l’on déploie pour parvenir à cette représentation.

Cela revient parfois à concéder à l’incertitude et à l’inconnu, sans toutefois s’en dessaisir, et à considérer que les alternatives ou solutions à des problèmes ne peuvent émerger que dans un cadre collectif de pensée et de dialogue.

The Conversation

Jacques Tassin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quel avenir pour les forêts ? Un nécessaire pas de côté pour la recherche forestière – https://theconversation.com/quel-avenir-pour-les-forets-un-necessaire-pas-de-cote-pour-la-recherche-forestiere-257075

BD : L’Héritage du dodo (épisode 8)

Source: The Conversation – Indonesia – By Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay

Qu’est-ce qui nous empêche d’agir pour préserver l’environnement ? Fourni par l’auteur

La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité, chaque mercredi, les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp. Dans l’épisode 8, on s’interroge sur les raisons qui nous empêchent d’agir en faveur de l’environnement. Du mouvement climatosceptique, aux freins psychologiques, en passant par les barrières structurelles de nos sociétés.


L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…

On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !

Retrouvez ici le huitième épisode de la série !

Ou rattrapez les épisodes précédents :

Épisode 1
Épisode 2
Épisode 3
Épisode 4
Épisode 5
Épisode 6
Épisode 7


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Rendez-vous la semaine prochaine pour l’épisode 9 !
Pour ne pas le rater, laissez-nous votre adresse mail

Ou abonnez-vous à L’Héritage du dodo sur :

Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?

Republication des planches sur support papier interdite sans l’accord des auteurs


Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.

The Conversation

Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.

Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. BD : L’Héritage du dodo (épisode 8) – https://theconversation.com/bd-lheritage-du-dodo-episode-8-259162

Qu’est-ce que le paiement pour service environnemental ?

Source: The Conversation – Indonesia – By Alain Karsenty, Économiste de l’environnement, chercheur et consultant international, Cirad

Ils rémunèrent des personnes ou des entreprises pour un certain usage des terres que l’on associe, à tort ou à raison, à une amélioration des services écosystémiques. IZE-5tyle/Shutterstock

Le paiement pour services environnementaux ou PSE est, selon sa définition officielle, un instrument économique pour l’environnement consistant en la rémunération d’une personne ou d’une organisation qui rend un service environnemental. Un dispositif de ce type a été créé par le gouvernement français, notamment à destination des agriculteurs. L’objectif : rémunérer les pratiques vertueuses contribuant à maintenir et à restaurer les services écosystémiques dont bénéficie toute la société.


D’ici le 1er septembre 2026, tous les États membres de l’Union européenne doivent élaborer leur plan de restauration de la nature. Il vise à enrayer l’érosion de la biodiversité et à revitaliser les écosystèmes sur l’ensemble du territoire. Une action politique qui met en lumière la notion de paiement pour service environnemental.

Les services environnementaux sont rendus à d’autres humains – où qu’ils soient dans le temps et l’espace – à travers une action intentionnelle visant à préserver, restaurer ou augmenter un service écosystémique. Un agriculteur qui stoppe l’usage de pesticides ou créé des îlots de plantes mellifères fournit un service environnemental qui va favoriser le service écosystémique de pollinisation rendu par les abeilles.

Quant aux services écosystémiques, ils sont définis par le Millenium Ecosystem Assessment comme « les bénéfices directs et indirects que les hommes retirent de la nature ». Certains insectes apportent un service de pollinisation, une formation végétale apporte des bénéfices en termes de régulation du ruissellement et de fixation du carbone.

Alors faut-il parler de paiements pour services écosystémiques ou pour services environnementaux ?

Service écosystémique et environnemental

Si l’on se réfère aux travaux de l’évaluation française des écosystèmes et services écosystémiques (EFESE), il est plus logique de parler de paiements pour services environnementaux. L’EFESE distingue clairement deux notions :

  • Service écosystémique : fonction d’un écosystème dont l’utilisation permet de retirer un avantage – pour l’agriculteur, ou de manière plus générale pour la société.

  • Service environnemental : action ou mode de gestion d’un acteur, comme un agriculteur, qui améliore l’état de l’environnement en permettant l’augmentation d’un service écosystémique.

Fonctionnement type d’un paiement pour service environnemental.
Banque des territoires

Muradian et ses collègues envisagent les paiements pour service environnemental comme « des transferts de ressources entre des acteurs sociaux, dans le but de créer des incitations pour aligner les décisions individuelles et/ou collectives quant à l’usage des sols avec l’intérêt social concernant la gestion des ressources naturelles ». Ils rémunèrent des personnes ou des entreprises pour un certain usage des terres que l’on associe, à tort ou à raison, à une amélioration des services écosystémiques.

Sept points clés

Nous pouvons caractériser les paiements pour service environnemental à travers sept points clés :

  • Paiements directs : les paiements sont effectués directement aux prestataires de services environnementaux, souvent par le biais d’un intermédiaire comme un programme. Les bénéficiaires sont les usagers du foncier et des ressources dont les pratiques ont un impact direct sur les services écosystémiques. Les paiements peuvent être en argent, sous forme d’investissements ou de services, comme la sécurisation foncière. Le montant des paiements peut être négocié ou, le plus souvent, faire l’objet d’un barème fixé par le programme.

  • « Bénéficiaire-payeur » : les bénéficiaires directs ou indirects des services environnementaux – individus, communautés, entreprises, ou institutions agissant au nom de l’intérêt général – paient pour ces services.

  • Caractère volontaire et contractuel : les bénéficiaires des paiements adhèrent librement au programme à travers des accords contractuels qui les engagent pour une certaine durée. Mais le financement des PSE n’est pas forcément volontaire et peut être contraint (renchérissement des factures d’eau, redevances sur différents produits ou services, impôt).

  • Conditionnalité : les paiements dépendent de la fourniture continue des services environnementaux, au sens du respect des obligations contractuelles. Les paiements sont généralement basés sur la mise en œuvre de pratiques de gestion dont les parties conviennent contractuellement qu’ils sont susceptibles de donner lieu à ces avantages.

  • Ciblage : En général, les PSE sont concentrés sur certaines zones d’importance écologique et/ou menacée (ciblage géographique). Le ciblage social, c’est-à-dire le fait de réserver l’offre de PSE aux producteurs à faibles revenus ou à des populations autochtones, est moins pratiqué. Toutefois, quand les paiements se font sur une base surfacique, les montants versés sont souvent plafonnés ou dégressifs à partir d’un seuil de surface.

  • Additionnalité : les paiements sont effectués pour des actions qui vont au-delà de celles que les gestionnaires des terres accompliraient même en l’absence de paiements. Cette condition est controversée, car elle risque d’exclure des bénéfices des PSE des populations ou des producteurs aux pratiques déjà écologiquement vertueuses. En pratique, elle est rarement appliquée du fait des coûts de vérification, par rapport à un scénario business-as-usual. Il en va de même pour l’additionnalité légale. On ne devrait pas, en principe, rémunérer pour empêcher des pratiques déjà prohibées par les règlements, mais beaucoup de programmes de PSE le font néanmoins pour faciliter l’application des lois.

  • Sécurité foncière : un titre de propriété n’est pas une condition sine qua non. Les bénéficiaires des paiements doivent disposer au minimum d’un « droit d’exclusion » et de droits de gestion sur la terre dont ils sont les usagers.


La série « L’envers des mots » est réalisée avec le soutien de la Délégation générale à la langue française et aux langues de France du ministère de la Culture

À découvrir aussi dans cette série :

The Conversation

Alain Karsenty ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Qu’est-ce que le paiement pour service environnemental ? – https://theconversation.com/quest-ce-que-le-paiement-pour-service-environnemental-256607

Comment former les futurs citoyens du monde ? Une urgence éducative et éthique

Source: The Conversation – Indonesia – By Maria Fernanda Gonzalez Binetti, maitre de conférences, Institut catholique de Paris (ICP)

Comment former des citoyens du monde ? Si la question est cruciale dans un monde interconnecté, les réponses à apporter sont complexes tant elles impliquent de repenser l’organisation classique des parcours scolaires et universitaires. Quelques repères.


« En entrant en Espagne, je n’ai pas l’impression d’arriver, mais de revenir […] Nos classiques sont les classiques de l’Espagne, nos prénoms et nos noms de famille viennent presque tous de là-bas, nos rêves de justice, et même certaines de nos colères de sang et de fanatisme, sans parler de nos vieux restes d’honneur hidalgo, sont un héritage espagnol. »

Ces paroles du prix Nobel de littérature colombien Gabriel García Márquez s’adressaient au président espagnol José María Aznar, au moment où celui-ci envisageait d’imposer un visa aux citoyens latino-américains souhaitant entrer sur son territoire. L’homme de lettres, qui avait connu une vie d’errance dès les années 1950 et dépeint la guerre froide, les complexes relations Nord/Sud, et les inégalités sociales, mettait en valeur l’esprit universaliste, qui embrasse à la fois la richesse des racines et celle de l’étranger.

Un quart de siècle plus tard, la guerre entre la Russie et l’Ukraine ainsi que les conflits au Proche-Orient ravivent les tensions entre nations et alimentent un discours xénophobe. L’accession de Donald Trump à la Maison Blanche semble marquer une rupture profonde avec l’ordre mondial établi depuis la Seconde Guerre mondiale. Le multilatéralisme, fondé sur la coopération internationale, est remis en cause ; et son négationnisme face au changement climatique, sa radicalité ultraconservatrice et sa vision essentiellement mercantile constituent les marqueurs de son action politique.

Or, dans un monde de plus en plus interconnecté, où les interdépendances ne se limitent plus aux seuls domaines économique et commercial, il devient urgent de promouvoir une éducation à la citoyenneté mondiale, tout au long de la vie.

C’est précisément à cette tâche que l’Unesco s’attelle depuis 2011. Son guide Éducation à la citoyenneté mondiale : Préparer les apprenants aux défis du XXIᵉ siècle définit cette éducation comme un sentiment d’appartenance à une humanité commune, tout en établissant des liens entre le local, le national et le mondial. Pour cela, elle propose trois axes : une approche cognitive pour étudier institutions et enjeux géopolitiques ; une approche socioaffective, visant à renforcer des valeurs telles que les droits de l’homme, la solidarité et le respect pour la diversité ; sans oublier un engagement concret envers les causes sociales, la paix et la défense des valeurs démocratiques.

Dans son rapport de 2021 sur les futurs de l’éducation, l’Unesco souligne la nécessité de renforcer les compétences en citoyenneté mondiale ainsi que les compétences socioémotionnelles, essentielles à la participation civique et économique.

Les études transnationales menées par l’International Association for the Evaluation of Educational Achievement (IEA) et l’OCDE révèlent les difficultés rencontrées par les élèves dans ces domaines, comparables à celles observées en lecture, en mathématiques ou en sciences. Dès 2018, l’OCDE a intégré dans son enquête PISA une évaluation de la « compétence mondiale », visant à mesurer les acquis des élèves de 15 ans en matière d’apprentissage interculturel et global.

La citoyenneté mondiale : une notion complexe

Le Dictionnaire critique des enjeux et concepts des « éducations à » constate que celles-ci émergent dans les années 1980 en réponse à de nouveaux défis sociaux, économiques et politiques. Elles abordent divers domaines, allant de l’éducation à la citoyenneté et la solidarité, la biodiversité, l’interculturalité, la paix, jusqu’à l’éducation aux médias et à l’information, et incluent même l’éducation à la santé sexuelle, entre autres.

Mais leur émergence suscite de nombreuses critiques. D’une part, elles ne possèdent pas de structure propre, car elles ne s’appuient pas sur une discipline académique définie, leur principale caractéristique étant de répondre à des enjeux sociaux conjoncturels ; ce qui nécessite l’étude de multiples champs du savoir. D’autre part, leur contenu multidisciplinaire et leur dynamique pédagogique, qui privilégient les groupes réduits pour favoriser le débat et la pratique plutôt que les cours magistraux, rendent leur mise en œuvre plus complexe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Enfin, elles peuvent être enseignées par des intervenants extérieurs, ce qui remet en question le monopole de l’éducation formelle. Ces acteurs, liés à l’apprentissage informel, se rencontrent fréquemment au sein d’organisations non gouvernementales de développement. Comme le montre Laura Sullivan, vice-présidente de l’ONG européenne Concord dans son dossier sur l’éducation à la citoyenneté mondiale en Europe le financement des projets liés à l’éducation à la citoyenneté mondiale en Europe est majoritairement assuré par les ministères des Affaires étrangères, plutôt que par les ministères de l’éducation nationale.

Bien que l’Agence française de développement (AFD) promeuve plusieurs projets dans ce domaine, le dossier de Concord souligne le faible engagement du ministère de l’éducation nationale en matière d’éducation à la citoyenneté mondiale (ECM).

Au niveau européen, compte tenu de l’ampleur des thématiques abordées, chaque pays définit la citoyenneté mondiale de manière différente, ce qui pose aussi la nécessité d’un débat sémantique. Cela dit, de manière générale, la plupart des projets sont liés à l’éducation au développement et à la solidarité.

Perspectives en France

En lien avec les nouveaux programmes d’enseignement moral et civique, une circulaire interministérielle a été émise en 2024 pour guider les enseignements de « l’éducation à la citoyenneté mondiale et à la solidarité internationale, de l’éducation au développement durable et de l’éducation à la citoyenneté mondiale ».

Comme le souligne la brochure, dans le cadre des Objectifs de développement durable, il est nécessaire d’instruire et d’éduquer de nouvelles générations engagées et responsables face à de nombreux défis : les inégalités socioéconomiques, la lutte contre le racisme et la xénophobie, les enjeux du développement solidaire au Sud, ou encore la protection de la biodiversité.




À lire aussi :
Débat : Et si nous faisions des jeunes les premiers citoyens de la planète ?


À l’Institut catholique de Paris, nous avons créé un Grand Cours sur la citoyenneté mondiale, afin de proposer une réflexion approfondie sur les enjeux de cette éducation face aux défis contemporains.

Lors des sessions de 2024 et 2025, ce Grand Cours a été proposé à l’ensemble des facultés, et réuni 450 étudiants issus de diverses formations de licence. Grâce à des approches théoriques et à la participation d’experts en cosmopolitisme, tels les philosophes Francis Wolff et Louis Lourme, l’ancien directeur de l’Unesco Federico Mayor Zaragoza, le professeur en urbanisation par les plateformes numériques Filippo Bignami, Claire Thoury, présidente du Mouvement associatif, ou encore Vincent Picard, vice-président en France de la communauté de Sant’Egidio, les étudiants ont exploré les principales notions et initiatives liées à ce domaine.

Les évaluations montrent que, si certains étudiants perçoivent cette approche comme idéaliste ou utopique, tous en reconnaissent le bien-fondé. Ils soulignent l’intérêt d’une éducation fondée sur la responsabilité, le bien commun et la compréhension du monde.

Les questions cruciales de l’actualité nous obligent à repenser l’éducation des nouvelles générations. Il est temps de construire des ponts entre les différents partenaires, de renforcer la recherche en éducation à la citoyenneté mondiale, et de confier un rôle clé au ministère de l’éducation nationale pour former les nouveaux enseignants dans un esprit humaniste et engagé envers ce monde qui est le nôtre.

The Conversation

Maria Fernanda Gonzalez Binetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment former les futurs citoyens du monde ? Une urgence éducative et éthique – https://theconversation.com/comment-former-les-futurs-citoyens-du-monde-une-urgence-educative-et-ethique-254340

Associations d’idées, nouveaux challenges : les secrets de la mémoire pour mieux apprendre

Source: The Conversation – Indonesia – By Judith Schomaker, Assistant Professor, Department of Health, Medical and Neuropsychology, Leiden University

Le cerveau aime classer et étiqueter les informations, et notre mémoire est organisée en catégories sémantiques. gonzagon/Shutterstock

Si la nouveauté stimule le cerveau, l’assimilation d’informations inconnues est un véritable défi, particulièrement flagrant quand il s’agit de préparer des examens scolaires et universitaires. Comment créer alors des associations d’idées pour ancrer les apprentissages dans la durée ?


Lorsqu’on se prépare à passer des examens, on a parfois l’impression qu’il sera impossible de stocker dans son cerveau toutes les informations à retenir. Mais il existe des solutions pour créer les conditions nécessaires à des révisions aussi efficaces que possible.

Mes recherches sur la mémoire montrent que la nouveauté comme la familiarité peuvent avoir une influence sur la mémoire. Vous pouvez utiliser la première pour vous préparer à un apprentissage, et la seconde pour organiser votre mémoire et conserver vos connaissances.

Pour commencer, il peut s’agir d’aller se promener dans un quartier que vous ne connaissez pas ou de regarder une œuvre d’art pour la première fois – sur place ou en ligne – avant même de commencer à étudier.

Dans notre laboratoire, nous avons observé mes collègues et moi-même que nous avons plus de chances de nous souvenir d’une nouvelle information si nous venons de visiter un endroit qui ne nous est pas familier.

Dans le cadre de l’expérience, les participants venaient au laboratoire pour se familiariser avec un environnement virtuel sur un PC ou avec un casque de réalité virtuelle. Il s’agissait d’une île fantastique avec des éléments inattendus, comme des sucres d’orge de la taille d’un réverbère. Nous avons invité les participants à revenir à deux reprises. Au cours de ces sessions, ils ont exploré le même environnement virtuel – désormais familier – et un autre qu’ils n’avaient jamais vu auparavant.

Après chaque tour d’exploration virtuelle, les participants à l’expérience se voyaient présenter une série de mots qu’ils devaient essayer de mémoriser. Nous les avons ensuite testés après une tâche « distractive » complètement différente qui consistait à résoudre des problèmes mathématiques simples. Il est intéressant de noter que les participants qui avaient exploré un nouvel environnement se souvenaient généralement de plus de mots que ceux qui avaient exploré un environnement familier. Cela suggère que la nouveauté peut préparer le cerveau à l’apprentissage.

Après avoir préparé votre cerveau à une incursion dans l’inconnu, il est temps de tirer parti de la familiarité.

Ce qu’apporte la familiarité aux apprentissages

L’apprentissage d’informations entièrement nouvelles est souvent très difficile. Les élèves déclarent souvent avoir lu plusieurs pages sans parvenir à se souvenir de ce qu’ils ont lu.

Il peut y avoir plusieurs raisons à cela, mais l’une d’entre elles est qu’il est ardu de mémoriser quelque chose de très différent de ce que l’on a appris auparavant.

Le cerveau aime classer et étiqueter les informations, et notre mémoire est organisée en catégories sémantiques. Par exemple, si je mentionne « fauteuil pivotant », « ordinateur » et « classeur », le terme général de « bureau » peut venir à l’esprit.

Les associations d’idées de ce type sont cruciales lors de la récupération des informations car elles peuvent servir d’indices. C’est ce que les chercheurs appellent souvent « schéma de mémoire ».


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Lorsque vous devez apprendre quelque chose de nouveau, votre cerveau essaie de classer ces nouvelles informations. Si un lien peut être établi avec quelque chose que vous connaissez déjà, cette information peut plus facilement être intégrée dans un schéma de mémoire existant.

Sur la base d’études, nous pourrions prédire que préparer un test est plus efficace lorsque vous avez déjà des connaissances sur le sujet, car cela vous permet d’intégrer des informations nouvelles dans un schéma de mémoire existant et de retrouver ces informations plus facilement à un moment ultérieur.

Par exemple, imaginez que vous mangez un kiwi jaune pour la première fois. Votre expérience antérieure des kiwis verts vous permettra de reconnaître le fruit. L’expérience nouvelle que constitue la consommation de ce kiwi légèrement plus sucré est facile à intégrer dans votre bagage d’informations sur les kiwis, notamment leur aspect, leur texture et leur goût.

Créer des associations d’informations

Toutefois, dans le cadre d’examens, l’apprentissage porte souvent sur des concepts abstraits. Les schémas de mémoire correspondants sont sous-développés pour les informations moins concrètes, ce qui corse leur mémorisation.

Dans le cadre d’un cours de psychologie biologique que j’assure, les étudiants doivent se familiariser avec le transfert d’informations entre les cellules du cerveau. L’un des aspects cruciaux de ce sujet est le changement de chimie du neurone, entre le moment où il est au repos et celui où il émet un signal, et les ions de potassium et de chlorure de sodium impliqués.

Les résultats des examens ont montré que les étudiants avaient du mal à se souvenir de ces processus. Une année, j’ai décidé d’introduire un simple aide-mémoire visuel : l’image d’une banane surmontée d’un récipient de sel de table.

Image of a banana and table salt labelled as ions
Aide-mémoire destiné aux élèves.
Judith Schomaker, CC BY-NC-ND

La plupart des élèves savent que les bananes sont riches en potassium, tandis que le sel de table est du chlorure de sodium. Cette image simple montre la situation d’un neurone au repos : beaucoup de potassium à l’intérieur et beaucoup de chlorure de sodium à l’extérieur de la cellule. Mais lorsque le neurone fonctionne, les canaux ioniques s’ouvrent et, en raison des lois de la diffusion, le potassium s’écoule et le chlorure de sodium entre dans la cellule.

Après l’introduction de cet aide-mémoire, les résultats des étudiants à la question portant sur ce sujet ont augmenté de manière significative. L’année dernière, notre outil de surveillance des examens l’a même qualifiée de « trop facile », car un grand nombre d’étudiants l’avaient réussie. L’image a facilité l’intégration de nouvelles connaissances dans un schéma existant, car elle associe des informations nouvelles et abstraites à des éléments bien connus : la banane et le sel de table.

Lors de la préparation d’un examen, il peut donc être utile de réfléchir à la manière dont les nouvelles informations que vous essayez de mémoriser sont liées à des choses que vous connaissez déjà, même si ces informations ne sont pas directement pertinentes pour l’examen. Savoir que les bananes sont riches en potassium, par exemple, n’est pas un objectif d’apprentissage dans un cours de psychologie biologique.

Et si vous commencez par vous promener dans un nouvel endroit, c’est encore mieux. Nous espérons que ces conseils vous aideront à faire de l’épreuve des examens des souvenirs impérissables.

The Conversation

Judith Schomaker a reçu des financements du NWO, du LUF et du LLinC.

ref. Associations d’idées, nouveaux challenges : les secrets de la mémoire pour mieux apprendre – https://theconversation.com/associations-didees-nouveaux-challenges-les-secrets-de-la-memoire-pour-mieux-apprendre-256346

Personnes âgées : une solidarité familiale trop souvent passée sous silence

Source: The Conversation – Indonesia – By Christophe Capuano, Professeur des universités en histoire contemporaine, Université Grenoble Alpes (UGA)

Contrairement à un cliché tenace, à l’approche de l’été, les familles ne s’empressent pas de déposer leurs proches âgés en maison de retraite pour partir en vacances. Pourtant, l’idée d’un entourage égoïste persiste, entretenu par les médias et les politiques au fil de crises, comme celle de la canicule de 2003. Les recherches sur les solidarités familiales dessinent une tout autre histoire. Comment expliquer son invisibilisation ?


Les réticences face à l’adoption d’une loi sur l’accompagnement de la fin de vie réactivent un certain nombre de représentations négatives sur les familles et leur supposé égoïsme. Certaines d’entre elles seraient susceptibles d’encourager, par intérêt, leur parent âgé à recourir à cette aide à mourir – soit pour recevoir un héritage, soit pour ne plus payer l’Ehpad. Quant aux personnes vulnérables concernées, elles seraient davantage susceptibles de la solliciter lorsque le sentiment d’abandon par leurs proches et d’isolement relationnel serait le plus aigu.

Lors de la crise sanitaire du Covid-19 ou de la canicule de l’été 2003, l’opprobre avait déjà été jeté sur les familles soupçonnées de délaisser leurs proches, tant en institution qu’à domicile.

Sans nier la réalité d’un sentiment d’isolement chez certains, il semble nécessaire d’éclairer la réalité de ces solidarités familiales intergénérationnelles. Et surtout de comprendre comment des représentations négatives, construites au cours des deux derniers siècles, se sont renforcées depuis les années 2000.

Des solidarités familiales invisibilisées

Les familles sont depuis longtemps soupçonnées de se défausser de leur responsabilité sur la solidarité publique. Cette vision naît avec le développement d’un système d’assistance en France, parallèlement au développement d’une pensée anti-individualiste et moralisante au XIXᵉ siècle.

La solidarité vis-à-vis des personnes âgées relève d’une logique de subsidiarité, fondée notamment sur l’article 205 du Code civil (1804) et l’obligation alimentaire des descendants vis-à-vis des ascendants. L’assistance publique intervient – pour des vieillards de bonnes mœurs et sans ressource – uniquement si les familles sont défaillantes ou trop pauvres pour aider leur parenté. Cela concerne le placement en hospices comme le versement de prestations à domicile, généralisé avec la loi d’assistance du 14 juillet 1905. Selon celle-ci, les sommes versées par les familles pour soutenir leur proche âgé sont défalquées des sommes (pourtant minimes) attribuées par la solidarité publique.

Or, les besoins sont immenses dans une société où il n’existe pas de dispositif de retraite et où les corps sont usés par le travail. De nombreux vieillards sont contraints de demander à entrer en institution pour échapper à la misère et rejoignent ainsi une longue liste d’attente. Dans ce contexte, les familles optent alors massivement pour une aide clandestine : il s’agit de dissimuler aux pouvoirs publics les quelques ressources qu’elles pourraient verser à leurs vieux parents restés à leur domicile.

Cette situation est révélée au grand jour lors de la Première Guerre mondiale lorsque des fils, envoyés sur le front, ne peuvent plus assurer ce transfert secret d’argent. Privées de ce complément financier, de nombreuses personnes âgées sombrent alors dans la misère la plus extrême. L’invisibilisation de ces solidarités au début du siècle a construit le mythe selon lequel les familles abandonneraient leurs proches à leur propre sort ou qu’elles frauderaient pour éviter de faire jouer l’obligation alimentaire ou la récupération sur succession après décès.

Cohabiter ou vivre en voisins

Durant l’entre-deux-guerres, le nombre d’entrées en institution continue sa hausse, parallèlement à une suspicion croissante vis-à-vis des familles. Celles-ci font pourtant ce qu’elles peuvent mais la dégradation de la conjoncture et le spectre du chômage rendent plus difficiles d’aider un proche âgé.

Durant l’Occupation et les années 1950, la cohabitation intergénérationnelle augmente pourtant, avec son lot de tensions intrafamiliales, mais elle est contrainte, et due aux circonstances exceptionnelles de la période. Il y a d’abord la nécessité de sortir son parent de l’hospice pour éviter qu’il ne meure de faim puis, après-guerre, une crise aiguë du logement que subissent toutes les générations françaises.

Le fort recul de cette cohabitation à partir des années 1960 et l’augmentation de la part des personnes âgées vivant seules sont lus comme un déclin des solidarités au sein des familles – y compris par les sociologues qui se focalisent sur l’éclatement des liens familiaux contemporains, en parallèle à la hausse des divorces. De leur côté les médecins dénoncent ce qu’ils désignent comme « le syndrome de la canne à pêche » : le dépôt à l’hôpital de leur proche âgé par les familles pour les vacances.

Ces condamnations moralisatrices et culpabilisantes masquent pourtant une autre réalité : le manque criant de soutien des pouvoirs publics aux familles aidantes et l’absence de dispositifs de répit pour permettre à ces dernières de souffler quelques semaines. Par ailleurs, les mutations sociales renforcent l’invisibilité des solidarités. La cohabitation intergénérationnelle recule avec la sortie de la crise du logement, les personnes âgées, en meilleure santé aspirent à vivre de manière autonome.

Mais vivre seul ne signifie pas vivre de manière isolée. La géographe Françoise Cribier et la sociologue Claudette Collot prouvent au début des années 1970 l’importance de l’habitat de proximité entre les générations. La régularité de visites des enfants adultes permet alors de nouvelles relations d’intimité à distance. À leur suite, plusieurs travaux comme ceux d’Agnès Pitrou montrent l’importance de cette redécouverte des solidarités familiales et de l’habitat choisi.

Se multiplient ainsi les études qui définissent la parenté comme réseau d’entraide. Les sciences sociales utilisent alors, durant les années 1980, l’expression d’« aidants familiaux » : la capacité protectrice de la famille est mise en regard des limites de la protection publique.

Ces travaux insistent sur le rôle attendu et assumé par les familles dans la promotion de la santé des personnes âgées fragiles. Ils utilisent différentes notions empruntées pour partie au monde anglo-saxon : support, secours, soins, assistance.

Les recherches en gérontologie et en sociologie de la santé traitent de la solidarité familiale en termes de soutien ou de support social ; elles mettent aussi au jour l’existence de « générations pivots » ou « générations sandwichs », des générations d’aidants au croisement de l’aide aux aînés et du support aux enfants ou jeunes adultes.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Des clichés persistants sur les liens intergénérationnels

Si les travaux scientifiques sur l’aide familiale font pièce aux représentations d’un désengagement familial, cette vision biaisée continue d’être alimentée par des politiques et dans les médias. Dans le Paravent des égoïsmes, publié en 1989, l’ancienne ministre de la santé et de la famille, Michèle Barzach, reprend le schéma d’un supposé déclin des solidarités, dénonçant un « égoïsme collectif, qui nous mène à un lent dépérissement de la population, et un égoïsme individuel qui, au nom de la solidarité nationale, nous dispense de regarder autour de nous ». Elle condamne également la fin de la cohabitation avec les aînés qui n’aurait pas été remplacée par « d’autres formes de solidarité ». Voilà qui « aurait favorisé l’exclusion des personnes âgées, l’amélioration de leur situation matérielle ne suffisant pas à compenser leur isolement ».

En 1989, pour se prémunir de familles financièrement intéressées, la loi sur l’accueil familial fixe les conditions de rémunérations des familles nourricières, mais en exclut les familles naturelles qui hébergeraient un parent âgé. Durant les années 1990, lors des débats sur la création d’une allocation dépendance, certains sénateurs disent suspecter les familles de vouloir se « décharger de leurs obligations sur l’aide sociale ».

Ces conceptions idéologiques sont réactivées lors de la canicule de 2003 dont l’essentiel des victimes (14 802 morts) a plus de 75 ans. Les dirigeants et les médias accusent à tort les familles d’avoir délaissé leurs proches durant l’été comme le démontre bien l’historien Richard Keller. Ils diffusent cette affirmation alors même que 64 % des personnes sont mortes en institution, notamment en Ehpad.

Durant les années 2000-2020, dans un contexte où l’injonction est au maintien au domicile, les familles qui placent malgré tout leur parent âgé en institution restent soupçonnées de l’abandonner. Et comme le coût de l’hébergement en Ehpad, une fois soustraite l’ASH est à leur charge, elles sont également suspectées d’espérer un séjour le plus court possible. De là à voir certains membres familiaux souhaiter un décès rapide il n’y a qu’un pas, surtout qu’il pourrait être franchi en complicité avec une partie du corps médical qui y verrait une forme de thérapie létale – risques que brandissent les pourfendeurs de la loi sur l’aide à mourir.

C’est oublier pourtant que ces familles – en particulier les femmes aidantes – constituent les principales pourvoyeuses de « care » dans nos sociétés contemporaines, que le proche âgé soit maintenu au domicile ou en établissement. Et qu’une loi sur la fin de vie d’une telle portée sociétale ne peut être acceptée sans que les familles françaises y soient associées et y souscrivent, d’une façon ou d’une autre. C’est à cette condition que cette nouvelle disposition fonctionnera pleinement, comme nous le montrent les exemples belges ou néerlandais.


Cet article s’inscrit dans le projet KAPPA « Conditions d’accès aux aides et politiques publiques de l’autonomie. Origines, implications et perspectives d’évolution de la segmentation par âge », bénéficiant du soutien de l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Christophe Capuano a reçu des financements de la MIre/Drees et de la CNSA.

ref. Personnes âgées : une solidarité familiale trop souvent passée sous silence – https://theconversation.com/personnes-agees-une-solidarite-familiale-trop-souvent-passee-sous-silence-256668

Bac, brevet, CAP : petite histoire des examens en cinq questions

Source: The Conversation – Indonesia – By Claude Lelièvre, Enseignant-chercheur en histoire de l’éducation, professeur honoraire à Paris-Descartes, Université Paris Cité

À quoi les premières sessions du baccalauréat ressemblaient-elles ? Quand le brevet des collèges a-t-il été créé ? À partir de quand l’université s’est-elle féminisée ? En quelques grandes questions, retour sur l’histoire des examens alors que les lycéens et étudiants passent les dernières épreuves de l’année.


Le recours systématique à l’organisation d’examens et à la collation de « grades » attestés dans des diplômes pour valider les connaissances acquises par l’enseignement est une pratique apparue avec les premières universités médiévales au tournant des XIIe et XIIIe siècles.

L’élément central du dispositif a été la licence qui, de simple acte juridique (l’octroi d’une « autorisation », d’un « droit d’enseigner ») s’est assez vite transformée en « examen » et en « grade » pour se retrouver elle-même encadrée rapidement par deux autres grades, eux-mêmes conférés après examen : le baccalauréat d’abord et la maîtrise ensuite.

Ce dispositif « à trois étages » de validation des connaissances s’est imposé partout. La quasi stabilité du vocabulaire qui permet de le décrire – baccalauréat (certes parfois appelé « determinatio »), licence, maîtrise (ou master) – est la meilleure preuve de sa prégnance qui a survécu jusqu’à nos jours.

Alors que les lycéens passent les dernières épreuves du bac et que les étudiants guettent leurs résultats de fin d’année, retour en cinq questions sur l’histoire des premiers examens du parcours scolaire.

À quoi le baccalauréat servait-il lorsqu’il a été institué en 1808 ?

Il a gardé de l’ancien baccalauréat sa face universitaire et il a été le point de départ des baccalauréats dits « généraux » que nous connaissons. Mais avec une grande différence, au début, puisqu’il s’agissait d’un examen entièrement oral dont le jury était uniquement composé d’universitaires.

Le statut du 16 février 1810 précise que les examinateurs du baccalauréat doivent être au nombre de trois universitaires. Cet examen oral porte sur « tout ce que l’on enseigne dans les hautes classes des lycées » (les deux dernières). Peu à peu, des épreuves écrites sont ajoutées. Surtout, peu à peu également, le jury qui fait effectivement passer l’examen du baccalauréat comporte de moins en moins d’universitaires et de plus en plus de professeurs du secondaire.

Pour Napoléon Ier qui a été le créateur de ce baccalauréat, il s’agissait avant tout d’instruire dans les lycées nouvellement créés les futurs officiers et hauts administrateurs de son Empire. De fait, selon l’expression du philosophe Edmond Goblot, le baccalauréat a été tout au long du XIXe siècle « un brevet de bourgeoisie ».

Quand les filles ont-elles eu pour la première fois accès au lycée et à l’université ?

Même quand la loi Camille Sée de décembre 1880 institue avec le soutien de Jules Ferry des établissements d’enseignement secondaire féminin publics, les filles peuvent très difficilement passer le baccalauréat et suivre un cursus à l’université. En effet, à la différence des lycées de garçons institués en 1802, le plan d’études des lycées de jeunes filles ne comporte pas les disciplines qui sont alors le fleuron de l’enseignement secondaire et du baccalauréat : le latin, le grec et la philosophie.

Portrait de Julie-Victoire Daubié, par Pierre Petit (1861)
Portrait de Julie-Victoire Daubié, par Pierre Petit (1861).
Wikimedia

Mais le baccalauréat n’est pas juridiquement interdit aux jeunes filles ; et certaines d’entre elles le passeront en candidates libres : une trentaine en 1890, une centaine en 1909. La première bachelière qui a obtenu le diplôme du baccalauréat est Julie Daubié, en 1861. Elle sera aussi la première licenciée es lettres française en 1871.

Il a fallu presque un demi-siècle pour qu’un décret en date du 25 mars 1924 aménage officiellement une préparation au baccalauréat présentée comme une section facultative alignée totalement sur le secondaire masculin, tout en perpétuant un enseignement secondaire féminin spécifique institué en 1880 (avec son diplôme spécifique de « fin d’études secondaires », au titre significatif…).




À lire aussi :
Histoire : la longue marche des filles vers l’université


Les jeunes filles commencent alors leur « longue marche » conquérante. Dès 1936, les jeunes filles représentent le quart des élèves reçus à l’examen du baccalauréat. En 1965, leur taux d’accès arrive au même niveau que celui des garçons : 13 % de la classe d’âge. Et le pourcentage de jeunes filles inscrites à l’université monte vite : un quart des étudiants en 1930, un tiers en 1950, pour atteindre la moitié en 1981.

Pourquoi a-t-on créé le brevet ?

D’abord, de quel brevet parle-t-on ? Au XIXe siècle, le « brevet » est d’abord et avant tout un « brevet de capacité » qui certifie que l’on est « en capacité » de devenir maître (ou maîtresse) d’école, et plus généralement un examen qui est parfois requis pour être « en capacité » d’exercer certains métiers appartenant à ce que l’on appellerait maintenant la sphère des cadres intermédiaires.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


En 1947, dès le début de la forte augmentation du taux de scolarisation dans l’enseignement secondaire qui commence sous la IVe République, le « brevet » est transformé en « brevet d’études du premier cycle du second degré » (BEPC), son appellation nouvelle signant ce qu’il est devenu avant tout, à savoir un examen qui scande un cursus secondaire désormais clairement constitué de deux cycles. Mais ce n’est nullement une condition pour passer en classe de seconde et cela ne l’a jamais été jusqu’ici, même si cela est envisagé.

À partir de 1981, le diplôme – désormais intitulé « brevet des collèges » – est attribué sans examen, au vu des seuls résultats scolaires. Mais, en 1986, un « examen écrit » est réintroduit avec le triple objectif annoncé de « revaloriser le diplôme », de « motiver » davantage les élèves, et de les « préparer » à aborder des examens ultérieurement. Lors de sa première mouture, le taux de reçus n’a pas dépassé 49 %.

CAP, BEP, bac pro : quand les diplômes de la voie professionnelle ont-ils été créés ?

Le certificat d’aptitude professionnelle (CAP), destiné à sanctionner un apprentissage, est institué en 1911. Cet examen est réservé aux « jeunes gens et jeunes filles de moins de dix-huit ans qui justifient de trois années de pratiques dans le commerce et l’industrie » (décret du 24 octobre 1911). Mais comme le CAP n’a pas été rendu obligatoire ni même associé à une grille de rémunération, le CAP demeurera un diplôme rare dans un premier temps.

Le brevet d’enseignement professionnel (BEP) a été créé en 1966. Il a été institué dans le but de remplacer progressivement le CAP en ayant un caractère plus théorique et moins pratique. Préparé en deux ans après la classe de troisième, il relevait d’une conception plus scolaire de la qualification ouvrière face aux exigences techniques de l’industrie et du commerce modernes.




À lire aussi :
Lycée : surmonter les clichés sur la voie professionnelle


Le baccalauréat professionnel, institué en 1985, parachève cette évolution. Selon Jean-Pierre Chevènement, le ministre de l’éducation nationale, il s’agit en premier lieu de répondre aux besoins de la modernisation du pays en formant des « ouvriers » de plus en plus qualifiés, « souvent au niveau du baccalauréat, quelquefois à un niveau supérieur encore »(28 mai 1985).

Quand le bac s’est-il vraiment démocratisé ?

Le taux de titulaires d’un baccalauréat dans une classe d’âge donnée a été longtemps très restreint ce qui induit qu’il était réservé de fait, sauf exception, aux enfants de milieux socioculturellement favorisés. Il a été de moins de 3 % tout au long de la IIIe République. Et c’est seulement dans les dernières années de cette période que les établissements secondaires publics sont devenus gratuits, alors que c’était déjà le cas pour les établissements primaires publics depuis le début des années 1880.

Il y a eu alors un petit desserrage dans la sélection sociale, concomitant avec la montée du taux de titulaires du baccalauréat dans une classe d’âge. Mais la grande période de l’envolée du taux de bacheliers généraux se situe dans la période gaullienne : on passe de 10 % à 20 % de 1959 à 1969. Il reste à peu près à cet étiage durant presque vingt ans.

Bac de philo : le reportage incontournable des JT (INA ACTU, 2021).

Mais un autre baccalauréat est créé en 1970 : le « baccalauréat technologique ». Il va apporter un taux supplémentaire de titulaires d’un baccalauréat dans une classe d’âge : autour de 16 % – un taux qui reste quasiment constant depuis 1989. Les élèves des lycées technologiques sont d’origines socioculturelles plutôt modestes, et leurs destinations scolaires ou sociales aussi.

En 1985, une troisième couche apparaît : le « baccalauréat professionnel ». Le 8 octobre 1985, le ministre Jean-Pierre Chevènement précise qu’il s’agit « d’offrir, à l’issue de la classe de troisième, trois voies d’égale dignité » :

  • la voie générale, dans laquelle « peuvent s’engager ceux qui ont les capacités de poursuivre des études aux niveaux les plus élevés de l’Université » ;

  • la voie technologique, « qui conduira la majorité des jeunes qui s’y engagent vers un niveau de technicien supérieur » ;

  • la « voie professionnelle, qui assure, après l’obtention d’une qualification de niveau V, une possibilité de poursuivre la formation jusqu’au niveau du baccalauréat et même vers un niveau plus élevé ».

Il y a donc l’affirmation par le titre de baccalauréat d’une égalité de dignité, mais non d’un égalité de parcours – même si l’obtention du baccalauréat permet juridiquement l’entrée à l’Université. Entre 1987 et 2008, le taux de bacheliers professionnel dans une classe d’âge atteint 12 %, puis passe de 12 % en 2008 à 24 % en 2012 (en raison d’un changement de curriculum). Il se stabilise ensuite autour de 21 %.

Par ailleurs, dans le cadre de l’horizon annoncé par Jean-Pierre Chevènement de « 80 % d’une classe d’âge au niveau bac en l’an 2000 », on a une nouvelle accélération du taux de titulaires d’un baccalauréat général dans une classe d’âge qui passe de 22 % en 1987 à 37 % en 1995. Ces dernières années, il atteint 43 %.

The Conversation

Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Bac, brevet, CAP : petite histoire des examens en cinq questions – https://theconversation.com/bac-brevet-cap-petite-histoire-des-examens-en-cinq-questions-257574