How old are you really? Are the latest ‘biological age’ tests all they’re cracked up to be?

Source: The Conversation – Canada – By Hassan Vally, Associate Professor, Epidemiology, Deakin University

We all like to imagine we’re ageing well. Now a simple blood or saliva test promises to tell us by measuring our “biological age”. And then, as many have done, we can share how “young” we really are on social media, along with our secrets to success.

While chronological age is how long you have been alive, measures of biological age aim to indicate how old your body actually is, purporting to measure “wear and tear” at a molecular level.

The appeal of these tests is undeniable. Health-conscious consumers may see their results as reinforcing their anti-ageing efforts, or a way to show their journey to better health is paying off.

But how good are these tests? Do they actually offer useful insights? Or are they just clever marketing dressed up to look like science?

How do these tests work?

Over time, the chemical processes that allow our body to function, known as our “metabolic activity”, lead to damage and a decline in the activity of our cells, tissues and organs.

Biological age tests aim to capture some of these changes, offering a snapshot of how well, or how poorly, we are ageing on a cellular level.

Our DNA is also affected by the ageing process. In particular, chemical tags (methyl groups) attach to our DNA and affect gene expression. These changes occur in predictable ways with age and environmental exposures, in a process called methylation.

Research studies have used “epigenetic clocks”, which measure the methylation of our genes, to estimate biological age. By analysing methylation levels at specific sites in the genome from participant samples, researchers apply predictive models to estimate the cumulative wear and tear on the body.

What does the research say about their use?

Although the science is rapidly evolving, the evidence underpinning the use of epigenetic clocks to measure biological ageing in research studies is strong.

Studies have shown epigenetic biological age estimation is a better predictor of the risk of death and ageing-related diseases than chronological age.

Epigenetic clocks also have been found to correlate strongly with lifestyle and environmental exposures, such as smoking status and diet quality.

In addition, they have been found to be able to predict the risk of conditions such as cardiovascular disease, which can lead to heart attacks and strokes.

Taken together, a growing body of research indicates that at a population level, epigenetic clocks are robust measures of biological ageing and are strongly linked to the risk of disease and death

But how good are these tests for individuals?

While these tests are valuable when studying populations in research settings, using epigenetic clocks to measure the biological age of individuals is a different matter and requires scrutiny.

For testing at an individual level, perhaps the most important consideration is the “signal to noise ratio” (or precision) of these tests. This is the question of whether a single sample from an individual may yield widely differing results.

A study from 2022 found samples deviated by up to nine years. So an identical sample from a 40-year-old may indicate a biological age of as low as 35 years (a cause for celebration) or as high as 44 years (a cause of anxiety).

While there have been significant improvements in these tests over the years, there is considerable variability in the precision of these tests between commercial providers. So depending on who you send your sample to, your estimated biological age may vary considerably.

Another limitation is there is currently no standardisation of methods for this testing. Commercial providers perform these tests in different ways and have different algorithms for estimating biological age from the data.

As you would expect for commercial operators, providers don’t disclose their methods. So it’s difficult to compare companies and determine who provides the most accurate results – and what you’re getting for your money.

A third limitation is that while epigenetic clocks correlate well with ageing, they are simply a “proxy” and are not a diagnostic tool.

In other words, they may provide a general indication of ageing at a cellular level. But they don’t offer any specific insights about what the issue may be if someone is found to be “ageing faster” than they would like, or what they’re doing right if they are “ageing well”.

So regardless of the result of your test, all you’re likely to get from the commercial provider of an epigenetic test is generic advice about what the science says is healthy behaviour.

Are they worth it? Or what should I do instead?

While companies offering these tests may have good intentions, remember their ultimate goal is to sell you these tests and make a profit. And at a cost of around A$500, they’re not cheap.

While the idea of using these tests as a personalised health tool has potential, it is clear that we are not there yet.

For this to become a reality, tests will need to become more reproducible, standardised across providers, and validated through long-term studies that link changes in biological age to specific behaviours.

So while one-off tests of biological age make for impressive social media posts, for most people they represent a significant cost and offer limited real value.

The good news is we already know what we need to do to increase our chances of living longer and healthier lives. These include:

  • improving our diet
  • increasing physical activity
  • getting enough sleep
  • quitting smoking
  • reducing stress
  • prioritising social connection.

We don’t need to know our biological age in order to implement changes in our lives right now to improve our health.

The Conversation

Hassan Vally does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How old are you really? Are the latest ‘biological age’ tests all they’re cracked up to be? – https://theconversation.com/how-old-are-you-really-are-the-latest-biological-age-tests-all-theyre-cracked-up-to-be-257710

Bats get fat to survive hard times. But climate change is threatening their survival strategy

Source: The Conversation – Canada – By Nicholas Wu, Lecturer in Wildlife Ecology, Murdoch University

Rudmer Zwerver/Shutterstock

Bats are often cast as the unseen night-time stewards of nature, flitting through the dark to control pest insects, pollinate plants and disperse seeds. But behind their silent contributions lies a remarkable and underappreciated survival strategy: seasonal fattening.

Much like bears and squirrels, bats around the world bulk up to get through hard times – even in places where you might not expect it.

In a paper published today in Ecology Letters, we analysed data from bat studies around the world to understand how bats use body fat to survive seasonal challenges, whether it’s a freezing winter or a dry spell.

The surprising conclusion? Seasonal fattening is a global phenomenon in bats, not just limited to those in cold climates.

Even bats in the tropics, where it’s warm all year, store fat in anticipation of dry seasons when food becomes scarce. That’s a survival strategy that’s been largely overlooked. But it may be faltering as the climate changes, putting entire food webs at risk.

Climate shapes fattening strategies

We found bats in colder regions predictably gain more weight before winter.

But in warmer regions with highly seasonal rainfall, such as tropical savannas or monsoonal forests, bats also fatten up. In tropical areas, it’s not cold that’s the enemy, but the dry season, when flowers wither, insects vanish and energy is hard to come by.

The extent of fattening is impressive. Some species increased their body weight by more than 50%, which is a huge burden for flying animals that already use a lot of energy to move around. This highlights the delicate balancing act bats perform between storing energy and staying nimble in the air.

Sex matters, especially in the cold

The results also support the “thrifty females, frisky males” hypothesis.

In colder climates, female bats used their fat reserves more sparingly than males – a likely adaptation to ensure they have enough energy left to raise young when spring returns. Since females typically emerge from hibernation to raise their young, conserving fat through winter can directly benefit their reproductive success.

Interestingly, this sex-based difference vanished in warmer climates, where fat use by males and females was more similar, likely because more food is available in warmer climates. It’s another clue that climate patterns intricately shape behaviour and physiology.

Climate change is shifting the rules

Beyond the biology, our study points to a more sobering trend. Bats in warm regions appear to be increasing their fat stores over time. This could be an early warning sign of how climate change is affecting their survival.

Climate change isn’t just about rising temperatures. It’s also making seasons more unpredictable.

Bats may be storing more energy in advance of dry seasons that are becoming longer or harder to predict. That’s risky, because it means more foraging, more exposure to predators and potentially greater mortality.

The implications can ripple outward. Bats help regulate insect populations, fertilise crops and maintain healthy ecosystems. If their survival strategies falter, entire food webs could feel the effects.

Fat bats, fragile futures

Our study changes how we think about bats. They are not just passive victims of environmental change but active strategists, finely tuned to seasonal rhythms. Yet their ability to adapt has limits, and those limits are being tested by a rapidly changing world.

By understanding how bats respond to climate, we gain insights into broader ecosystem resilience. We also gain a deeper appreciation for one of nature’s quiet heroes – fattening up, flying through the night and holding ecosystems together, one wingbeat at a time.

The Conversation

Nicholas Wu was the lead author of a funded Australian Research Council Linkage Grant awarded to Christopher Turbill at Western Sydney University.

ref. Bats get fat to survive hard times. But climate change is threatening their survival strategy – https://theconversation.com/bats-get-fat-to-survive-hard-times-but-climate-change-is-threatening-their-survival-strategy-259560

What’s the difference between an eating disorder and disordered eating?

Source: The Conversation – Canada – By Gemma Sharp, Researcher in Body Image, Eating and Weight Disorders, Monash University

PIKSEL/Getty

Following a particular diet or exercising a great deal are common and even encouraged in our health and image-conscious culture. With increased awareness of food allergies and other dietary requirements, it’s also not uncommon for someone to restrict or eliminate certain foods.

But these behaviours may also be the sign of an unhealthy relationship with food. You can have a problematic pattern of eating without being diagnosed with an eating disorder.

So, where’s the line? What is disordered eating, and what is an eating disorder?

What is disordered eating?

Disordered eating describes negative attitudes and behaviours towards food and eating that can lead to a disturbed eating pattern.

It can involve:

  • dieting

  • skipping meals

  • avoiding certain food groups

  • binge eating

  • misusing laxatives and weight-loss medications

  • inducing vomiting (sometimes known as purging)

  • exercising compulsively.

Disordered eating is the term used when these behaviours are not frequent and/or severe enough to meet an eating disorder diagnosis.

Not everyone who engages in these behaviours will develop an eating disorder. But disordered eating – particularly dieting – usually precedes an eating disorder.

What is an eating disorder?

Eating disorders are complex psychiatric illnesses that can negatively affect a person’s body, mind and social life. They’re characterised by persistent disturbances in how someone thinks, feels and behaves around eating and their bodies.

To make a diagnosis, a qualified health professional will use a combination of standardised questionnaires, as well as more general questioning. These will determine how frequent and severe the behaviours are, and how they affect day-to-day functioning.

Examples of clinical diagnoses include anorexia nervosa, bulimia nervosa, binge eating disorder and avoidant/restrictive food intake disorder.

How common are eating disorders and disordered eating?

The answer can vary quite radically depending on the study and how it defines disordered behaviours and attitudes.

An estimated 8.4% of women and 2.2% of men will develop an eating disorder at some point in their lives. This is most common during adolescence.

Disordered eating is also particularly common in young people with 30% of girls and 17% of boys aged 6–18 years reporting engaging in these behaviours.

Although the research is still emerging, it appears disordered eating and eating disorders are even more common in gender diverse people.

Can we prevent eating disorders?

There is some evidence eating disorder prevention programs that target risk factors – such as dieting and concerns about shape and weight – can be effective to some extent in the short term.

The issue is most of these studies last only a few months. So we can’t determine whether the people involved went on to develop an eating disorder in the longer term.

In addition, most studies have involved girls or women in late high school and university. By this age, eating disorders have usually already emerged. So, this research cannot tell us as much about eating disorder prevention and it also neglects the wide range of people at risk of eating disorders.

Is orthorexia an eating disorder?

In defining the line between eating disorders and disordered eating, orthorexia nervosa is a contentious issue.

The name literally means “proper appetite” and involves a pathological obsession with proper nutrition, characterised by a restrictive diet and rigidly avoiding foods believed to be “unhealthy” or “impure”.

These disordered eating behaviours need to be taken seriously as they can lead to malnourishment, loss of relationships, and overall poor quality of life.

However, orthorexia nervosa is not an official eating disorder in any diagnostic manual.

Additionally, with the popularity of special diets (such as keto or paleo), time-restricted eating, and dietary requirements (for example, gluten-free) it can sometimes be hard to decipher when concerns about diet have become disordered, or may even be an eating disorder.

For example, around 6% of people have a food allergy. Emerging evidence suggests they are also more likely to have restrictive types of eating disorders, such as anorexia nervosa and avoidant/restrictive food intake disorder.

However, following a special diet such as veganism, or having a food allergy, does not automatically lead to disordered eating or an eating disorder.

It is important to recognise people’s different motivations for eating or avoiding certain foods. For example, a vegan may restrict certain food groups due to animal rights concerns, rather than disordered eating symptoms.

What to look out for

If you’re concerned about your own relationship with food or that of a loved one, here are some signs to look out for:

  • preoccupation with food and food preparation

  • cutting out food groups or skipping meals entirely

  • obsession with body weight or shape

  • large fluctuations in weight

  • compulsive exercise

  • mood changes and social withdrawal.

It’s always best to seek help early. But it is never too late to seek help.


In Australia, if you are experiencing difficulties in your relationships with food and your body, you can contact the Butterfly Foundation’s national helpline on 1800 33 4673 (or via their online chat).

For parents concerned their child might be developing concerning relationships with food, weight and body image, Feed Your Instinct highlights common warning signs, provides useful information about help seeking and can generate a personalised report to take to a health professional.

The Conversation

Gemma Sharp receives funding from an NHMRC Investigator Grant. She is a Professor and the Founding Director and Member of the Consortium for Research in Eating Disorders, a registered charity.

ref. What’s the difference between an eating disorder and disordered eating? – https://theconversation.com/whats-the-difference-between-an-eating-disorder-and-disordered-eating-256787

‘Do not eat’: what’s in those little desiccant sachets and how do they work?

Source: The Conversation – Canada – By Kamil Zuber, Senior Industry Research Fellow, Future Industries Institute, University of South Australia

towfiqu ahamed/Getty Images

When you buy a new electronic appliance, shoes, medicines or even some food items, you often find a small paper sachet with the warning: “silica gel, do not eat”.

What exactly is it, is it toxic, and can you use it for anything?

The importance of desiccants

That little sachet is a desiccant – a type of material that removes excess moisture from the air.

It’s important during the transport and storage of a wide range of products because we can’t always control the environment. Humid conditions can cause damage through corrosion, decay, the growth of mould and microorganisms.

This is why manufacturers include sachets with desiccants to make sure you receive the goods in pristine condition.

The most common desiccant is silica gel. The small, hard and translucent beads are made of silicon dioxide (like most sands or quartz) – a hydrophilic or water-loving material. Importantly, the beads are porous on the nano-scale, with pore sizes only 15 times larger than the radius of their atoms.

Silica gel looks somewhat like a sponge when viewed with scanning electron microscopy.
Trabelsi et al. (2009), CC BY-NC-ND

These pores have a capillary effect, meaning they condense and draw moisture into the bead similar to how trees transport water through the channelled structures in wood.

In addition, sponge-like porosity makes their surface area very large. A single gram of silica gel can have an area of up to 700 square metres – almost four tennis courts – making them exceptionally efficient at capturing and storing water.

Is silica gel toxic?

The “do not eat” warning is easily the most prominent text on silica gel sachets.

According to health professionals, most silica beads found in these sachets are non-toxic and don’t present the same risk as silica dust, for example. They mainly pose a choking hazard, which is good enough reason to keep them away from children and pets.

However, if silica gel is accidentally ingested, it’s still recommended to contact health professionals to determine the best course of action.

Some variants of silica gel contain a moisture-sensitive dye. One particular variant, based on cobalt chloride, is blue when the desiccant is dry and turns pink when saturated with moisture. While the dye is toxic, in desiccant pellets it is present only in a small amount – approximately 1% of the total weight.

Two plastic containers, one with blue translucent beads, one with pink.
Indicating silica gel with cobalt chloride – ‘fresh’ on the left, ‘used’ on the right.
Reza Rio/Shutterstock

Desiccants come in other forms, too

Apart from silica gel, a number of other materials are used as moisture absorbers and desiccants. These are zeolites, activated alumina and activated carbon – materials engineered to be highly porous.

Another desiccant type you’ll often see in moisture absorbers for larger areas like pantries or wardrobes is calcium chloride. It typically comes in a box filled with powder or crystals found in most hardware stores, and is a type of salt.

Kitchen salt – sodium chloride – attracts water and easily becomes lumpy. Calcium chloride works in the same way, but has an even stronger hygroscopic effect and “traps” the water through a hydration reaction. Once the salt is saturated, you’ll see liquid separating in the container.

A shelf in a wardrobe with a purple box with white powder inside in the corner.
Closet and pantry dehumidifiers like this one typically contain calcium chloride which binds water.
Healthy Happy/Shutterstock

I found something that doesn’t seem to be silica gel – what is it?

Some food items such as tortilla wraps, noodles, beef jerky, and some medicines and vitamins contain slightly different sachets, labelled “oxygen absorbers”.

These small packets don’t contain desiccants. Instead, they have chemical compounds that “scavenge” or bond oxygen.

Their purpose is similar to desiccants – they extend the shelf life of food products and sensitive chemicals such as medicines. But they do so by directly preventing oxidation. When some foods are exposed to oxygen, their chemical composition changes and can lead to decay (apples turning brown when cut is an example of oxidation).

There is a whole range of compounds used as oxygen absorbers. These chemicals have a stronger affinity to oxygen than the protected substance. They range from simple compounds such as iron which “rusts” by using up oxygen, to more complex such as plastic films that work when exposed to light.

A pile of various sachets and sheets found inside products.
Some of the sachets in your products are oxygen absorbers, not desiccants – but they may look similar.
Sergio Yoneda/Shutterstock

Can I reuse a desiccant?

Although desiccants and dehumidifiers are considered disposable, you can relatively easily reuse them.

To “recharge” or dehydrate silica gel, you can place it in an oven at approximately 115–125°C for 2–3 hours, although you shouldn’t do this if it’s in a plastic sachet that could melt in the heat.

Interestingly, due to how they bind water, some desiccants require temperatures well above the boiling point of water to dehydrate (for example, calcium chloride hydrates completely dehydrate at 200°C).

After dehydration, silica gel sachets may be useful for drying small electronic items (like your phone after you accidentally dropped it into water), keeping your camera dry, or preventing your family photos and old films from sticking to each other.

This is a good alternative to the questionable method of using uncooked rice, as silica gel doesn’t decompose and won’t leave starch residues on your things.

The Conversation

Kamil Zuber does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. ‘Do not eat’: what’s in those little desiccant sachets and how do they work? – https://theconversation.com/do-not-eat-whats-in-those-little-desiccant-sachets-and-how-do-they-work-258398

Qu’est-ce que le paiement pour service environnemental ?

Source: The Conversation – Indonesia – By Alain Karsenty, Économiste de l’environnement, chercheur et consultant international, Cirad

Ils rémunèrent des personnes ou des entreprises pour un certain usage des terres que l’on associe, à tort ou à raison, à une amélioration des services écosystémiques. IZE-5tyle/Shutterstock

Le paiement pour services environnementaux ou PSE est, selon sa définition officielle, un instrument économique pour l’environnement consistant en la rémunération d’une personne ou d’une organisation qui rend un service environnemental. Un dispositif de ce type a été créé par le gouvernement français, notamment à destination des agriculteurs. L’objectif : rémunérer les pratiques vertueuses contribuant à maintenir et à restaurer les services écosystémiques dont bénéficie toute la société.


D’ici le 1er septembre 2026, tous les États membres de l’Union européenne doivent élaborer leur plan de restauration de la nature. Il vise à enrayer l’érosion de la biodiversité et à revitaliser les écosystèmes sur l’ensemble du territoire. Une action politique qui met en lumière la notion de paiement pour service environnemental.

Les services environnementaux sont rendus à d’autres humains – où qu’ils soient dans le temps et l’espace – à travers une action intentionnelle visant à préserver, restaurer ou augmenter un service écosystémique. Un agriculteur qui stoppe l’usage de pesticides ou créé des îlots de plantes mellifères fournit un service environnemental qui va favoriser le service écosystémique de pollinisation rendu par les abeilles.

Quant aux services écosystémiques, ils sont définis par le Millenium Ecosystem Assessment comme « les bénéfices directs et indirects que les hommes retirent de la nature ». Certains insectes apportent un service de pollinisation, une formation végétale apporte des bénéfices en termes de régulation du ruissellement et de fixation du carbone.

Alors faut-il parler de paiements pour services écosystémiques ou pour services environnementaux ?

Service écosystémique et environnemental

Si l’on se réfère aux travaux de l’évaluation française des écosystèmes et services écosystémiques (EFESE), il est plus logique de parler de paiements pour services environnementaux. L’EFESE distingue clairement deux notions :

  • Service écosystémique : fonction d’un écosystème dont l’utilisation permet de retirer un avantage – pour l’agriculteur, ou de manière plus générale pour la société.

  • Service environnemental : action ou mode de gestion d’un acteur, comme un agriculteur, qui améliore l’état de l’environnement en permettant l’augmentation d’un service écosystémique.

Fonctionnement type d’un paiement pour service environnemental.
Banque des territoires

Muradian et ses collègues envisagent les paiements pour service environnemental comme « des transferts de ressources entre des acteurs sociaux, dans le but de créer des incitations pour aligner les décisions individuelles et/ou collectives quant à l’usage des sols avec l’intérêt social concernant la gestion des ressources naturelles ». Ils rémunèrent des personnes ou des entreprises pour un certain usage des terres que l’on associe, à tort ou à raison, à une amélioration des services écosystémiques.

Sept points clés

Nous pouvons caractériser les paiements pour service environnemental à travers sept points clés :

  • Paiements directs : les paiements sont effectués directement aux prestataires de services environnementaux, souvent par le biais d’un intermédiaire comme un programme. Les bénéficiaires sont les usagers du foncier et des ressources dont les pratiques ont un impact direct sur les services écosystémiques. Les paiements peuvent être en argent, sous forme d’investissements ou de services, comme la sécurisation foncière. Le montant des paiements peut être négocié ou, le plus souvent, faire l’objet d’un barème fixé par le programme.

  • « Bénéficiaire-payeur » : les bénéficiaires directs ou indirects des services environnementaux – individus, communautés, entreprises, ou institutions agissant au nom de l’intérêt général – paient pour ces services.

  • Caractère volontaire et contractuel : les bénéficiaires des paiements adhèrent librement au programme à travers des accords contractuels qui les engagent pour une certaine durée. Mais le financement des PSE n’est pas forcément volontaire et peut être contraint (renchérissement des factures d’eau, redevances sur différents produits ou services, impôt).

  • Conditionnalité : les paiements dépendent de la fourniture continue des services environnementaux, au sens du respect des obligations contractuelles. Les paiements sont généralement basés sur la mise en œuvre de pratiques de gestion dont les parties conviennent contractuellement qu’ils sont susceptibles de donner lieu à ces avantages.

  • Ciblage : En général, les PSE sont concentrés sur certaines zones d’importance écologique et/ou menacée (ciblage géographique). Le ciblage social, c’est-à-dire le fait de réserver l’offre de PSE aux producteurs à faibles revenus ou à des populations autochtones, est moins pratiqué. Toutefois, quand les paiements se font sur une base surfacique, les montants versés sont souvent plafonnés ou dégressifs à partir d’un seuil de surface.

  • Additionnalité : les paiements sont effectués pour des actions qui vont au-delà de celles que les gestionnaires des terres accompliraient même en l’absence de paiements. Cette condition est controversée, car elle risque d’exclure des bénéfices des PSE des populations ou des producteurs aux pratiques déjà écologiquement vertueuses. En pratique, elle est rarement appliquée du fait des coûts de vérification, par rapport à un scénario business-as-usual. Il en va de même pour l’additionnalité légale. On ne devrait pas, en principe, rémunérer pour empêcher des pratiques déjà prohibées par les règlements, mais beaucoup de programmes de PSE le font néanmoins pour faciliter l’application des lois.

  • Sécurité foncière : un titre de propriété n’est pas une condition sine qua non. Les bénéficiaires des paiements doivent disposer au minimum d’un « droit d’exclusion » et de droits de gestion sur la terre dont ils sont les usagers.


La série « L’envers des mots » est réalisée avec le soutien de la Délégation générale à la langue française et aux langues de France du ministère de la Culture

À découvrir aussi dans cette série :

The Conversation

Alain Karsenty ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Qu’est-ce que le paiement pour service environnemental ? – https://theconversation.com/quest-ce-que-le-paiement-pour-service-environnemental-256607

BD : L’Héritage du dodo (épisode 8)

Source: The Conversation – Indonesia – By Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay

Qu’est-ce qui nous empêche d’agir pour préserver l’environnement ? Fourni par l’auteur

La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité, chaque mercredi, les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp. Dans l’épisode 8, on s’interroge sur les raisons qui nous empêchent d’agir en faveur de l’environnement. Du mouvement climatosceptique, aux freins psychologiques, en passant par les barrières structurelles de nos sociétés.


L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…

On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !

Retrouvez ici le huitième épisode de la série !

Ou rattrapez les épisodes précédents :

Épisode 1
Épisode 2
Épisode 3
Épisode 4
Épisode 5
Épisode 6
Épisode 7


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Rendez-vous la semaine prochaine pour l’épisode 9 !
Pour ne pas le rater, laissez-nous votre adresse mail

Ou abonnez-vous à L’Héritage du dodo sur :

Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?

Republication des planches sur support papier interdite sans l’accord des auteurs


Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.

The Conversation

Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.

Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. BD : L’Héritage du dodo (épisode 8) – https://theconversation.com/bd-lheritage-du-dodo-episode-8-259162

Quel avenir pour les forêts ? Un nécessaire pas de côté pour la recherche forestière

Source: The Conversation – Indonesia – By Jacques Tassin, Chercheur en écologie forestière (HDR), spécialiste des rapports Homme / Nature, Cirad

La forêt est un lieu où abondent des problèmes pernicieux marqués par l’absence de solutions claires et définitives et, notamment, par la présence d’acteurs aux valeurs conflictuelles. Un conflit permanent y opère entre la conservation de la biodiversité et le développement économique. La recherche forestière conventionnelle est mise en défaut par une telle complexité lorsqu’elle implique une approche réductrice ou monodisciplinaire. Elle a désormais pour mission d’appréhender l’incertitude, la diversité et l’hétérogénéité qui président au devenir des forêts.

Le livre Vivre la forêt, coordonné par Jacques Tassin, auteur de plusieurs livres sur les arbres et les forêts, dont Penser comme un arbre, également publié chez Odile Jacob, explore les enjeux d’une recherche forestière rénovée à l’aide d’une démarche critique et réflexive. En sont présentés ici quelques extraits tirés de l’introduction.


Ce livre propose d’entreprendre un pas de côté pour réenvisager, dans toute son étendue et sa complexité, cette fameuse « communauté de destins » prêtée aux avenirs respectifs des forêts et des sociétés. Parler de la forêt, c’est en effet aussi parler des humains, de leurs regards, de leurs rapports et leurs relations aux espaces forestiers, de leurs imaginaires ou des inflexions que leurs ancêtres ou contemporains leur confèrent. En déroulant le fil des forêts, aussi « étrangères » soient-elles, on en arrive toujours aux hommes et aux femmes.

Qu’est-ce même que la forêt sinon le regard que l’on pose sur elle ? Et comment pourrions-nous considérer que ce regard est immuable ou, pire encore, que la forêt est elle-même un objet, sinon inerte, du moins voué à demeurer dans une présumée permanence ? La litanie invariable des chiffres de la déforestation mondiale, engouffrant avec eux une multitude de situations amalgamées sans même en rechercher les causes, intervient en effet tel un barrage de fumée nous empêchant, un peu plus en amont, de nous saisir d’une question clé que nous posons en ouverture de ce livre, « l’humanité et les forêts sont-elles compatibles ? ». […]

La forêt, bien plus que la déforestation

Toute vision réductrice est fâcheuse. Certes, les suivis satellitaires révèlent de manière indéniable un recul global des surfaces forestières. Pour autant, la forêt ne saurait se réduire de manière absurde à la déforestation, comme s’il était raisonnablement justifié de caractériser un objet par son absence. D’évidence, une telle proposition ne saurait être considérée comme neutre et l’un des paris de ce livre est de décrypter l’illusion d’une présumée neutralité.

Les suivis satellitaires, comme toute autre démarche consistant à moyenner le monde, ont leurs limites et ne nous révèlent pas grand-chose de plus que des cohortes de données chiffrées qu’il s’agit ensuite de réduire à des bilans ou à des inventaires simplifiés. Le bon sens inviterait pourtant à réinscrire les forêts dans des dynamiques situées, contingentes et localisées, selon des processus écologiques et humains qui conservent eux-mêmes souvent une dimension insaisissable. Toute forêt s’ancre dans une configuration, un environnement, une histoire, et nulle ne s’enracine dans des généralités planétaires.

Tout territoire forestier est parcouru de stratégies d’adaptation, certes souvent assorties d’un recul forestier ou d’une dégradation forestière de caractère effectif. Mais s’adjoignent aussi des dynamiques de reforestation, selon des situations contrastées qui instaurent de la nuance dans le mantra de la lutte contre la déforestation répétée ad nauseam dans toutes les conférences internationales.

Re-territorialiser les forêts, ici et ailleurs

Dans le même ordre d’esprit, l’idéalisation de la forêt primaire tropicale se construit en Occident moyennant l’oubli du rapport que les humains entretiennent ailleurs avec cet « écoumène », en tant que lieu de vie et de pratiques. Elle renvoie implicitement à un idéal colonial qui fait porter aux populations du Sud la charge mentale de la préservation des forêts tropicales sans partage avec les responsabilités du Nord ni perspectives de cocréer un avenir commun. […] En outre, il s’agit de considérer la tendance selon laquelle la mise en protection d’un espace donné agit en compensation d’un blanc-seing concédé pour permettre de détruire ailleurs.[…]


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Déterritorialiser les espaces forestiers n’a rien de satisfaisant. Cela revient non seulement, le lorgnon posé sur le nez, à promouvoir une approche disciplinaire et segmentée d’une réalité formidablement complexe, mais aussi, une fois encore,
à refuser de considérer les interdépendances locales opérant entre les forêts et les personnes qui y vivent ou en vivent, à commencer sans doute par les agriculteurs qui tentent de composer dans les limites de leurs propres contingences, mais sans toutefois s’y cantonner, dans un monde où les causalités les plus déterminantes sont aussi parfois les plus lointaines.

De la même manière qu’il s’agit aujourd’hui de considérer l’arbre comme un élément d’infrastructure de la ville, dès lors capable de concourir à l’infiltration des eaux dans le sol plutôt que les évacuer dans des réseaux d’évacuation coûteux, et de participer à la résorption des îlots de chaleur, il semble judicieux de réinscrire la forêt comme une composante clé du territoire qui l’englobe. De fait, dans chaque espace doté d’une composante forestière, un réapprentissage mutuel permanent s’établit, de sorte que la société environnante redéfinit cette part forestière, de la même manière que la forêt requalifie en retour cette société.

Couverture de l’ouvrage Vivre la forêt
Editions Odile Jacob

Rétablir la dimension territoriale de la forêt suppose non seulement de concéder à l’apprentissage de la complexité, mais aussi d’accepter que les problèmes que l’on identifie au premier abord ne soient pas toujours conformes à notre représentation, ni même au mode de pensée que l’on déploie pour parvenir à cette représentation.

Cela revient parfois à concéder à l’incertitude et à l’inconnu, sans toutefois s’en dessaisir, et à considérer que les alternatives ou solutions à des problèmes ne peuvent émerger que dans un cadre collectif de pensée et de dialogue.

The Conversation

Jacques Tassin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quel avenir pour les forêts ? Un nécessaire pas de côté pour la recherche forestière – https://theconversation.com/quel-avenir-pour-les-forets-un-necessaire-pas-de-cote-pour-la-recherche-forestiere-257075

Comment l’un des pesticides les plus répandus en France menace les moineaux

Source: The Conversation – Indonesia – By Pauline Bellot, Chercheuse postdoctorale à l’Université du Québec à Montréal (UQAM, laboratoire AVITOX), Université du Québec à Montréal (UQAM)

Moins connus que les insecticides, les fongicides triazolés sont pourtant très présents dans les milieux agricoles. L’un d’eux, le tébuconazole, est suspecté d’affecter la santé des oiseaux. Notre étude expérimentale met en effet en évidence des altérations du métabolisme, de la reproduction et de la survie chez les jeunes moineaux.


Depuis 1900, la population mondiale a quintuplé, ce qui a posé un défi de taille : nourrir toujours plus d’humains. Dans les années 1950-1960, la « révolution verte » a permis d’augmenter considérablement les rendements agricoles grâce à la modernisation et à l’intensification des pratiques agricoles. Cette mutation s’est appuyée en partie sur l’usage massif d’engrais et de pesticides, dont l’utilisation n’a cessé de croître au fil des décennies.

Les triazoles, des fongicides omniprésents

Parmi les pesticides, on trouve trois grandes catégories : les herbicides qui tuent les végétaux considérés comme indésirables, les insecticides qui s’attaquent aux insectes considérés comme nuisibles, et les fongicides. Ces derniers, destinés à lutter contre les champignons pathogènes des plantes, représentent en France près de 42 % des ventes totales de pesticides, soit une part bien supérieure à la moyenne mondiale.

Cette proportion élevée s’explique notamment par le poids de la viticulture dans l’agriculture française, les vignes étant particulièrement vulnérables aux maladies fongiques comme le mildiou.

Photo représentant un paysage viticole homogène, typique des zones de monoculture intensive Huney.
Un paysage viticole homogène, typique des zones de monoculture intensive.
Fourni par l’auteur

Parmi les fongicides, une famille se distingue : celle des triazoles. Très prisés pour leur efficacité contre un éventail de maladies fongiques, ces composés sont utilisés sur des cultures aussi variées que les céréales, les fruits ou la vigne. Aujourd’hui, les triazoles représenteraient à eux seuls environ un quart des ventes mondiales de fongicides.

Aux États-Unis, leur utilisation a augmenté de 400 % en seulement dix ans, entre 2006 et 2016.

Les oiseaux, sentinelles des milieux agricoles

Mais cet usage massif soulève des inquiétudes. Les triazoles sont suspectés d’être des perturbateurs endocriniens, c’est-à-dire d’interférer avec le système hormonal des êtres vivants, et d’impacter des espèces non ciblées. En la matière, les oiseaux sont dangereusement vulnérables. En effet, nombre d’entre eux, l’alouette des champs, le busard cendré ou le merle noir par exemple, accomplissent tout ou une partie de leur cycle de vie dans les milieux cultivés, c’est-à-dire des territoires où les fongicides triazolés peuvent se retrouver dans les sols, l’eau ou l’air, et contaminer la faune par l’intermédiaire des graines ou des insectes consommés par de nombreux oiseaux.

Une étude récente a ainsi révélé des concentrations particulièrement élevées de triazoles dans le sang de merles noirs vivant dans des zones viticoles intensives.

Cette exposition, qu’elle soit directe ou indirecte, pourrait nuire à leur santé, à leur reproduction ou au bon fonctionnement de leur organisme. Les oiseaux sont depuis longtemps considérés comme de bons indicateurs biologiques : leur présence, leur comportement ou leur état de santé donnent des indices de la qualité de l’environnement. En particulier dans les zones agricoles, leur déclin peut révéler des problèmes comme la pollution ou la dégradation des habitats. Et les tendances sont alarmantes : depuis 1980, 60 % des oiseaux des terres agricoles ont disparu en Europe.

Comprendre les causes pour mieux agir : l’enjeu d’une approche ciblée

Si les pesticides, triazoles inclus, participent potentiellement à ce déclin, ils ne sont pas les seuls en cause. La perte d’habitats naturels, l’intensification des pratiques agricoles, la mécanisation et le changement climatique exercent également une pression croissante sur la biodiversité.

Face à cette dégradation multifactorielle, les oiseaux nous envoient un signal d’alarme. Il est plus que jamais nécessaire de comprendre quelle pression exerce quels effets, et dans quelle mesure. Cela suppose de pouvoir isoler l’impact propre de chaque facteur, en particulier celui des contaminants chimiques, afin d’identifier précisément leur rôle dans les déclins observés et ainsi mieux orienter les mesures de conservation et de réglementation.

Pour cela, il est nécessaire de les étudier isolément, dans des conditions contrôlées. C’est pourquoi nous avons choisi de nous pencher sur un fongicide triazolé en particulier : le tébuconazole.

Il s’agit du fongicide que nous avons le plus fréquemment détecté chez les oiseaux vivant en zone viticole, et également de l’un des plus utilisés dans le monde.

Pour en évaluer les effets, nous avons mené une étude en conditions contrôlées sur des moineaux domestiques, une espèce typique des milieux agricoles, aujourd’hui en déclin. Faciles à maintenir en captivité, y compris pour la reproduction, les moineaux domestiques constituent un modèle biologique pertinent pour explorer les effets du tébuconazole en conditions expérimentales.

Les individus ont été répartis aléatoirement dans six volières expérimentales : trois recevaient une eau non contaminée et les trois autres une eau contenant du tébuconazole à des concentrations réalistes, comparables à celles mesurées chez des oiseaux vivant en milieu viticole intensif.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd’hui.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Des effets sur le métabolisme et la survie des juvéniles

Après plusieurs mois d’exposition, nous avons analysé divers paramètres de santé chez les adultes, notamment le métabolisme, les hormones thyroïdiennes et l’immunité. Nous avons aussi suivi la reproduction, la croissance des poussins, leur survie, ainsi que plusieurs indicateurs de succès reproducteur.

À gauche, photo fournie par l’autrice, présentant un moineau domestique quelques jours après la naissance. À droite : photo représentant un jeune moineau d’environ 14 jours.
Fourni par l’auteur

Pour la première fois, nos recherches ont montré que le tébuconazole, un fongicide largement utilisé en agriculture, peut perturber de manière significative la physiologie et la reproduction des oiseaux.

Chez les moineaux adultes exposés pendant plusieurs mois, nous avons observé une dérégulation des hormones thyroïdiennes, essentielles à la croissance, au métabolisme et à la mue. Bien que nous n’ayons pas trouvé d’effet sur l’immunité, le métabolisme des oiseaux était réduit.

Une diminution du métabolisme signifie que les oiseaux dépensent moins d’énergie pour assurer leurs fonctions vitales, ce qui peut réduire leur niveau d’activité, limiter leur capacité à maintenir leur température corporelle et ralentir des processus essentiels comme le fonctionnement cérébral ou la réparation des tissus.

De plus, la qualité de leur plumage était diminuée avec des plumes moins denses, ce qui pourrait altérer leur isolation thermique et leur efficacité en vol par exemple. Nous avons également obtenu des résultats notables du côté de la reproduction. Le tébuconazole a été transféré de la mère à ses œufs, exposant ainsi les poussins dès les premiers stades de leur développement. Ce transfert maternel s’est accompagné d’effets marqués : les poussins issus de parents exposés au tébuconazole présentaient une anomalie de croissance, environ 10 % plus petits en fin de développement, ainsi qu’une mortalité accrue.

Ces effets étaient particulièrement prononcés chez les femelles : leur taux de mortalité atteignait 65 % dans le groupe exposé, contre seulement 7 % dans le groupe témoin. Ces résultats suggèrent une sensibilité accrue au fongicide selon le sexe, et soulèvent des questions quant à la survie des jeunes dans les milieux contaminés.

Vers une meilleure régulation des usages ?

Ainsi, le tébuconazole pourrait représenter l’un des facteurs contribuant au déclin des oiseaux, en particulier dans les paysages agricoles intensifs.

Fait notable : ces effets sont survenus à une concentration environ 36 fois inférieure au seuil actuellement utilisé pour évaluer la toxicité reproductive chez les oiseaux. Bien que notre étude porte sur une seule molécule, elle met en lumière un angle mort persistant : la toxicité des fongicides reste encore largement sous-estimée, au profit d’une attention historique portée aux insecticides.

Or, dans les milieux cultivés, les espèces sont exposées à des mélanges complexes de pesticides, aux effets potentiellement cumulatifs ou synergiques. Mieux comprendre ces interactions ouvre de nouvelles pistes de recherche pour affiner l’évaluation des risques et repenser les pratiques agricoles dans une perspective plus durable et respectueuse de la biodiversité.

The Conversation

Cette recherche a été financée par l’Agence Nationale de la Recherche (projet ANR VITIBIRD attribué à F.A.), par la Région Nouvelle-Aquitaine (projet MULTISTRESS), par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (projet ANSES BiodiTox attribué à F.B.), par le Centre National de la Recherche Scientifique ainsi que par MITI-PEPSAN (mission pour les initiatives transversales et interdisciplinaires, attribuée à C.F.).

Ce travail a également été soutenu par le partenariat PARC (WP4), financé par l’Union européenne dans le cadre de la subvention 101057014. Les points de vue et opinions exprimés n’engagent toutefois que leurs auteurs et ne reflètent pas nécessairement ceux de l’Union européenne ou de l’Agence exécutive européenne pour la recherche ; ni l’Union européenne ni l’autorité de financement ne peuvent en être tenues responsables.

Frédéric Angelier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment l’un des pesticides les plus répandus en France menace les moineaux – https://theconversation.com/comment-lun-des-pesticides-les-plus-repandus-en-france-menace-les-moineaux-257032

Près d’un étudiant sur cinq se réoriente à bac +1 : ajustement, rupture ou échec ?

Source: The Conversation – Indonesia – By Dorian Vancoppenolle, Doctorant en Sciences de l’Éducation et de la Formation, Université Lumière Lyon 2

Alors que les lycéens reçoivent leurs résultats sur Parcoursup, les étudiants qui envisagent de changer de voie se connectent de nouveau à la plateforme. Près d’un sur cinq choisit désormais de se réorienter après une première année dans l’enseignement supérieur. Un record qui soulève des questions cruciales sur les dynamiques de réussite, d’inégalités et d’orientation.


Depuis les années 1960, la massification scolaire a permis un accès élargi au baccalauréat, puis aux études supérieures, sans toutefois mettre fin aux inégalités : celles-ci se recomposent à travers la hiérarchisation des parcours, la segmentation des filières ou encore des effets d’orientation différenciée selon l’origine sociale et le genre.

L’accès aux études supérieures est plus large, mais inégal selon les filières, ce qui limite l’effet redistributif de la massification. Le système éducatif français tend ainsi à reproduire, voire à produire, des inégalités sociales, culturelles et scolaires tout au long des parcours, malgré l’idéal méritocratique affiché par les pouvoirs publics.




À lire aussi :
Le mérite est-il encore un idéal démocratique ?


Aujourd’hui, l’un des effets les plus visibles de ces tensions réside dans les trajectoires étudiantes après le bac, en particulier lors de la première année, marquée par un taux de réorientation important.

Conséquence indirecte de la massification scolaire, la réorientation n’est pas nécessairement un aveu d’échec. Elle devient une étape de redéfinition des trajectoires, révélant à la fois les aspirations des jeunes et les limites d’un système qui, tout en se démocratisant, continue de reproduire des inégalités sociales.

Dans un contexte marqué par les réformes du bac, de l’accès aux études de santé et de la refonte du diplôme universitaire de technologie (DUT) en bachelor universitaire de technologie (BUT), ces constats interrogent : pourquoi tant de jeunes entament-ils une réorientation après une seule année, et quelles en sont les conséquences ?

Notre analyse porte sur les données Parcoursup entre 2018 et 2023, en se concentrant sur les étudiants qui se sont réinscrits après une première année dans le supérieur. Seuls les parcours passés par la plateforme sont pris en compte, ce qui exclut les formations hors Parcoursup, comme certaines écoles privées ou classes préparatoires internes, en raison de l’absence de données disponibles.

Des ajustements progressifs de parcours

Contrairement à l’idée reçue selon laquelle une réorientation serait synonyme de rupture totale, les données montrent que la plupart des étudiants restent dans un univers disciplinaire proche de leur formation d’origine. Celles et ceux qui commencent une licence de sciences humaines et sociales, de droit ou de sciences expérimentales poursuivent souvent dans ces mêmes domaines ou dans des filières voisines. La logique dominante n’est donc pas celle du grand saut, mais plutôt celle de l’ajustement progressif.

Certaines formations font néanmoins figure de points de départ majeurs. C’est le cas de la filière santé, qu’elle s’appelle « première année commune aux études de santé (Paces) » ou « parcours accès santé spécifique (Pass) » : chaque année, une partie importante des étudiants s’en détourne après la première année, en se réorientant vers des licences scientifiques, des diplômes du secteur sanitaire et social ou, plus rarement, vers les filières juridiques ou littéraires. Malgré sa réforme, le Pass reste ainsi un espace de réajustement des parcours très fréquent.

À l’inverse, d’autres filières apparaissent comme des points d’arrivée privilégiés. Les brevets de technicien supérieur (BTS), en particulier, accueillent chaque année un grand nombre d’étudiants venus d’horizons très divers : université, santé, sciences humaines, etc.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Enfin, certains domaines, comme les licences Arts, Lettres, Langues ou Droit, Économie, Gestion, connaissent des flux relativement stables : les réorientations y restent internes, comme si les étudiants cherchaient moins à changer de cap qu’à modifier leur angle d’approche (contenus, options, établissements, etc.).

En somme, nous pouvons affirmer que les trajectoires étudiantes se complexifient. Derrière ces mouvements, il ne faut pas voir un simple signe d’instabilité : les réorientations dessinent de nouvelles manières de construire un projet, par essais, par détours et par réajustements.

La réorientation mobilise des ressources inégalement distribuées

Les titulaires d’un bac général sont surreprésentés parmi les étudiants en réorientation après une première année dans l’enseignement supérieur : ils représentaient 73 % des candidats acceptant une nouvelle proposition en 2023, contre 68 % en 2019. À l’inverse, la part des bacheliers technologiques et professionnels parmi les étudiants en réorientation a reculé entre 2019 et 2023, passant respectivement de 22 % à 19 % et de 10 % à 8 %. À des fins de contextualisation, les titulaires d’un bac général représentaient 54 % des diplômés du bac en 2022, contre 20 % pour les technologiques et 26 % pour les professionnels, ce qui indique une plus forte réorientation des généralistes.

Cette dynamique peut refléter une plus grande flexibilité des parcours ou, à l’inverse, des obstacles spécifiques freinant la mobilité académique des autres bacs.

Durant la même période, une logique semblable se retrouve du côté des catégories sociales : les enfants de cadres et professions intellectuelles supérieures passent de 30 % à 32 % du public en réorientation, tandis que les enfants d’ouvriers reculent de 14 % à 11 %. Ces chiffres sont à mettre en regard de leur poids dans la population (21,7 % pour les cadres, 18,6 % pour les ouvriers) et parmi les bacheliers : un quart des titulaires du bac sont issus d’un milieu de cadres. Leur surreprésentation en réorientation s’inscrit donc dans une continuité sociale.

La réussite scolaire précédente a aussi une influence : les réorientés sans mention au bac représentaient 47 % du public en 2018, contre 33 % en 2023. Dans le même temps, la part des mentions « assez bien » augmente, devenant même majoritaire en 2022 (36 %). Cette évolution suit celle du système d’évaluation, qui est marqué par l’essor du contrôle continu.

Enfin, le sexe administratif révèle des disparités genrées : en 2023, 59 % des réorientés sont des filles contre 41 % de garçons, en hausse par rapport à 57 % et 43 % en 2018. Ces écarts sont cohérents avec les taux d’obtention du bac (93 % des filles contre 88 % des garçons en 2022), mais aussi avec des stratégies différenciées de choix d’orientation selon le genre.

Comment l’expliquer ? La réorientation mobilise des ressources inégalement distribuées : compréhension des mécanismes d’affectation, capacité à formuler des vœux stratégiques, anticipation des calendriers, accès à un accompagnement souvent familial ou encore confiance en sa légitimité à changer de voie. Autant d’éléments qui prolongent la critique d’un système scolaire méritocratique en apparence, mais inégalitaire dans les faits.

Une première année d’exploration de l’enseignement supérieur ?

L’évolution des usages de Parcoursup montre une chose : les étudiants utilisent de plus en plus la première année pour « tester », voire réajuster, leur orientation. Ce n’est pas un mal en soi : expérimenter, essayer, se tromper fait partie de la vie étudiante. Mais, cela suppose que les institutions suivent, avec des capacités d’accueil adaptées, un accompagnement renforcé, et surtout une équité entre les primo-entrants et les réorientés.

Or, sur ces points, les politiques publiques accusent un retard : les réorientations ne sont ni anticipées ni outillées, et les étudiants les plus fragiles restent ceux qui en payent le prix.

Les lycéens et les étudiants souhaitant se réorienter en première année d’études supérieures passent par la même plateforme. Ce phénomène complexifie la gestion des places, car les candidats peuvent postuler tout en restant inscrits dans leur formation actuelle. Pensée comme un outil d’accès à l’enseignement supérieur, Parcoursup joue désormais aussi un rôle central et parfois flou dans les réorientations.

La réorientation ne peut pas être considérée comme un échec, c’est souvent la preuve d’un ajustement lucide. Encore faut-il que les outils suivent, et que les logiques d’exclusion ne se perpétuent pas. Plutôt que de juger les étudiants qui changent de voie, il est temps de reconnaître qu’au vu de l’évolution du système éducatif, la première année d’études est devenue un moment d’exploration souvent nécessaire.

Il s’agit maintenant collectivement de faire en sorte qu’elle ne devienne pas une fabrique de tri social. Cela suppose d’adapter les bourses, logements, et dispositifs d’aide aux étudiants déjà inscrits dans le supérieur. C’est une manière de réduire les inégalités de « mobilité scolaire ».

The Conversation

Dorian Vancoppenolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Près d’un étudiant sur cinq se réoriente à bac +1 : ajustement, rupture ou échec ? – https://theconversation.com/pres-dun-etudiant-sur-cinq-se-reoriente-a-bac-1-ajustement-rupture-ou-echec-253557

Bac, brevet, CAP : petite histoire des examens en cinq questions

Source: The Conversation – Indonesia – By Claude Lelièvre, Enseignant-chercheur en histoire de l’éducation, professeur honoraire à Paris-Descartes, Université Paris Cité

À quoi les premières sessions du baccalauréat ressemblaient-elles ? Quand le brevet des collèges a-t-il été créé ? À partir de quand l’université s’est-elle féminisée ? En quelques grandes questions, retour sur l’histoire des examens alors que les lycéens et étudiants passent les dernières épreuves de l’année.


Le recours systématique à l’organisation d’examens et à la collation de « grades » attestés dans des diplômes pour valider les connaissances acquises par l’enseignement est une pratique apparue avec les premières universités médiévales au tournant des XIIe et XIIIe siècles.

L’élément central du dispositif a été la licence qui, de simple acte juridique (l’octroi d’une « autorisation », d’un « droit d’enseigner ») s’est assez vite transformée en « examen » et en « grade » pour se retrouver elle-même encadrée rapidement par deux autres grades, eux-mêmes conférés après examen : le baccalauréat d’abord et la maîtrise ensuite.

Ce dispositif « à trois étages » de validation des connaissances s’est imposé partout. La quasi stabilité du vocabulaire qui permet de le décrire – baccalauréat (certes parfois appelé « determinatio »), licence, maîtrise (ou master) – est la meilleure preuve de sa prégnance qui a survécu jusqu’à nos jours.

Alors que les lycéens passent les dernières épreuves du bac et que les étudiants guettent leurs résultats de fin d’année, retour en cinq questions sur l’histoire des premiers examens du parcours scolaire.

À quoi le baccalauréat servait-il lorsqu’il a été institué en 1808 ?

Il a gardé de l’ancien baccalauréat sa face universitaire et il a été le point de départ des baccalauréats dits « généraux » que nous connaissons. Mais avec une grande différence, au début, puisqu’il s’agissait d’un examen entièrement oral dont le jury était uniquement composé d’universitaires.

Le statut du 16 février 1810 précise que les examinateurs du baccalauréat doivent être au nombre de trois universitaires. Cet examen oral porte sur « tout ce que l’on enseigne dans les hautes classes des lycées » (les deux dernières). Peu à peu, des épreuves écrites sont ajoutées. Surtout, peu à peu également, le jury qui fait effectivement passer l’examen du baccalauréat comporte de moins en moins d’universitaires et de plus en plus de professeurs du secondaire.

Pour Napoléon Ier qui a été le créateur de ce baccalauréat, il s’agissait avant tout d’instruire dans les lycées nouvellement créés les futurs officiers et hauts administrateurs de son Empire. De fait, selon l’expression du philosophe Edmond Goblot, le baccalauréat a été tout au long du XIXe siècle « un brevet de bourgeoisie ».

Quand les filles ont-elles eu pour la première fois accès au lycée et à l’université ?

Même quand la loi Camille Sée de décembre 1880 institue avec le soutien de Jules Ferry des établissements d’enseignement secondaire féminin publics, les filles peuvent très difficilement passer le baccalauréat et suivre un cursus à l’université. En effet, à la différence des lycées de garçons institués en 1802, le plan d’études des lycées de jeunes filles ne comporte pas les disciplines qui sont alors le fleuron de l’enseignement secondaire et du baccalauréat : le latin, le grec et la philosophie.

Portrait de Julie-Victoire Daubié, par Pierre Petit (1861)
Portrait de Julie-Victoire Daubié, par Pierre Petit (1861).
Wikimedia

Mais le baccalauréat n’est pas juridiquement interdit aux jeunes filles ; et certaines d’entre elles le passeront en candidates libres : une trentaine en 1890, une centaine en 1909. La première bachelière qui a obtenu le diplôme du baccalauréat est Julie Daubié, en 1861. Elle sera aussi la première licenciée es lettres française en 1871.

Il a fallu presque un demi-siècle pour qu’un décret en date du 25 mars 1924 aménage officiellement une préparation au baccalauréat présentée comme une section facultative alignée totalement sur le secondaire masculin, tout en perpétuant un enseignement secondaire féminin spécifique institué en 1880 (avec son diplôme spécifique de « fin d’études secondaires », au titre significatif…).




À lire aussi :
Histoire : la longue marche des filles vers l’université


Les jeunes filles commencent alors leur « longue marche » conquérante. Dès 1936, les jeunes filles représentent le quart des élèves reçus à l’examen du baccalauréat. En 1965, leur taux d’accès arrive au même niveau que celui des garçons : 13 % de la classe d’âge. Et le pourcentage de jeunes filles inscrites à l’université monte vite : un quart des étudiants en 1930, un tiers en 1950, pour atteindre la moitié en 1981.

Pourquoi a-t-on créé le brevet ?

D’abord, de quel brevet parle-t-on ? Au XIXe siècle, le « brevet » est d’abord et avant tout un « brevet de capacité » qui certifie que l’on est « en capacité » de devenir maître (ou maîtresse) d’école, et plus généralement un examen qui est parfois requis pour être « en capacité » d’exercer certains métiers appartenant à ce que l’on appellerait maintenant la sphère des cadres intermédiaires.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


En 1947, dès le début de la forte augmentation du taux de scolarisation dans l’enseignement secondaire qui commence sous la IVe République, le « brevet » est transformé en « brevet d’études du premier cycle du second degré » (BEPC), son appellation nouvelle signant ce qu’il est devenu avant tout, à savoir un examen qui scande un cursus secondaire désormais clairement constitué de deux cycles. Mais ce n’est nullement une condition pour passer en classe de seconde et cela ne l’a jamais été jusqu’ici, même si cela est envisagé.

À partir de 1981, le diplôme – désormais intitulé « brevet des collèges » – est attribué sans examen, au vu des seuls résultats scolaires. Mais, en 1986, un « examen écrit » est réintroduit avec le triple objectif annoncé de « revaloriser le diplôme », de « motiver » davantage les élèves, et de les « préparer » à aborder des examens ultérieurement. Lors de sa première mouture, le taux de reçus n’a pas dépassé 49 %.

CAP, BEP, bac pro : quand les diplômes de la voie professionnelle ont-ils été créés ?

Le certificat d’aptitude professionnelle (CAP), destiné à sanctionner un apprentissage, est institué en 1911. Cet examen est réservé aux « jeunes gens et jeunes filles de moins de dix-huit ans qui justifient de trois années de pratiques dans le commerce et l’industrie » (décret du 24 octobre 1911). Mais comme le CAP n’a pas été rendu obligatoire ni même associé à une grille de rémunération, le CAP demeurera un diplôme rare dans un premier temps.

Le brevet d’enseignement professionnel (BEP) a été créé en 1966. Il a été institué dans le but de remplacer progressivement le CAP en ayant un caractère plus théorique et moins pratique. Préparé en deux ans après la classe de troisième, il relevait d’une conception plus scolaire de la qualification ouvrière face aux exigences techniques de l’industrie et du commerce modernes.




À lire aussi :
Lycée : surmonter les clichés sur la voie professionnelle


Le baccalauréat professionnel, institué en 1985, parachève cette évolution. Selon Jean-Pierre Chevènement, le ministre de l’éducation nationale, il s’agit en premier lieu de répondre aux besoins de la modernisation du pays en formant des « ouvriers » de plus en plus qualifiés, « souvent au niveau du baccalauréat, quelquefois à un niveau supérieur encore »(28 mai 1985).

Quand le bac s’est-il vraiment démocratisé ?

Le taux de titulaires d’un baccalauréat dans une classe d’âge donnée a été longtemps très restreint ce qui induit qu’il était réservé de fait, sauf exception, aux enfants de milieux socioculturellement favorisés. Il a été de moins de 3 % tout au long de la IIIe République. Et c’est seulement dans les dernières années de cette période que les établissements secondaires publics sont devenus gratuits, alors que c’était déjà le cas pour les établissements primaires publics depuis le début des années 1880.

Il y a eu alors un petit desserrage dans la sélection sociale, concomitant avec la montée du taux de titulaires du baccalauréat dans une classe d’âge. Mais la grande période de l’envolée du taux de bacheliers généraux se situe dans la période gaullienne : on passe de 10 % à 20 % de 1959 à 1969. Il reste à peu près à cet étiage durant presque vingt ans.

Bac de philo : le reportage incontournable des JT (INA ACTU, 2021).

Mais un autre baccalauréat est créé en 1970 : le « baccalauréat technologique ». Il va apporter un taux supplémentaire de titulaires d’un baccalauréat dans une classe d’âge : autour de 16 % – un taux qui reste quasiment constant depuis 1989. Les élèves des lycées technologiques sont d’origines socioculturelles plutôt modestes, et leurs destinations scolaires ou sociales aussi.

En 1985, une troisième couche apparaît : le « baccalauréat professionnel ». Le 8 octobre 1985, le ministre Jean-Pierre Chevènement précise qu’il s’agit « d’offrir, à l’issue de la classe de troisième, trois voies d’égale dignité » :

  • la voie générale, dans laquelle « peuvent s’engager ceux qui ont les capacités de poursuivre des études aux niveaux les plus élevés de l’Université » ;

  • la voie technologique, « qui conduira la majorité des jeunes qui s’y engagent vers un niveau de technicien supérieur » ;

  • la « voie professionnelle, qui assure, après l’obtention d’une qualification de niveau V, une possibilité de poursuivre la formation jusqu’au niveau du baccalauréat et même vers un niveau plus élevé ».

Il y a donc l’affirmation par le titre de baccalauréat d’une égalité de dignité, mais non d’un égalité de parcours – même si l’obtention du baccalauréat permet juridiquement l’entrée à l’Université. Entre 1987 et 2008, le taux de bacheliers professionnel dans une classe d’âge atteint 12 %, puis passe de 12 % en 2008 à 24 % en 2012 (en raison d’un changement de curriculum). Il se stabilise ensuite autour de 21 %.

Par ailleurs, dans le cadre de l’horizon annoncé par Jean-Pierre Chevènement de « 80 % d’une classe d’âge au niveau bac en l’an 2000 », on a une nouvelle accélération du taux de titulaires d’un baccalauréat général dans une classe d’âge qui passe de 22 % en 1987 à 37 % en 1995. Ces dernières années, il atteint 43 %.

The Conversation

Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Bac, brevet, CAP : petite histoire des examens en cinq questions – https://theconversation.com/bac-brevet-cap-petite-histoire-des-examens-en-cinq-questions-257574