The future of work — according to Generation Z — is purposeful, digital and flexible

Source: The Conversation – Canada – By Eddy Ng, Smith Professor of Equity and Inclusion in Business, Queen’s University, Ontario

As Generation Z — those born between 1997 and 2012 — enters the workforce in growing numbers, Canadian employers are encountering a cohort whose expectations and behaviours signal a fundamental shift from current norms.

Unlike previous generations, Gen Z brings pragmatic sensibilities shaped by the unique social, economic and technological landscapes of their upbringing.

Gen Z grew up amid economic uncertainty, technological upheaval and heightened social awareness. Unlike millennials, who entered the job market with “great expectations” for rapid promotions and pay raises, Gen Z is more pragmatic.

And so if Canadian organizations want to attract, engage with and retain this generation of talent, it’s essential to understand what makes them tick.

Purpose, values and why Gen Z stays

Recent research shows that this generation values job security, work-life balance and mental health above all else. These preferences are shaped by formative experiences, including observing their Gen X parents navigate dual-career households and witnessing economic disruptions and automation-driven restructuring.

For Gen Z, stability is seen as essential for their well-being at work.

This generation is ambitious, albeit in ways that diverge from traditional hierarchical advancement. Rather than prioritizing vertical mobility, they seek roles that provide flexibility, meaningful contribution and alignment with personal values.

Central to Gen Z’s workplace vision is a desire to work for organizations that prioritize diversity, inclusion and corporate social responsibility. This generation is the most racially diverse in Canadian history and has grown up in a more socially conscious environment. They tend to hold strong views around equal treatment and environmental sustainability, often expecting their employers to “walk the talk.”

One report suggests that Gen Z employees are significantly more likely to remain with organizations that offer purpose-driven work, with retention likelihood increasing by a factor of 3.6 when such alignment exists.

The rise of “conscious unbossing”

One notable trend within Gen Z is the preference for collaboration over authority.

A recent survey reveals that nearly half of Gen Z professionals favour promotions that do not entail supervisory responsibilities. This reluctance stems from the perceived drawbacks of traditional leadership roles, including heightened stress, rigid scheduling and diminished autonomy.

Some Gen Z workers even indicate a willingness to accept reduced compensation to avoid managerial obligations. This phenomenon, described as “conscious unbossing,” presents a structural challenge for organizations anticipating leadership gaps as baby boomers retire and millennials ascend to senior positions. This means a reconceptualization of leadership, emphasizing project-based authority, mentorship opportunities and expertise-driven influence rather than hierarchical control.

This generation is also the first to grow up entirely within a digital ecosystem, resulting in expectations for seamless technological integration across work processes. Gen Z actively leverages AI tools for skill development, yet formal organizational training often lags behind these self-directed practices. If organizations don’t offer structured, technnology-based learning, digital gaps among employees will grow.

Employers will need to invest in continuous learning opportunities such as micro-credentialing, AI-driven platforms and intergenerational mentorship that can enhance skill acquisition while respecting Gen Z’s preference for autonomy.

Flexible work arrangements also constitute an important characteristic of Gen Z workers’ employment preferences. Having studied and entered the workforce during the COVID-19 pandemic, they view remote and hybrid work arrangements as normal rather than an exception.

Flexible scheduling and outcome-based performance metrics are perceived as baseline expectations rather than discretionary benefits. Employers that adhere rigidly to traditional work structures risk attrition among Gen Z employees. Instead, employers should prioritize policies that emphasize results over physical presence.

How employers must adapt or risk losing talent

To attract and retain Gen Z talent, Canadian employers should adopt evidence-based strategies that include redefining career pathways by moving away from traditional linear models toward frameworks that emphasize lateral mobility, project leadership and skills-based advancement.

As AI and algorithmic HR systems become more prevalent, employers must consider how these tools align with Gen Z’s ways of working. They expect technology to enhance — but not replace — the human side of work.

While AI and automation can improve efficiency, Gen Z places a premium on trust and authentic relationships. Employers should ensure transparency in algorithmic decision-making and maintain opportunities for personal interaction, as these elements are critical to engagement and retention for this cohort that values connection as much as convenience.

Sustainability is another priority for Gen Z. For this generation, climate action is not a marketing slogan, but a moral imperative. Employers must move beyond superficial “greenwashing” and embed sustainability into employment practices, from eco-friendly benefits to green office policies.

These initiatives should be inclusive, ensuring that environmental efforts also advance equity and deliver tangible benefits for all employees. Gen Z expects organizations to demonstrate measurable progress on both ecological and social fronts. Likewise, diversity and inclusion will remain critical for Gen Z, even in politically polarized environments.

And because this generation values guidance but prefers collaborative, non-hierarchical relationships, mentorship must also evolve. Employers should expand mentoring programs to include underrepresented groups, creating pathways for career stability and growth.

Understanding Gen Z and taking the steps to meet these new professionals where they are will help employers create the necessary trust for meaningful growth.

The Conversation

Eddy Ng receives funding from the Social Sciences and Humanities Research Council of Canada.

ref. The future of work — according to Generation Z — is purposeful, digital and flexible – https://theconversation.com/the-future-of-work-according-to-generation-z-is-purposeful-digital-and-flexible-268951

From earthquakes to wildfires, Canada is woefully ill-prepared for disasters

Source: The Conversation – Canada – By Brodie Ramin, Assistant Professor, Faculty of Medicine, L’Université d’Ottawa/University of Ottawa

A fault line in Canada’s Yukon territory has stirred after more than 12,000 years of geological sleep. Researchers studying the Tintina Fault, which stretches 1,000 kilometres from northeast British Columbia into the Yukon and towards Alaska, have found evidence that the fault has built up at least six metres of unrelieved strain.

Like a loaded weapon, it may now be primed for a massive earthquake. To most Canadians, the news passed as a remote curiosity from the North, but the fault lies within a tectonic system that extends under Western Canada and hints at deeper vulnerabilities in eastern Ontario and beyond. Below the surface lies an uneasy truth: Canada is not immune to catastrophe.

A wildfire burned through the hills of Los Angeles in early 2025. Schools closed, emergency alerts buzzed across phones and emergency crews scrambled to get ahead of the flames as Southern California experienced one of its worst wildfire seasons on record, again.




Read more:
False alerts — like the one sent during the Greater Los Angeles wildfires — can undermine trust and provoke anxiety


Meanwhile, in Canada, smoke from record-breaking wildfires blanketed major cities, sending air quality plummeting in Ottawa, Toronto and Montréal.

These events may feel far apart, but they share one common feature: a failure to act before the crisis hits.

Ignoring early warning signs

A recent survey found that most Canadians don’t believe their communities are ready for a major disaster. And yet, outside of the occasional fire drill or emergency alert test, Canadians continue living as though preparedness is someone else’s job.

But readiness isn’t just about cramming bottled water into your basement or changing the batteries in your smoke alarms. It’s about how we think, and more importantly, what we choose to ignore.

As a writer and prevention-minded physician, I’ve spent years studying how disasters unfold and how they might have been prevented. My new book, Written in Blood: Lessons on Prevention from a Risky World, investigates tragedies like nuclear meltdowns, natural disasters and pandemics. In case after case, I found a pattern: early warning signs were ignored, systems failed to communicate and people trusted that “someone else” had it covered.

The real danger isn’t nature or technology, it’s complacency.

Responding to the last disaster, not the next one

In Canada, the year 2023 saw the most hectares burned in wildfire history. Yet only one in four Canadian households reported making any preparation for a weather-related emergency in the past year.

When we ignore the cracks in our systems, we normalize risk. It’s easy to imagine preparedness as the government’s job or the job of emergency responders. But the reality is more complex, and the responsibilities should be more widespread.

Cities continue using outdated flood-risk maps that underestimate current climate realities. Schools overlook basic upgrades to improve air quality or ventilation. Transit networks run on aging infrastructure.

Canada’s cyber-security agency recently warned that hostile entities are targeting internet-connected control systems across the country, including those that manage water supplies, energy infrastructure and agricultural operations.




Read more:
Silent cyber threats: How shadow AI could undermine Canada’s digital health defences


The lesson here isn’t that Canadians need to panic, it’s that they need to think differently. In sectors like aviation or nuclear energy, safety is baked into every process. These fields rely on layered safeguards, robust near-miss reporting and a culture of constant vigilance. They know safety isn’t a checkbox, it’s a mindset.

So why doesn’t that same mindset exist in other parts of our society, and how can Canadian officials ensure it does?

A prevention mindset

Instead of reacting to disasters once they happen, Canadians should be asking:

  • What could go wrong here?
  • What would I wish I had done if it does go wrong?

This approach — a prevention mindset — doesn’t mean living in fear. It means being proactive when the headlines are quiet. It means investing in safety when no crisis is visible and building defences before something breaks.

Take the Los Angeles wildfire as a case study. Fire crews had been warning about dry conditions for months. Urban expansion and outdated building codes exacerbated the damage.

At the same time, cities in Canada had barely updated evacuation plans or wildfire risk assessments, despite years of worsening climate conditions. Last summer, toxic wildfire smoke shut down outdoor events , harmed the lung health of a large proportion of Canadians and exposed major planning failures.

These are not just “acts of God.” They’re also policy choices, deferred upgrades and missing item lines in a budget. And they are repeated across sectors — from health care to cybersecurity, from education to urban planning.

Safety must be built

Disasters feel sudden, but their roots often stretch back years. In Written in Blood, I explore the slow buildup to catastrophes like the Fukushima nuclear meltdown in Japan, the Notre- Dame fire in Paris and the Beirut port explosion. These were not lightning strikes — they were failures of imagination, leadership and system design.

The next crisis, whether wildfire, data breach, infrastructure collapse or disease outbreak, is already somewhere on the horizon.

The question isn’t if it will happen. It’s whether we will meet it with surprise — or with a plan.

The Conversation

Brodie Ramin does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. From earthquakes to wildfires, Canada is woefully ill-prepared for disasters – https://theconversation.com/from-earthquakes-to-wildfires-canada-is-woefully-ill-prepared-for-disasters-270848

Ctrl-alt-defy: How Ukrainians have used memes to counter Russia’s propaganda machine

Source: The Conversation – Canada – By Michel Bouchard, Professor of Anthropology, University of Northern British Columbia

As Russian tanks rolled towards Kyiv in February 2022, a quick Russian victory seemed assured. But as Ukrainian soldiers fought off Russian invaders, Ukrainian netizens launched waves of memes to provide hope to a nation under existential threat.

These memes often mocked Russian hubris and incompetence, drawing upon news and online clips as fodder to attack Russian propaganda.

One early meme taunted Russia after Ukrainians changed road signs to confuse the military convoys. The memes show a road sign indicating that the invaders should go straight and “go fuck yourself,” turn left to “go fuck yourself again” and head “to Russia to go fuck yourself.”

Another meme involved the young Ukrainian Border Guard at Snake Island, assailed by the Russian battleship the Moskva. The final words radioed to the enemy were: “Russian warship, go fuck yourself.” This phrase quickly became a meme, a shirt, and — just a few weeks later — a commemorative stamp issued by the Ukrainian post office.

Memes and genes

The term “meme” was coined by evolutionary biologist Richard Dawkins in 1976 to describe “a unit of cultural transmission or a unit of imitation.”

He based it on the Greek word mimeme (something imitated). It was meant to parallel the biological concept of a gene — both the meme and the gene seek to replicate themselves and, if successful, are widely disseminated. They can also mutate, taking on new meanings as they evolve.

Memes came of age on social media platforms like Twitter, now X. They usually combine iconic images or short videos with pithy text to create humorous digital cultural creations circulated on social media. Much like the traditional editorial cartoons, they often offer social and political commentary on current events. Still, they are much more anarchic, as anyone can create and share memes, hoping they will go viral.

Memes are invariably highly symbolic and often draw in disparate elements from history and current events.

In one Ukrainian meme highlighting karmic retribution, a soldier and a dog watch the sinking Moskva as the dog cries out: “This is for my doghouse.” This meme refers to a photo circulated online that showed a doghouse perched on a Russian tank loaded with goods pillaged from Ukrainian households. The meme satirically highlighted Russian looting and tied it to the sinking of the Russian warship.

A meme shows a man and a dog watching a Russian warship sink as they stand next to a Ukrainian flag.
Mocking the sinking Russian warship Moskva, the dog calls out: ‘This is for my doghouse — in other words, karmic payback for Russian pillaging, looting and terror.
(Facebook)

Ukrainian meme crusaders aim to counter Russian propaganda that justified Russia’s invasion. These propaganda efforts include paid detractors in Russian troll factories, as well as Russian and foreign vatniks — jingoistic proponents of Russian propaganda parroting unquestioningly what is put forward by Russian political and military leaders.

The term dates back to the 1960s, when grey cotton-wool jackets were issued to Soviet soldiers. The modern-day vatnik has been depicted disparagingly by Russian artist Anton Chadski as a patched-up hand with a black eye, a red nose and missing teeth. The image circulated widely on Russian social media and became prominent during the preliminary Russian invasion of Crimea in 2014.

The role of NAFO

An image shows two dogs and says it's always morally correct to cyberbully Russian ambassadors.
A NAFO meme.
(NAFO)

One of the most prominent and high-profile online communities of pro-Ukrainian keyboard warriors is the North Atlantic Fella Organization (NAFO/OFAN). It’s an internet meme and social media movement dedicated to battling propaganda and disinformation about the 2022 Russian invasion of Ukraine. It floods the social media posts of Russian officials, propagandists and vatniks with memes.

NAFO “fellas” use avatars depicting Shiba Inu dogs in various dress and poses. It has grown to tens of thousands of fellas with no set leadership, but all guided by the catchphrase “see a fella, follow a fella.”

A black-and-white sketch of Putin in an outhouse.
A meme of Putin in an outhouse.
(Telegram)

Memes like those created and circulate by NAFO also serve to insult Russia, presenting the nation as an outhouse, the army as inept and the Russian soldier as “orcs,” a fictional race of brutal and aggressive humanoids famously depicted in J.R.R. Tolkien’s Middle Earth.

In one meme, a cloven-hooved, crowned Vladimir Putin rides an outhouse tank spewing filth. Above him, the Russian word paRasha is written, which means a prison outhouse seat and is also used to signify nonsense, or simply bullshit. The “Rasha” is capitalized, playing on the Russian pronunciation of the English word Russia.




Read more:
Why leaders who bullshit are more dangerous than those who lie


Latest memes

Ukraine-focused meme-making continues. Memes have emerged mocking U.S. President Donald Trump’s 28-point peace plan.

In one, there is a massive American flag and Trump in the background; the plan is presented as a 28-component Trojan horse for Ukraine.




Read more:
Peace in Ukraine? Believe it when you see it, especially if Russian demands are prioritized


Ukrainian aren’t just focused on Russia — they also challenge Ukrainian leaders and officials. In a recent meme, a pair of Ukrainian state operatives note: “And (Steve) Witkoff’s tapes are much more interesting than Mindich’s tapes…”

This is a double-barrelled jab. It refers to the 1,000-plus hours of secret recordings that were made during the explosive investigation of Ukrainian-Israeli entrepreneur Tymur Mindich’s alleged $100-million Ukrainian energy sector kick-backs, and revelations that Wirkoff, Trump’s envoy in peace talks, was advising Russian officials.

Ongoing Ukrainian memes are a testament to Ukraine’s continuing resistance to Russia, even when outsiders like Trump tell them they “have no cards” to play and that they should capitulate to Russia. They are a powerful force in contemporary Ukrainian nationalism.

Ukrainian scholar Daria Antsybor, a folklorist and anthropologist, co-authored this piece.

The Conversation

Michel Bouchard does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Ctrl-alt-defy: How Ukrainians have used memes to counter Russia’s propaganda machine – https://theconversation.com/ctrl-alt-defy-how-ukrainians-have-used-memes-to-counter-russias-propaganda-machine-270767

Flat Earth, spirits and conspiracy theories – experience can shape even extraordinary beliefs

Source: The Conversation – USA – By Eli Elster, Doctoral Candidate in Evolutionary Anthropology, University of California, Davis

A belief in ghosts could be a way to explain a strange experience while asleep. ‘The Nightmare’ by Johann Heinrich Füssli/Wikimedia Commons

On Feb. 22, 2020, “Mad” Mike Hughes towed a homemade rocket to the Mojave Desert and launched himself into the sky. His goal? To view the flatness of the Earth from space. This was his third attempt, and tragically it was fatal. Hughes crashed shortly after takeoff and died.

Hughes’ nickname – Mad Mike – might strike you as apt. Is it not crazy to risk your life fighting for a theory that was disproven in ancient Greece?

But Hughes’ conviction, though striking, is not unique. Across all recorded cultures, people have held strong beliefs that seemed to lack evidence in their favor – one might refer to them as “extraordinary beliefs.”

For evolutionary anthropologists like me, the ubiquity of these kinds of beliefs is a puzzle. Human brains evolved to form accurate models of the world. Most of the time, we do a pretty good job. So why do people also often adopt and develop beliefs that lack strong supporting evidence?

In a new review in the journal Trends in Cognitive Sciences, I propose a simple answer. People come to believe in flat Earth, spirits and microchipped vaccines for the same reasons they come to believe in anything else. Their experiences lead them to think those beliefs are true.

Theories of extraordinary belief

Most social scientists have taken a different view on this subject. Supernatural beliefs, conspiracy theories and pseudoscience have struck researchers as totally impervious to contrary evidence. Consequently, they have assumed that experience is not relevant to the formation of those beliefs. Instead, they’ve focused on two other explanatory factors.

The first common explanation is cognitive biases. Many psychologists argue that humans possess mental shortcuts for reasoning about how the world works. For instance, people are quite prone to seeing intentions and intelligence behind random events. A bias of this kind might explain why people often believe that deities control phenomena such as weather or illness.

The second factor is social dynamics: People adopt certain beliefs not because they’re sure that they’re true but because other people hold those beliefs, or they want to signal something about themselves to others. For example, some conspiracy theorists may adopt strange beliefs because those beliefs come with a community of loyal and supportive co-believers.

Both of these approaches can partly explain how people come to hold extraordinary beliefs. But they discount three ways that experience, in tandem with the other two factors, can shape extraordinary beliefs.

vast grassy landscape with blue sky and white clouds
Science says one thing, but your eyes tell you the Earth looks pretty darn flat.
sharply_done/E+ via Getty Images

1. Experience as a filter

First, I propose that experience can act as a filter. It determines which extraordinary beliefs can successfully spread throughout a population.

Take the flat Earth theory as an example. We know with absolute certainty that it’s false, but it’s no more or less wrong than a theory that the Earth is shaped like a cone. So what makes flat Earth so much more successful than this equally incorrect alternative?

The answer is as obvious as it seems – the Earth looks flat when you’re standing on it, not cone-shaped. Visual evidence favors one extraordinary belief over the others. Of course, scientific evidence clearly shows that the Earth is round; but it’s not surprising that some people prefer to trust what their eyes are telling them.

2. Experience as a spark

My second argument is that experience acts as a spark for extraordinary beliefs. Strange experiences, such as auditory hallucinations, are difficult to explain and understand. So people do their best to explain them – and in doing so, they come up with beliefs that seem fittingly strange.

For this pathway, sleep paralysis is a good case study. Sleep paralysis happens in the space between sleeping and waking – you feel like you’re awake, but you can’t move or speak. It’s terrifying and quite common. And interestingly, sufferers usually feel like there’s a threatening agent sitting on their chest.

As a scientist, I interpret sleep paralysis as the result of neural confusion. But it’s not difficult to picture how someone without a scientific background – that is, nearly every human being in history – might interpret the experience as evidence of supernatural beings.

3. Experience as a tool

To me, the third potential route to extraordinary beliefs is especially intriguing. In many cases, people don’t just develop extraordinary beliefs; they develop immersive practices that make those beliefs feel true.

For instance, imagine that you’re a farmer living in the highlands of Lesotho in southern Africa, where I conduct ethnographic fieldwork. You suffer a series of miscarriages, and you want to know why. So you go to a traditional healer – she tells you that you can learn the answer from your ancestors by drinking a hallucinogenic brew. You drink the brew. Soon after, you begin to see spirits; they speak to you and explain your misfortune.

Shaman in colorful outfit and necklaces ladles from a clay pot
A shaman might administer a psychoactive substance that affects how you experience the world around you.
Luis Acosta/AFP via Getty Images

Clearly, an experience like this one might reinforce your belief in the existence of spirits. Such immersive practices – such as prayer, ritualistic dance and the religious use of psychoactive substances – create evidence that makes the associated beliefs feel true.

What’s next?

Extraordinary beliefs are not inherently good or bad. In particular, religious beliefs provide meaning, security and a sense of community for billions of people.

But some extraordinary beliefs are sources of serious concern: Misinformation about science and politics is rampant and immensely dangerous. By recognizing how those beliefs are shaped by experience, researchers can find better ways to combat their spread.

Just as importantly, though, my suggested perspective might encourage more compassion and kinship toward people who hold beliefs that seem very different from yours. They are not “mad” or insincere. Like any other human being, they think the evidence is on their side.

The Conversation

Eli Elster does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Flat Earth, spirits and conspiracy theories – experience can shape even extraordinary beliefs – https://theconversation.com/flat-earth-spirits-and-conspiracy-theories-experience-can-shape-even-extraordinary-beliefs-271145

Winter storms blanket the East, while the US West is wondering: Where’s the snow?

Source: The Conversation – USA (2) – By Adrienne Marshall, Assistant Professor of Geology and Geological Engineering, Colorado School of Mines

Much of the West has seen a slow start to the 2026 snow season. Hyoung Chang/The Denver Post

Ski season is here, but while the eastern half of the U.S. digs out from wintery storms, the western U.S. snow season has been off to a very slow start.

The snowpack was far below normal across most of the West on Dec. 1, 2025. Denver didn’t see its first measurable snowfall until Nov. 29 – more than a month past normal, and one of its latest first-snow dates on record.

But a late start isn’t necessarily reason to worry about the snow season ahead.

Adrienne Marshall, a hydrologist in Colorado who studies how snowfall is changing in the West, explains what forecasters are watching and how rising temperatures are affecting the future of the West’s beloved snow.

Weather map show precipitation outlook, with a strip across Colorado, Utah and up to Oregon in a band with equal chances of wetter or drier conditions.
The National Weather Service Climate Prediction Center’s seasonal outlook for January through March 2026 largely follows a typical La Niña pattern, with warmer and drier conditions to the south, and wetter and cooler conditions to the north.
NOAA

What are snow forecasters paying attention to right now?

It’s still early in the snow season, so there’s a lot of uncertainty in the forecasts. A late first snow doesn’t necessarily mean a low-snow year.

But there are some patterns that we know influence snowfall that forecasters are watching.

For example, the National Oceanic and Atmospheric Administration is forecasting La Niña conditions for this winter, possibly switching to neutral midway through. La Niña involves cooler-than-usual sea-surface temperatures in the Pacific Ocean along the equator west of South America. Cooler ocean temperatures in that region can influence weather patterns across the U.S., but so can several other factors.

La Niña – and its opposite, El Niño – don’t tell us what will happen for certain. Instead, they load the dice toward wetter or drier conditions, depending on where you are. La Niñas are generally associated with cooler, wetter conditions in the Pacific Northwest and a little bit warmer, drier conditions in the U.S. Southwest, but not always.

When we look at the consequences for snow, La Niña does tend to mean more snow in the Pacific Northwest and less in the Southwest, but, again, there’s a lot of variability.

A map show the snowpack in most of the West is more than 50% below normal.
Scientists often gauge snow conditions by snow-water equivalent, a measure of the amount of water stored in a snowpack. Most of the Western U.S. was far below normal on Nov. 30, 2025. Parts of the Southwest were above normal, but this early in the season, normal is very low to begin with in many of those areas.
USDA Natural Resources Conservation Service

Snow conditions also depend heavily on individual storms, and those are more random than the seasonal pattern indicated by La Niña.

If you look at NOAA’s seasonal outlook maps, most of Colorado and Utah are in the gap between the cooler and wetter pattern to the north and the warmer and drier pattern to the south expected during winter 2026. So, the outlook suggests roughly equal chances of more or less snow than normal and warmer or cooler weather across many major ski areas.

How is climate change affecting snowfall in the West?

In the West, snow measurements date back a century, so we can see some trends.

Starting in the 1920s, surveyors would go out into the mountains and measure the snowpack in March and April every year. Those records suggest snowfall has declined in most of the West. We also see evidence of more midwinter melting.

How much snow falls is driven by both temperature and precipitation, and temperature is warming

In the past few years, research has been able to directly attribute observed changes in the spring snowpack to human-caused climate change. Rising temperatures have led to decreases in snow, particularly in the Southwest. The effects of warming temperatures on overall precipitation are less clear, but the net effect in the western U.S. is a decrease in the spring snowpack.

When we look at climate change projections for the western U.S. in future years, we see with a high degree of confidence that we can expect less snow in warmer climates. In scenarios where the world produces more greenhouse gas emissions, that’s worse for snow seasons.

Should states be worried about water supplies?

This winter’s forecast isn’t extreme at this point, so the impact on the year’s water supplies is a pretty big question mark.

Snowpack – how much snow is on the ground in March or April – sums up the snowfall, minus the melt, for the year. The snowpack also affects water supplies for the rest of the year.

The West’s water infrastructure system was built assuming there would be a natural reservoir of snow in the mountains. California relies on the snowpack for about a third of its annual water supply.

However, rising temperatures are leading to earlier snowmelt in some areas. Evidence suggests that climate change is also expected to cause more rain-on-snow events at high elevations, which can cause very rapid snowmelt.

a man stands on a road that is flooded on both sides as far as the camera can see.  Trees are surrounded by flood water on one side.
When snow melts quickly, it can cause flooding. That happened in 2023 in California, when fast melting from a heavy snow season flooded wide areas of farmland and almond orchards covering what was once Tulare Lake.
Luis Sinco/Los Angeles Times via Getty Images

Both create challenges for water managers, who want to store as much snowmelt runoff as possible in reservoirs so it’s available through the summer, when states need it most for agriculture and for generating hydropower to meet high electricity demand. If the snow melts early, water resource managers face some tough decisions, because they also need to leave room in their reservoirs to manage flooding. Earlier snowmelt sometimes means they have to release stored water.

When we look at reservoir levels in the Colorado River basin, particularly the big reservoirs – Lake Powell and Lake Mead – we see a pattern of decline over time. They have had some very good snow and water years, and also particularly challenging ones, including a long-running drought. The long-term trends suggest an imbalance between supply and growing demand.

What else does snowfall affect, such as fire risk?

During low-snow years, the snowpack disappears sooner, and the soils dry out earlier in the year. That essentially leaves a longer summer dry period and more stress on trees.

There is evidence that we tend to have bigger fire seasons after low-snow winters. That can be because the forests are left with drier fuels, which sets the ecosystem up to burn. That’s obviously a major concern in the West.

Snow is also important to a lot of wildlife species that are adapted to it. One example is the wolverine, an endangered species that requires deep snow for denning over the winter.

What snow lessons should people take away from climate projections?

Overall, climate projections suggest our biggest snow years will be less snowy in anticipated warmer climates, and that very low snow years are expected to be more common.

But it’s important to remember that climate projections are based on scenarios of how much greenhouse gas might be emitted in the future – they are not predictions of the future. The world can still reduce its emissions to create a less risky scenario. In fact, while the most ambitious emissions reductions are looking less likely, the worst emissions scenarios are also less likely under current policies.

Understanding how choices can change climate projections can be empowering. Projections are saying: Here’s what we expect to happen if the world emits a lot of greenhouse gases, and here’s what we expect to happen if we emit fewer greenhouse gases based on recent trends.

The choices we make will affect our future snow seasons and the wider climate.

This article has been updated to correct the references to Denver, which saw one of its latest snowfalls on record.

The Conversation

Adrienne Marshall receives funding from the National Science Foundation, the National Oceanic and Atmospheric Administration, the United States Geological Survey, the Colorado Department of Transportation, and the Alfred P. Sloan Foundation, and has received previous funding from the Carnegie Institution of Washington.

ref. Winter storms blanket the East, while the US West is wondering: Where’s the snow? – https://theconversation.com/winter-storms-blanket-the-east-while-the-us-west-is-wondering-wheres-the-snow-270928

South Africa needs to rethink how it measures intellectual and developmental disabilities – what’s lacking

Source: The Conversation – Africa (2) – By Lieketseng Ned, Lecturer, Stellenbosch University

The effective planning and delivery of services for people with intellectual and developmental disabilities in South Africa is severely constrained by the lack of reliable data.

Intellectual disability is characterised by significant limitations in:

  • intellectual functioning (reasoning, learning, problem solving)

  • adaptive behaviour (a range of everyday social and practical skills)

which originate before the age of 22.

Developmental disabilities are a diverse group of chronic conditions due to an impairment in physical, learning, language, or behaviour areas. Intellectual disability, autism, cerebral palsy, Down syndrome and fetal alcohol syndrome are some of the conditions.

South Africa measures disability at population level using the Washington Group Short Set of six functional questions. This ensures international comparability. But it doesn’t adequately capture intellectual and development disabilities. This is because the questions only capture difficulties in doing basic activities. They don’t capture a diagnosis. It’s therefore difficult to know what diagnoses have led people to report difficulties.

This makes disaggregation by disability diagnosis difficult. Data disaggregation by disability types is key. It contributes to effective policy, resource allocation and budgeting as well as appropriate intervention and targeted services.

This article builds on our work researching disability in South Africa for over 10 years.

In it, we propose pragmatic steps to improve the ability to monitor the status of people with intellectual and developmental disabilities of all ages. South Africa can add to the evidence base by producing robust, actionable metrics that strengthen population data. In turn this will enhance planning and implementation.

Current measurement landscape

Disability measurement in South Africa rests on two main pillars.

The first is administrative records. These include:

These all provide useful service-level insights. But they only capture people already in contact with services. And they use different coding standards.

The second pillar is population-based surveys. These include Washington Group questions on disability. This generates internationally comparable prevalence estimates. But this measurement doesn’t include children under 5 years. The nature of the questions also means that a wide range of predominantly invisible disabilities are missed.

For children, the Washington Group/Unicef Child Functioning Module is internationally recognised as a valid measure for 2–17 year olds. It is available and recommended. But it’s still not widely implemented in South Africa.

As a result, the current system remains inadequate in reliably disaggregating data by disability type, age, severity or onset.

Measurement limitations

Population-based measures of functioning don’t provide a diagnosis. It is therefore difficult to identify people with intellectual and developmental disability within the data.

Additionally, the Washington Group does not ask about psychosocial functioning. An example of such a question could be: Do you have difficulty forming relationships?. Relying on it alone may undercount many people whose primary impairments are cognitive, adaptive or psychosocial.

Ideally, it would be beneficial to have both the diagnosis and the functional profile.

National reporting also leaves an important early-childhood blind spot. Infants and many toddlers (0–4 years) are not captured in the same way as older children and adults. Yet this is the period when early detection and intervention can have the most impact. The Washington Group/Unicef measure improves data for children from 2 to 4 years. But it isn’t embedded in the country’s data collection platforms.

Data on young children are further limited by uneven developmental surveillance and the narrow use of the Road to Health Booklet. The booklet serves as a comprehensive record of a child’s medical history, health status, growth and development.

Administrative records are also inconsistently coded and weakly linked. This makes them an unreliable source of data on type of disability. Single-item indicators (for example, “difficulty communicating”) risk misclassification unless analysed alongside onset and other related functioning.

What is possible?

The question that we asked in our recently completed country assessment in collaboration with Special Olympics South Africa is:

how does one use data on the functioning profile to understand diagnosis and vice versa?

Such a crosswalk would allow identification of people with intellectual and developmental disabilities in the data. As an initial step, we created and used a composite indicator. This could potentially assist in identifying people 5 years and older.

For each dataset, we used a combination of the already existing Washington Group Short Set variables to create the new “With intellectual and developmental disabilities” variable.

This was followed by running cross-tabulations of the “with possible intellectual and developmental disabilities” versus “without intellectual and developmental disabilities” with a number of other health-related variables. These cross-tabulations were used to identify gaps in accessing health care services.

We acknowledge that this is an imperfect measure. But it provides a starting point to try and understand the trends in access to health care.

Next steps

We recommend the following:

  • Amend survey instruments to include the Washington Group alongside diagnosis questions for those under five.

  • Do research to understand the functional profile of people with people with intellectual and developmental disabilities based on their responses to the Washington Group Short Set.

  • Expand training for field staff on the new modules. This should include interviewing techniques.

  • Ensure national and subnational coordination.

  • Publish detailed breakdowns by disability type, by age group (including under 5), and by region.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. South Africa needs to rethink how it measures intellectual and developmental disabilities – what’s lacking – https://theconversation.com/south-africa-needs-to-rethink-how-it-measures-intellectual-and-developmental-disabilities-whats-lacking-268497

Islam : comment se fabrique l’inquiétude dans le débat public

Source: The Conversation – in French – By Ali Mostfa, Maître de conférences, HDR, en études sur le fait religieux en islam, UCLy (Lyon Catholic University)

Après la production d’un rapport gouvernemental sur l’« entrisme des Frères musulmans » dans la société française, une étude de l’institut Ifop met en avant une progression de la religiosité chez les musulmans de France et l’interprète comme un signe de l’influence islamiste. Or, les chiffres avancés renvoient surtout à des pratiques ordinaires du culte. Cette approche interroge sur la façon dont l’islam est problématisé dans le débat public.


L’institut Ifop a récemment enquêté sur l’évolution, en France, des pratiques des musulmans, et notamment des jeunes, mettant en avant une forte dynamique de « réislamisation » (87 % des 15–24 ans se disent religieux, 62 % prient quotidiennement, 83 % jeûnent tout le ramadan, 31 % portent le voile). Cette lecture s’inscrit dans la continuité du rapport « Frères musulmans et islamisme politique en France » publié par le ministère de l’intérieur en mai 2025. Alors que ce rapport situait l’enjeu de l’« entrisme islamiste » au niveau des organisations et des institutions, l’enquête de l’Ifop esquisse l’idée d’une base sociale de l’islamisme dans des comportements ordinaires.

Pour étayer sa thèse, l’Ifop mobilise un ensemble d’indicateurs allant de la prière au jeûne, des comportements interpersonnels (bise, mixité) au rapport à la science ou aux règles religieuses. Or plusieurs de ces mesures, présentées comme les signes d’une religiosité accrue, soulèvent des difficultés méthodologiques : un écart important apparaît entre ce que les indicateurs mesurent et l’interprétation qui en est faite. Cette approche interroge sur la façon dont l’islam est problématisé dans le débat public.

Intensification religieuse : une réalité qui ne dit pas ce qu’on croit

Les données relatives à la « fréquence de la prière » offrent une première illustration de ce décalage. En islam, la prière rituelle (ṣalāt) consiste en cinq actes quotidiens obligatoires, pouvant être regroupés lorsque les circonstances l’exigent ; elle ne se décline pas selon des fréquences variables. La question « À quelle fréquence vous arrive-t-il de prier ? » repose ainsi sur un modèle catégoriel inadapté, fondé sur des échelles – « une fois par semaine », « une à quatre fois par jour », etc. – qui ne correspondent à aucune réalité du rite musulman. De telles formulations conduisent moins à mesurer une pratique effective qu’à enregistrer l’effort des enquêtés pour ajuster un rituel strictement codifié à une grille de lecture inadéquate. L’opposition graphique entre « prient quotidiennement » et « ne prient pas quotidiennement » produit ainsi des profils distincts là où la véritable distinction se joue entre accomplissement – même regroupé – et omission répétée.

Le même mécanisme apparaît dans la mesure du jeûne. Affirmer que « 73 % des musulmans ont jeûné tout le ramadan » est présenté comme un signe de « rigidification », alors qu’il s’agit de l’accomplissement ordinaire d’un pilier défini précisément comme un mois complet d’observance. La gradation introduite – « tout le mois », « quelques jours », « pas jeûné » – est étrangère au rituel, transposant à l’islam un modèle séculier de pratique modulable. La stabilité des chiffres (73 % en 2025, 74 % en 2019) reflète des dynamiques démographiques davantage qu’un durcissement doctrinal.

Dans les deux cas, l’étude ne décrit pas une radicalisation, mais elle réinterprète des pratiques rituelles à travers des catégories inappropriées, produisant artificiellement des niveaux d’engagement et des seuils de rupture qui n’existent pas dans les données. La prière et le jeûne deviennent ainsi des signaux idéologiques supposés, alimentant l’idée d’une « réislamisation » problématique alors qu’ils relèvent d’abord d’une normativité religieuse ordinaire chez les musulmans pratiquants.

Au-delà des chiffres qu’elle présente, l’étude mobilise un ensemble de catégories – « réislamisation », « orthopraxie », « absolutisme religieux », « tension avec la République », « séparatisme du genre », « halo de l’islamisme » – qui orientent fortement la manière dont les attitudes musulmanes sont interprétées. Ces cadres produisent une lecture homogénéisante de comportements pourtant très divers, en réinscrivant des pratiques ordinaires dans des désignations alarmantes. Ce type de catégorisation s’inscrit dans un biais bien documenté en sociologie des religions : la tendance à privilégier les registres normatifs ou les intentions supposées au détriment de l’analyse des pratiques elles-mêmes.

De la religiosité vécue au soupçon idéologique : un glissement méthodologique

Les conclusions de l’étude reposent sur une confusion centrale : elle tend à associer mécaniquement une religiosité plus visible à un durcissement idéologique. Or l’intensité du croire et l’intransigeance normative constituent deux dimensions distinctes. On observe des pratiquants rigoureux ouverts à l’altérité, tout comme des individus très peu ou non pratiquants adoptant des positions rigides. Rien ne permet donc de déduire qu’un niveau élevé d’observance rituelle traduit, en soi, une orientation idéologique particulière.

C’est pourtant cette assimilation hâtive que prolonge l’enquête lorsqu’elle interprète des comportements situés – abstinence d’alcool, refus de la bise, distance à la mixité – comme des signes de « séparatisme » ou d’« islamisme ». Le raisonnement opère alors un glissement : des gestes de piété ou des habitudes culturelles – comme le fait de ne pas pratiquer la bise, peu usitée dans de nombreuses régions du monde arabe – sont déplacés vers le registre du soupçon idéologique, non en raison de leur sens propre, mais du cadre interprétatif dans lequel ils sont insérés.

Ce glissement apparaît également dans l’usage d’items censés mesurer des orientations idéologiques, alors qu’ils ne saisissent que des arbitrages intellectuels généraux. La question opposant « science » et « religion » pour expliquer l’origine du monde en est une illustration. En imposant une alternative binaire – soit la science, soit la religion –, elle ne peut en rien indiquer une inclination vers l’islamisme ; un tel choix concerne d’ailleurs des croyants de nombreuses traditions.

Surtout, cette formulation peut laisser entendre que répondre « religion » révélerait une moindre capacité à adhérer au savoir scientifique ou à réussir scolairement. Or les données disponibles montrent exactement l’inverse : les enfants d’immigrés réussissent souvent mieux à l’école que les autres, et le niveau d’éducation des familles immigrées progresse nettement sur trois générations. L’item « science vs religion » ne fournit pourtant aucune indication sur une orientation idéologique : il mesure seulement la préférence déclarée pour l’un des deux registres explicatifs lorsqu’ils sont présentés comme incompatibles. Autrement dit, l’opposition est imposée par la question et non révélée par les convictions des répondants.

Ces attitudes sont ensuite corrélées à des mesures de « sympathie » pour des courants présentés comme islamistes. Pourtant, l’usage d’un terme aussi indéterminé crée une confusion. Ce terme peut recouvrir une simple absence d’hostilité, une familiarité culturelle ou encore une adhésion doctrinale. L’ambiguïté est renforcée par le regroupement, sous une même catégorie, d’univers religieux sans lien entre eux : le Tabligh, le salafisme/wahhabisme, les Frères musulmans et le takfir. Sans clarification, cette « sympathie » agrégée suggère un continuum idéologique qui n’existe pas, produisant mécaniquement des taux élevés.

Ces chiffres contrastent fortement avec un résultat pourtant décisif du même rapport : 73 % des musulmans estiment qu’un musulman a le droit de rompre avec l’islam, contre 44 % en 1989. Un tel indicateur de libéralisation normative aurait dû structurer la lecture de l’enquête. Or il est resté largement inaperçu dans le débat public, éclipsé par des items plus compatibles avec le récit d’une « réislamisation ». L’évolution des trente dernières années montre pourtant une dynamique inverse, celui d’un élargissement de l’autonomie individuelle dans le rapport à la foi, difficilement compatible avec l’idée d’un raidissement idéologique généralisé.

Au terme de l’analyse, une conclusion s’impose : un sondage comme celui de l’Ifop contribue surtout à façonner une manière de regarder les musulmans. Par ses catégories, ses regroupements et ses oppositions binaires, il produit un récit d’inquiétude qui relève davantage du cadrage de l’enquête que des données elles-mêmes. Un tel dispositif oriente la perception publique, suggère des liens fragiles et peut influer sur des décisions politiques – au risque d’accentuer chez certains musulmans le sentiment d’être injustement visés.

The Conversation

Ali Mostfa est coordinateur scientifique du parcours de formation Mohammed Arkoun sur l’islamologie, en partenariat avec les établissements d’enseignement supérieur lyonnais, financé par le Bureau Central des Cultes du Ministère de l’Intérieur.

ref. Islam : comment se fabrique l’inquiétude dans le débat public – https://theconversation.com/islam-comment-se-fabrique-linquietude-dans-le-debat-public-270816

L’activité physique à partir de 45 ans peut réduire le risque de démence, selon une nouvelle étude

Source: The Conversation – in French – By Joyce Siette, Associate Professor | Deputy Director, The MARCS Institute for Brain, Behaviour and Development, Western Sydney University

Rester actif à partir de la quarantaine jouerait un rôle clé dans la prévention de la démence. Centre for Ageing Better/Unsplash

Bouger, c’est bon pour le corps… et pour le cerveau. Une étude états-unienne de grande ampleur montre que l’activité physique régulière, même débutée à partir de 45 ans, peut réduire significativement le risque de démence, y compris chez les personnes génétiquement prédisposées. Preuve supplémentaire que l’exercice reste l’un des meilleurs remèdes pour garder l’esprit vif en vieillissant.


Depuis des années, les scientifiques savent que bouger notre corps peut affûter notre esprit. En effet, l’activité physique stimule le flux sanguin vers le cerveau, améliore la neuroplasticité et réduit l’inflammation chronique. Ces processus sont considérés comme protecteurs face au déclin cognitif, y compris en ce qui concerne le risque de démence.

Pourtant, malgré des décennies de recherche, d’importantes questions demeurent. L’activité physique réduit-elle le risque de démence lorsqu’elle est pratiquée à tout âge ? Ou seulement lorsqu’on est jeune ? Et si l’on présente un risque génétique plus élevé, l’exercice physique peut-il encore faire la différence ?

Une nouvelle étude, tout juste publiée dans la revue médicale Jama Network Open, fournit certaines des réponses parmi les plus claires disponibles à ce jour. Fondée sur les données issues de l’étude épidémiologique au long cours Framingham Heart Study, menée aux États-Unis, ses conclusions confirment ce que de nombreux cliniciens affirmaient déjà à leurs patients : faire de l’exercice est bénéfique.

Ces travaux apportent aussi un éclairage nouveau sur l’effet potentiellement protecteur que confère la pratique d’une activité physique régulière dès 45 ans, même chez les personnes présentant une certaine prédisposition génétique à la démence. Décryptage.

En quoi cette étude a-t-elle consisté ?

Cette nouvelle recherche s’appuie sur les données de 4 290 membres de la cohorte Framingham Heart Study Offspring. Débutée en 1948, cette étude avait pour objectif d’étudier, sur le long terme, les facteurs de risque cardiovasculaires. À son lancement, les chercheurs ont recruté plus de 5 000 adultes de plus de 30 ans résidant à Framingham, dans le Massachusetts, aux États-Unis.

En 1971, une deuxième génération de participants (plus de 5 000 enfants de la cohorte initiale – devenus adultes – et leurs conjoints) a été recrutée, pour former la cohorte « Offspring » (« descendance », en anglais). La santé de cette génération a été suivie grâce à des examens de santé réguliers, menés tous les quatre à huit ans.

Dans le cadre des travaux publiés dans Jama Network Open, les participants ont auto-déclaré leur activité physique. Il s’agissait de documenter aussi bien certaines activités quotidiennes basiques, telles que le fait de monter des escaliers, que des exercices physiques plus intenses.

Les volontaires ont une première fois répondu au questionnaire durant l’année 1971, puis l’opération a été renouvelée plusieurs décennies durant. Selon l’âge qu’ils avaient au moment de leur première évaluation, les participants ont été répartis en trois catégories :

  • jeunes adultes (26-44 ans) : évalués à la fin des années 1970 ;

  • personnes d’âge mûr (45-64 ans) : évaluées à la fin des années 1980 et dans les années 1990 ;

  • personnes âgées (65 ans et plus) : évaluées à la fin des années 1990 et au début des années 2000.

Afin d’évaluer l’influence de l’activité physique sur le risque de démence, les chercheurs ont observé, au sein de chaque groupe d’âge, le nombre de personnes ayant développé une démence, et à quel âge le diagnostic avait été posé.

Ils ont ensuite comparé les schémas d’activité physique (faible, modérée, élevée) dans chacun des groupes d’âge, afin de déterminer si un lien pouvait être établi entre la quantité d’exercice et la survenue d’une démence.

Les auteurs de l’étude ont également identifié les personnes possédant l’allèle APOE ε4, lequel est connu pour être un facteur génétique de risque pour la maladie d’Alzheimer.

Homme pratiquant le crawl dans une piscine.
Les recherches ont depuis longtemps démontré que l’activité physique peut affûter non seulement notre corps, mais aussi notre esprit.
Jonathan Borba/Unsplash

Qu’ont découvert les scientifiques ?

Au cours de la période de suivi, 13,2 % (567) des 4 290 participants ont développé une démence. Les individus concernés appartenaient principalement au groupe de volontaires dont l’âge était le plus élevé.

Ce taux est relativement élevé au regard d’autres études longitudinales (autrement dit, de long terme) sur la démence ou des niveaux de risque de démence enregistrés en Australie (8,3 % des Australiens de plus de 65 ans sont actuellement atteints de démence, soit environ 1 personne sur 12).

En analysant les données, les chercheurs ont découvert une tendance frappante : les personnes qui déclaraient les niveaux d’activité les plus élevés à l’âge mûr et durant le grand âge avaient 41 à 45 % moins de risque de développer une démence que celles qui rapportaient les niveaux les plus faibles.

Cette association persistait même après prise en compte d’autres facteurs de risque, qu’ils soient démographiques (âge, éducation) ou médicaux (hypertension, diabète).

Il est intéressant de noter que le fait d’être physiquement actif au début de l’âge adulte n’avait aucune influence sur le risque de démence.

L’analyse de l’influence du facteur génétique APOE ε4, facteur de risque connu pour la maladie d’Alzheimer, constitue l’une des avancées majeures de cette étude. Elle a permis de mettre en évidence les points suivants :

  • à l’âge mûr, pratiquer une activité physique plus intense ne réduisait le risque de développer une démence que chez les personnes non porteuses de l’allèle ;

  • à un âge avancé, en revanche, le fait d’avoir une activité physique plus intense réduisait le risque aussi bien chez les porteurs de l’allèle que chez ceux qui ne le possédaient pas.

Autrement dit, pour les personnes génétiquement prédisposées à la démence, rester actives à un âge avancé pourrait continuer à offrir une protection significative.

Quelle est la portée de ces résultats ?

Ces conclusions viennent renforcer ce que les scientifiques savent déjà : l’exercice physique est bon pour le cerveau.

Cette étude se distingue non seulement par la taille importante de son échantillon, mais aussi par la durée exceptionnelle de son suivi ainsi que par le fait d’avoir mené une analyse génétique couvrant différentes périodes de la vie des participants.

Le fait d’avoir révélé que la pratique d’une activité physique à l’âge mûr peut avoir un effet différent selon le risque génétique, tandis que rester actif à un âge avancé profite à presque tout le monde, pourrait être utilisé pour enrichir les messages de santé publique.

Une étude qui présente quelques limites

Dans cette étude, le niveau estimé d’activité physique repose en grande partie sur une auto-déclaration. Il existe donc un risque de biais de rappel (les participants ont tendance à se souvenir de l’événement – ici leur pratique de l’activité physique – différemment de ce qu’il était en réalité, NDT). Par ailleurs, on ignore quels types d’exercice sont les plus bénéfiques.

Le nombre de cas de démence chez les plus jeunes participants étant bas, la portée des conclusions est plus limitée en ce qui concerne le début de l’âge adulte.

La cohorte choisie, constituée de participants qui descendent majoritairement de populations européennes et sont tous issus de la même ville, limite la généralisation des résultats à des populations plus diversifiées.

Ceci est particulièrement important, compte tenu du fait qu’il existe de fortes inégalités, au niveau mondial, face au risque de démence et au diagnostic de cette affection.

Quelle conclusion tirer de cette étude ?

À l’heure actuelle, les connaissances portant sur la démence et ses facteurs de risque restent encore faibles dans les groupes de composition ethnique diversifiée. Dans bon nombre d’endroits, elle est encore souvent perçue comme une « composante normale » du vieillissement.

La conclusion à tirer de cette étude tient, cependant, en deux phrases : bougez davantage, quel que soit votre âge. Les bénéfices que vous en retirerez surpassent clairement les risques.

The Conversation

Joyce Siette bénéficie d’un financement du Conseil national de la santé et de la recherche médicale.

ref. L’activité physique à partir de 45 ans peut réduire le risque de démence, selon une nouvelle étude – https://theconversation.com/lactivite-physique-a-partir-de-45-ans-peut-reduire-le-risque-de-demence-selon-une-nouvelle-etude-270834

New Romance : un genre qui transforme l’édition française… mais qui reste illégitime

Source: The Conversation – in French – By Adeline Florimond-Clerc, Maître de conférences en sciences de l’information et de la communication, Université de Lorraine

Alors que les discours sur la culture annoncent la fin des hiérarchies entre pratiques « savantes » et « populaires », la new romance constitue un contre-exemple massif. Ce genre majoritairement écrit et lu par des femmes est aujourd’hui l’un des segments les plus dynamiques du marché du livre français, tout en restant fortement disqualifié symboliquement. Que nous dit ce paradoxe du fonctionnement du champ littéraire contemporain ?


Depuis les années 1990, de nombreux travaux en sociologie de la culture décrivent un brouillage croissant des frontières entre les genres culturels. La thèse, développée par Pierre Bourdieu, d’une homologie entre hiérarchies culturelles et hiérarchies sociales, serait remise en cause par le développement de nouvelles normes et de nouveaux comportements culturels. L’omnivorisme ou l’éclectisme (soit la capacité à consommer des œuvres populaires comme élitaires)… tout concourrait à affaiblir nettement les lignes de partage entre légitime et populaire, au profit d’une dé-hiérarchisation des œuvres et des pratiques). Les goûts se décloisonneraient, la domination symbolique s’éroderait, et les hiérarchies traditionnelles seraient appelées à disparaître.

Mais la new romance montre que cette narration optimiste n’est pas valable partout. Dans un espace comme la littérature – historiquement très liée au système scolaire –, les distinctions perdurent voire se reforment.

Succès massif, disqualification persistante

Ce n’est pas nouveau. La littérature sentimentale a toujours eu mauvaise presse, comme en témoignent les travaux de Janice Radway et de Bruno Péquignot. Qualifiée de littérature de genre, ou de gare, la romance fait partie de ces littératures qui occupent, au moins depuis le XIXᵉ siècle, une position dominée au sein des hiérarchies littéraires. Elle l’est d’autant plus qu’elle est portée presque exclusivement par des autrices, lue principalement par des femmes. Elle appartient donc très clairement au pôle de grande production du champ littéraire, en opposition au pôle à diffusion restreinte (selon l’expression de Bourdieu), lequel aspire à l’autonomie vis-à-vis des contraintes économiques et à des formes de reconnaissances internes au monde littéraire.

Prisonnier d’un stigmate ancien qui associe le populaire au trivial et le féminin à l’anecdotique, le tout dans une approche condescendante, voire méprisante, le genre sentimental ne s’affranchit pas des mécanismes de hiérarchisation du monde littéraire ni de disqualification symbolique.

Considéré comme sans intérêt, au pire abêtissant voire dangereux, le roman sentimental va néanmoins connaître d’importants succès commerciaux à mesure que les codes de l’amour changent. La new romance est l’exemple le plus caractéristique de ce début du XXIᵉ siècle. Dernière déclinaison en date des romans sentimentaux, les nouvelles romances contemporaines connaissent depuis une dizaine d’années un succès éditorial sans précédent, accompagnées de violentes critiques, notamment dans la presse.

Parce qu’elle est lue par de jeunes, voire très jeunes, lectrices la new romance – et notamment la « dark romance » qui joue sur une forme d’ambiguïté morale mettant en scène des relations d’emprise – est un genre clivant. Le plus remarquable dans le traitement médiatique de la new romance réside dans sa mise en problème et dans les réponses qui y sont apportées.

L’analyse d’un corpus médiatique permet d’identifier la dialectique suivante : en premier lieu une critique de cette littérature par son contenu (par exemple : reproduction de la domination masculine), puis une antithèse s’appuyant sur une réception et une réappropriation des lectrices nuancées (par exemple : émancipation par la lecture), enfin une synthèse qui défend généralement l’accompagnement de la lecture par une tierce personne (par exemple les parents, les professionnels du livre). Le titre de certains articles est en ce sens éclairant :

Un genre illégitime qui transforme tout le champ

Bien qu’ignorée par la presse culturelle, absente des nominations des principaux prix littéraires, la new romance, par son impact économique et les méthodes marketing employées par les maisons d’édition, a pourtant des effets sur l’ensemble du monde littéraire. Tenue à distance des circuits de consécration littéraire traditionnels, la new romance tire sa « valeur littéraire » de son succès bien plus commercial que symbolique. En 2024, 30 des 100 romans les plus vendus en France sont des romans sentimentaux. L’élément le plus frappant n’est donc pas tant l’existence du mépris que les effets structurels de la new romance sur le champ littéraire contemporain. Passons en revue quatre d’entre eux.

Le premier effet concerne les maisons, collections et labels éditoriaux. Encouragées par le succès du genre, des maisons d’édition se sont spécialisées dans le genre new romance, comme Hugo Publishing, Addictives, Chatterley ou encore BMR. Des collections et labels ont été créés, tels que Nox d’Albin Michel, &Moi de JC Lattès, Comet des éditions Larousse.

Si des maisons d’édition prestigieuses n’ouvrent pas de collections consacrées à ce genre, ce sont des filiales issues des mêmes groupes qui publient de la new romance. Certes, Seuil s’est lancé dans l’édition de new romance, mais en créant un label, Verso, marquant la distance du genre par rapport aux autres titres de son catalogue. Tous les groupes éditoriaux tentent de profiter de son succès sans toujours l’afficher directement sur leurs couvertures, il s’agit de se protéger symboliquement tout en captant le marché.

Le deuxième concerne les lieux de vente. Des rayons entiers de livres de new romance ont fait leur apparition en librairie ces dernières années. Plus encore, une dizaine de librairies spécialisées en new romance (et « young adult ») ont vu le jour. À l’image de la plus grande librairie indépendante de France, Gibert, qui a ouvert en novembre 2026 une librairie spécialisée romance en plein cœur du quartier latin à Paris, accentuant d’autant plus la différence avec les autres genres.

Le troisième concerne le travail éditorial effectué sur l’objet livre. Les éditeurs de romance ont été parmi les premiers à investir massivement dans l’esthétique du livre-objet et dans la logique de collection, avec des éditions à jaspage coloré, reliures embossées, couvertures métalliques et formats collector qui deviennent de véritables objets de désir.




À lire aussi :
La new romance, un genre littéraire en ligne devenu phénomène de librairie


Longtemps cantonnées aux mangas et aux beaux livres, ces pratiques se sont depuis étendues à d’autres genres, du thriller aux rééditions de classiques populaires. On peut citer par exemple l’édition collector récemment publiée de Carrie, de Stephen King, clairement pensée sur le modèle des collectors de romance, jusqu’à l’esthétique de la couverture dessinée.

La new romance ne se contente donc pas de suivre les tendances du livre : elle les crée, et ce sont les autres genres qui s’y adaptent.

Enfin, le quatrième concerne la capacité d’hybridation de la new romance. Elle est un genre qui poursuit son extension en se rapprochant d’autres genres littéraires culturellement plus reconnus : la romance policière, la romantasy, la western romance, la romance graphique… La romantasy est un exemple intéressant en ce sens. Elle est présentée moins comme une branche de la romance que comme une extension de la fantasy. Elle bénéficie donc du prestige associé à ce genre et donne lieu à des tentatives de repositionnement éditorial.

La romance s’étend également à d’autres industries culturelles telles que le cinéma. Les adaptations sont nombreuses. Il y a quelques semaines, l’autrice française de new romance C. S. Quill, publiée chez Hugo Publishing (Glénat), annonçait sur les réseaux sociaux l’adaptation de sa saga littéraire Campus Drivers en série télévisée sur Prime Video. En octobre 2025, sort le film Regretting You adapté du livre éponyme de Colleen Hoover, autrice américaine à succès de « new romance », publiée elle aussi chez Hugo Publishing. L’adaptation de The Love Hypothesis, d’Ali Hazelwood, publiée aux éditions Hauteville (groupe Bragelonne) est également annoncée en salles pour l’automne 2026.

Les hiérarchies ne disparaissent pas, elles se déplacent

Ce paradoxe révèle deux phénomènes majeurs : d’abord, la littérature demeure le lieu d’une résistance forte à la déhiérarchisation. En raison de la construction historique et la structuration générale du champ littéraire en France, ces hiérarchies sont plus stabilisées que dans d’autres domaines culturels, par exemple l’écoute de musique, souvent mise en avant par les défenseurs de la thèse de l’éclectisme). C’est particulièrement vrai en France. Aux États-Unis, il existe un rapport plus décomplexé à la littérature dite « populaire » : le New York Times propose toutes les semaines une critique littéraire de romance.

Cette persistance de la disqualification se heurte néanmoins à une illégitimation sociale du snobisme. Dès lors, la critique esthétique ne suffit plus et c’est l’argument du danger qui prend le relais. Ce n’est pas tant pour son style d’écriture ou son absence d’innovation formelle que la romance est critiquée, mais en raison des dommages potentiels qu’elle pourrait causer aux jeunes lectrices, en raison du caractère moralement discutable des récits et des représentations du couple et de la sexualité qu’elle véhicule. La disqualification se rejoue sur le terrain moral. Ce basculement s’accompagne d’un ensemble de discours plus ou moins alarmistes appelant à un meilleur encadrement de la circulation et de la diffusion de la romance, à un accompagnement des lectrices par des adultes, parents comme professionnels du livre.

La new romance montre ainsi que les hiérarchies culturelles ne disparaissent pas : elles se recomposent, se déplacent, se moralisent. Genre illégitime mais structurellement central, elle révèle les impensés d’une institution littéraire qui continue de résister au populaire, au féminin et à l’émotionnel. L’économie du livre dépend désormais largement de publics longtemps invisibilisés. Reste une question ouverte : quand un genre fait vivre tout un secteur, combien de temps peut-on faire semblant de ne pas le voir ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. New Romance : un genre qui transforme l’édition française… mais qui reste illégitime – https://theconversation.com/new-romance-un-genre-qui-transforme-ledition-francaise-mais-qui-reste-illegitime-267170

La transition agroécologique peut-elle vraiment justifier le soutien politique à la méthanisation ?

Source: The Conversation – in French – By Xavier Poux, agriculture, environnement, politiques publiques, Sciences Po

La biométhanisation est souvent présentée comme une solution gagnante à la fois pour la transition énergétique et pour l’agroécologie. Mais est-ce vraiment le cas ? CC BY-NC-SA

La méthanisation agricole se développe en France portée par deux promesses politiques : celle de contribuer à la transition énergétique en produisant du biométhane, d’une part, et celle de participer à la transition agroécologique en faisant évoluer les systèmes agricoles, d’autre part. Mais cette seconde promesse peut-elle vraiment être tenue ?


Le projet en date de programmation pluriannuelle de l’énergie (PPE 3) formule, comme les précédentes, pour la méthanisation un double objectif : promouvoir de concert la transition énergétique et la transition agroécologique.

Pour l’heure, ces promesses servent à justifier une dépense publique d’un milliard d’euros par an pour le rachat du biométhane produit. Sans elle, la filière ne se développerait pas de la même manière, ni quantitativement, ni qualitativement. Les objectifs de production énergétique du projet de PPE sont à la fois très ambitieux (multipliés par quatre entre 2023 et 2030, jusqu’à sept d’ici 2035, selon les scénarios), et annoncés compatibles avec l’agroécologie – voire comme un levier en faveur de son développement.

L’argument d’une convergence entre méthanisation et agroécologie est notamment fondé sur la réduction attendue des pertes d’azote permise par sa meilleure maîtrise et le développement de cultures intermédiaires à vocation énergétique (Cive) s’intercalant entre deux cultures d’hiver (on parle de « Cive d’été », typiquement du maïs) ou juste avant une culture d’été (Cive couvrant le sol en hiver, typiquement un seigle récolté en vert).

Cette allégation agroécologique d’ensemble a pourtant de quoi surprendre, car le développement de la biométahisation a tous les attributs d’une agriculture industrielle.

Face à ces visions contradictoires, nous nous proposons d’évaluer la manière dont cette promesse est remplie. Nous continuons une discussion déjà engagée ici, en adoptant une perspective agroécologique plus large.




À lire aussi :
La méthanisation est-elle vraiment un levier
pour l’agroécologie ?



L’agroécologie, un changement systémique

Revenons d’abord sur le terme « agroécologie », largement repris et transformé dans différents espaces politiques.

Face aux multiples réappropriations, rappelons qu’elle désigne à la fois :

Cette notion a donc une histoire fondée sur des développements scientifiques. Depuis les années 1980, ces derniers insistent sur son caractère systémique. Il ne s’agit pas seulement de promouvoir une agriculture plus vertueuse selon un critère donné, par exemple la seule réalisation d’économies en énergie ou fertilisants.

L’enjeu est de penser l’agroécosystème comme un ensemble intégré, en s’appuyant sur l’analyse et la compréhension de ses propriétés et de ses fonctionnalités pour concevoir des systèmes productifs réellement soutenables des points de vue écologique et social.

Dans les discours qui promeuvent la méthanisation, trois grands éléments sont présentés comme des leviers de transition agroécologique :

  • les économies en fertilisants azotés achetés qui sont permises par l’usage de digestats, coproduits du processus de méthanisation riches en azote ;

  • la diversification des cultures via l’introduction de Cive ;

  • et l’autonomie renforcée des agriculteur pratiquant la méthanisation, sans que cette autonomie soit précisée, nous y reviendrons.

Ces trois points relèvent en effet d’une démarche agroécologique dans leur acception générique. Ils font toutefois ici l’objet d’une requalification qui en altère fondamentalement la signification.

Des économies d’azote en trompe-l’œil

Commençons par les économies d’engrais azotés souvent mises en avant, procédant de l’épandage des digestats. Il faut d’abord considérer que la méthanisation agricole ne crée pas d’azote ex nihilo. Dans les digestats, celui-ci provient très majoritairement en amont des engrais de synthèse, des déjections animales et, marginalement, des légumineuses.

Ces « économies » d’engrais azotés pour fertiliser les cultures en aval du processus de méthanisation relèvent donc d’un transfert d’azote entre une exploitation tierce et l’unité de méthanisation, via la biomasse contenant de l’azote « incorporé ».




À lire aussi :
Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre


Lorsque la source d’azote du digestat est d’origine végétale, cela veut dire qu’on a introduit sur le territoire des cultures spécifiques (les Cive), ce qui signifie une intensification de la production de biomasse puisqu’on produit deux fois plus sur la même surface. Dans ce cas, ce qui est économisé en aval sur le plan économique provient en fait d’une intensification de la production agricole en amont.

Enfin, lorsque la méthanisation est fondée sur la valorisation des déjections animales, la logique est en principe plus propice à une circularité des flux. Pour autant, les contraintes de collecte et de stockage à une échelle suffisante pour alimenter une unité de méthanisation ne sont majoritairement pas compatibles avec des modalités d’élevage agroécologique.

Une diversification sans intérêt écologique

Par ailleurs, la diversification promise via l’introduction des Cive concerne des cultures à rotation courte (seigle, avoine, méteil, maïs).

Pour autant, ces cultures – souvent du maïs – n’ont pas nécessairement d’intérêt écologique fort en elles-mêmes. C’est d’autant moins si elles sont irriguées et fertilisées, comme c’est souvent le cas.

Le risque est que les objectifs de production énergétique affichés ne conduisent à la multiplication et à l’agrandissement des unités de méthanisation, qui vont en retour augmenter la demande de Cive.

Sur ce point, la requalification consiste à passer d’un principe agroécologique de maximisation de la biodiversité et de préservation des services rendus par les écosystèmes, à une simple diversification des cultures intensives.

Une autonomie illusoire

Quant à l’autonomie telle qu’elle est entendue ici, elle découle du complément de revenu par l’agrométhaniseur (voire d’un glissement vers un revenu principal tiré pour les « énergiculteurs ») permis par des tarifs de rachat globalement avantageux. Le raisonnement étant qu’un agrométhaniseur doté d’un revenu plus élevé peut plus facilement mettre en œuvre des pratiques agroécologiques que s’il a le couteau sous la gorge.

Mais le revenu issu de la méthanisation n’induit pas en lui-même l’adoption de systèmes agroécologiques et cet objectif pourrait être mieux atteint par un meilleur ciblage des aides. Le milliard d’euros par an pour le tarif de rachat est à comparer à environ 170 millions d’euros annuels pour l’ensemble des mesures agri-environnementales de la PAC, notoirement sous-dotées.

« L’autonomie » financière tirée de la méthanisation a tout autant de chances de pousser à une maximisation de la production énergétique sous forte contrainte technico-économique pour rembourser les investissements : davantage de maïs irrigué, de déjections concentrées dans des bâtiments. Au risque de renforcer la pression sur les agroécosystèmes et produire des effets opposés à l’autonomie technique et décisionnelle qui est celle de l’agroécologie.

Finalement, l’agrométhaniseur se retrouve dépendant, tout comme l’agriculteur conventionnel, de prestataires techniques et financiers. Son approvisionnement en biomasse devient crucial et induit une pression sur l’ensemble des filières territoriales, qui deviendra critique en cas de rareté les mauvaises années

De nombreux angles morts

La promesse agroécologique de la méthanisation reste toutefois muette sur des points pourtant cruciaux : les paysages, la biodiversité, la sobriété absolue en intrants ; c’est-à-dire, le fait de ne plus dépendre d’intrants azotés de synthèse, à ne pas confondre avec une optimisation de leur usage.

Sur un registre plus sociopolitique, l’autonomie paysanne et décisionnelle des agriculteurs et plus largement, la transformation industrielle des modes de développement auxquels la méthanisation participe, ne sont pas pris en compte.

Pourtant : pas d’agroécologie sans écologie du paysage, sans substitution des intrants de synthèse par des solutions fondées sur la nature, sans végétation semi-naturelle et des animaux extensifs jouant un rôle écologique, sans autonomie financière et technologique des paysans, sans remise en cause des rapports socioécologiques de production.




À lire aussi :
Au nom du paysage ? Éoliennes, méthaniseurs… pourquoi les projets renouvelables divisent


Ce qui est absent de la politique actuelle de développement de la méthanisation est fondamentalement l’approche holistique qui caractérise pleinement l’agroécologie. Cette dernière ne peut se résumer à un catalogue de pratiques mises en avant, mais à une démarche globale articulant l’autonomie décisionnelle à une autonomie technique fondée sur une sobriété matérielle d’ensemble et un respect des cycles biologiques et biogéochimiques à l’échelle territoriale.




À lire aussi :
Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre


Une nécessaire réorientation politique

Est-ce à dire que la méthanisation est incompatible avec l’agroécologie ? En principe, non, et des exemples dans des pays en développement montrent qu’à petite échelle, elle peut pleinement contribuer à un projet agroécologique, lorsqu’elle valorise une fraction réduite de déchets au service d’une véritable autonomie paysanne low-tech.

Mais le passage à l’échelle, tel qu’envisagé en France et porté par le cadre politique d’ensemble, contredit les fondamentaux de l’agroécologie. Ce n’est pas une question de bonnes ou mauvaises pratiques, c’est une question politique de développement d’une filière à grande échelle, qui induit des rapports de production auxquels l’agroécologie, telle qu’elle se déploie historiquement dans les mouvements paysans à travers le monde, veut précisément proposer des alternatives.

S’il doit y avoir une rencontre entre la méthanisation et l’agroécologie, c’est via des projets opportunistes, économes, à petite échelle, qui prennent en compte le fonctionnement de l’ensemble des agroécosystèmes, n’induisant aucune production supplémentaire dédiée et au service d’usages locaux. Faire l’impasse sur la biodiversité, les paysages et la sobriété, c’est hypothéquer l’avenir. Viser beaucoup trop grand, c’est risquer la faillite d’ensemble de l’ensemble de l’agriculture. Continuer la politique du chiffre agrégeant les TWh, c’est sélectionner davantage des exploitations déterritorialisées, qui ne répondent pas aux enjeux socioécologiques auxquels nous devons faire face.

Et à ceux qui considèrent qu’il faudrait alors peut-être sacrifier l’agroécologie à la souveraineté énergétique, nous répondrons qu’il faut commencer par le commencement : la sobriété énergétique, trop souvent marginalisée par les discours de politique de l’offre. La biomasse industrielle est sans doute une chimère à laquelle il est dangereux de s’accrocher, fût-elle autoproclamée « durable ».

The Conversation

Renaud Metereau a reçu des financements de IdEx Université Paris Cité, ANR-18-IDEX- 0001 (Centre des Politiques de la Terre – projet MethaTransferts)

Xavier Poux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La transition agroécologique peut-elle vraiment justifier le soutien politique à la méthanisation ? – https://theconversation.com/la-transition-agroecologique-peut-elle-vraiment-justifier-le-soutien-politique-a-la-methanisation-265344