Paying attention to birdsong while walking in nature can boost wellbeing, my research shows

Source: The Conversation – UK – By Christoph Randler, Professor, Department of Biology, University of Tübingen

Listening to the sounds of birdsong may help to reduce stress. BalanceFormCreative/ Shutterstock

There’s no question that being in nature is good for wellbeing. Research shows that experiencing nature and listening to natural sounds can relax us.

A key reason for these benefits may be because of the appeal of birds and their pleasant songs that we hear when in nature.

Studies show that people feel better in bird-rich environments. Even life satisfaction may be related to the richness of the bird species in an area.

My colleagues and I wanted to better study the relationship between wellbeing and birdsong. We conducted an experiment in which 233 people walked through a park – specifically the University of Tübingen’s botanical garden. The walk took about half an hour.

Participants filled out questionnaires on their psychological wellbeing both before and after their walk. We also measured blood pressure, heart rate and cortisol levels (in their saliva) to get a better understanding of the physiological effects the walk had on wellbeing. Cortisol is considered an important stress hormone that can change within just a few minutes.

In order to get a good understanding of the effect birdsong had on wellbeing, we also hung loudspeakers in the trees that played the songs of rare species of birds – such as the golden oriole, tree pipit, garden warbler or mistle thrush.

To decide which additional bird songs should be played by the loudspeakers, we looked at the results of a previous study we had conducted. In that study, volunteers listened to more than 100 different bird songs and rated them based on how pleasant they found them to be.

We used the bird songs that had been most liked by participants in that experiment. However, to avoid annoying the birds living in the garden, we only chose bird songs that did not disturb the environment. We also mapped all resident species in the area and avoided broadcasting their songs.

Participants were randomly split into five distinct groups. The first and second groups went for a walk through the garden with birdsong being played on loudspeakers. The second group was also instructed to pay attention to birdsong.

The third and fourth groups also walked through the garden, but this time they only heard natural birdsong – we did not have additional speakers playing birdsong in the area. The fourth group was also instructed to pay attention to the natural birdsong.

A middle-aged woman walks through a forest alone, while looking up at the trees.
Those who focused on birdsong reported better mental wellbeing.
edchechine/ Shutterstock

The fifth group was the control group. These participants went for a walk through the garden while wearing noise-cancelling headphones.

Benefits of birdsong

In all groups (even the control group), blood pressure and heart rate dropped – indicating that physiological stress was reduced after the walk. Cortisol levels also fell by an average of nearly 33%.

Self-reported mental wellbeing, as measured by the questionnaires, was also higher after the walks.

The groups who focused their attention on the birdsong saw even greater increases in wellbeing. So while a walk in nature had clear, physiological benefits for reducing stress, paying attention to birdsong further boosted these benefits.

However, the groups who went for a walk with the loudspeakers playing birdsong did not see any greater mental and physiological wellbeing improvements compared to the other groups.

This was a surprise, given previous studies have shown birdsong enriches wellbeing. Bird species diversity has also been shown to further improve restoration and relaxation.

One possible explanation for this finding may be that participants recognised the playback sounds as being fake – whether consciously or unconsciously. Another explanation could be that there might be a threshold – and having a higher number of bird species singing in an area does not improve wellbeing any further.

Appreciating birdsong

Our results show that a walk in nature is beneficial in and of itself – but the sounds of natural birdsong can further boost these wellbeing benefits, especially if you make a concerted effort to pay attention it.

You don’t even need to know a lot about birds to get these benefits, as our study showed. The positive effect was seen in everyone from casual birdwatchers through to bird nerds.

Our study’s results are a good message for everyday life. You don’t need a visit to bird-rich environments to make you happy. It seems more important to focus on the birds that are already there, listen to them and enjoy them.

The results also have implications for park design, showing that the sound of birdsong in general – rather than the number of species living there or how rare they are – is of key importance when it comes to wellbeing.

So even just a half hour walk outside while taking the time to notice birdsong could reduce your stress and improve wellbeing.

The Conversation

Christoph Randler does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Paying attention to birdsong while walking in nature can boost wellbeing, my research shows – https://theconversation.com/paying-attention-to-birdsong-while-walking-in-nature-can-boost-wellbeing-my-research-shows-273165

Hacking the grid: How digital sabotage turns infrastructure into a weapon

Source: The Conversation – USA – By Saman Zonouz, Associate Professor of Cybersecurity and Privacy and Electrical and Computer Engineering, Georgia Institute of Technology

Today’s power grid equipment incorporates internet-connected – and therefore hackable – computers. Joe Raedle/Getty Images

The darkness that swept over the Venezuelan capital in the predawn hours of Jan. 3, 2026, signaled a profound shift in the nature of modern conflict: the convergence of physical and cyber warfare. While U.S. special operations forces carried out the dramatic seizure of Venezuelan President Nicolás Maduro, a far quieter but equally devastating offensive was taking place in the unseen digital networks that help operate Caracas.

The blackout was not the result of bombed transmission towers or severed power lines but rather a precise and invisible manipulation of the industrial control systems that manage the flow of electricity. This synchronization of traditional military action with advanced cyber warfare represents a new chapter in international conflict, one where lines of computer code that manipulate critical infrastructure are among the most potent weapons.

To understand how a nation can turn an adversary’s lights out without firing a shot, you have to look inside the controllers that regulate modern infrastructure. They are the digital brains responsible for opening valves, spinning turbines and routing power.

For decades, controller devices were considered simple and isolated. Grid modernization, however, has transformed them into sophisticated internet-connected computers. As a cybersecurity researcher, I track how advanced cyber forces exploit this modernization by using digital techniques to control the machinery’s physical behavior.

Hijacked machines

My colleagues and I have demonstrated how malware can compromise a controller to create a split reality. The malware intercepts legitimate commands sent by grid operators and replaces them with malicious instructions designed to destabilize the system.

For example, malware could send commands to rapidly open and close circuit breakers, a technique known as flapping. This action can physically damage massive transformers or generators by causing them to overheat or go out of sync with the grid. These actions can cause fires or explosions that take months to repair.

Simultaneously, the malware calculates what the sensor readings should look like if the grid were operating normally and feeds these fabricated values back to the control room. The operators likely see green lights and stable voltage readings on their screens even as transformers are overloading and breakers are tripping in the physical world. This decoupling of the digital image from physical reality leaves defenders blind, unable to diagnose or respond to the failure until it is too late.

people wearing hardhats in front of electrical equipment the size of a small house
Today’s electrical transformers are accessible to hackers.
GAO

Historical examples of this kind of attack include the Stuxnet malware that targeted Iranian nuclear enrichment plants. The malware destroyed centrifuges in 2009 by causing them to spin at dangerous speeds while feeding false “normal” data to operators.

Another example is the Industroyer attack by Russia against Ukraine’s energy sector in 2016. Industroyer malware targeted Ukraine’s power grid, using the grid’s own industrial communication protocols to directly open circuit breakers and cut power to Kyiv.

More recently, the Volt Typhoon attack by China against the United States’ critical infrastructure, exposed in 2023, was a campaign focused on pre-positioning. Unlike traditional sabotage, these hackers infiltrated networks to remain dormant and undetected, gaining the ability to disrupt the United States’ communications and power systems during a future crisis.

To defend against these types of attacks, the U.S. military’s Cyber Command has adopted a “defend forward” strategy, actively hunting for threats in foreign networks before they reach U.S. soil.

Domestically, the Cybersecurity and Infrastructure Security Agency promotes “secure by design” principles, urging manufacturers to eliminate default passwords and utilities to implement “zero trust” architectures that assume networks are already compromised.

Supply chain vulnerability

Nowadays, there is a vulnerability lurking within the supply chain of the controllers themselves. A dissection of firmware from major international vendors reveals a significant reliance on third-party software components to support modern features such as encryption and cloud connectivity.

This modernization comes at a cost. Many of these critical devices run on outdated software libraries, some of which are years past their end-of-life support, meaning they’re no longer supported by the manufacturer. This creates a shared fragility across the industry. A vulnerability in a single, ubiquitous library like OpenSSL – an open-source software toolkit used worldwide by nearly every web server and connected device to encrypt communications – can expose controllers from multiple manufacturers to the same method of attack.

Modern controllers have become web-enabled devices that often host their own administrative websites. These embedded web servers present an often overlooked point of entry for adversaries.

Attackers can infect the web application of a controller, allowing the malware to execute within the web browser of any engineer or operator who logs in to manage the plant. This execution enables malicious code to piggyback on legitimate user sessions, bypassing firewalls and issuing commands to the physical machinery without requiring the device’s password to be cracked.

The scale of this vulnerability is vast, and the potential for damage extends far beyond the power grid, including transportation, manufacturing and water treatment systems.

Using automated scanning tools, my colleagues and I have discovered that the number of industrial controllers exposed to the public internet is significantly higher than industry estimates suggest. Thousands of critical devices, from hospital equipment to substation relays, are visible to anyone with the right search criteria. This exposure provides a rich hunting ground for adversaries to conduct reconnaissance and identify vulnerable targets that serve as entry points into deeper, more protected networks.

The success of recent U.S. cyber operations forces a difficult conversation about the vulnerability of the United States. The uncomfortable truth is that the American power grid relies on the same technologies, protocols and supply chains as the systems compromised abroad.

The U.S. power grid is vulnerable to hackers.

Regulatory misalignment

The domestic risk, however, is compounded by regulatory frameworks that struggle to address the realities of the grid. A comprehensive investigation into the U.S. electric power sector my colleagues and I conducted revealed significant misalignment between compliance with regulations and actual security. Our study found that while regulations establish a baseline, they often foster a checklist mentality. Utilities are burdened with excessive documentation requirements that divert resources away from effective security measures.

This regulatory lag is particularly concerning given the rapid evolution of the technologies that connect customers to the power grid. The widespread adoption of distributed energy resources, such as residential solar inverters, has created a large, decentralized vulnerability that current regulations barely touch.

Analysis supported by the Department of Energy has shown that these devices are often insecure. By compromising a relatively small percentage of these inverters, my colleagues and I found that an attacker could manipulate their power output to cause severe instabilities across the distribution network. Unlike centralized power plants protected by guards and security systems, these devices sit in private homes and businesses.

Accounting for the physical

Defending American infrastructure requires moving beyond the compliance checklists that currently dominate the industry. Defense strategies now require a level of sophistication that matches the attacks. This implies a fundamental shift toward security measures that take into account how attackers could manipulate physical machinery.

The integration of internet-connected computers into power grids, factories and transportation networks is creating a world where the line between code and physical destruction is irrevocably blurred.

Ensuring the resilience of critical infrastructure requires accepting this new reality and building defenses that verify every component, rather than unquestioningly trusting the software and hardware – or the green lights on a control panel.

The Conversation

Saman Zonouz receives funding from the Department of Energy Office of Cybersecurity, Energy Security, and Emergency Response (DOE CESER) and the National Science Foundation (NSF).

ref. Hacking the grid: How digital sabotage turns infrastructure into a weapon – https://theconversation.com/hacking-the-grid-how-digital-sabotage-turns-infrastructure-into-a-weapon-272874

‘Expertise’ shouldn’t be a bad word – expert consensus guides science and society

Source: The Conversation – USA – By Micah Altman, Research Scientist, MIT Libraries, Massachusetts Institute of Technology (MIT)

Training and experience are the foundation for a group of experts to provide solid guidance. Tashi-Delek/E+ via Getty Images

A growing distrust of expertise is reshaping the terrain of science in the United States.

Since the pandemic, the partisan divide over science has widened dramatically. While 77% of Americans have at least a fair amount of confidence that scientists act in the best interests of the public, that breaks down to 90% of Democrats and 65% of Republicans.

If people think scientists are trying to impose their political beliefs rather than expressing honest scientific judgments in the pursuit of truth, public trust in expert consensus will continue to erode.

With recent events, such as Robert F. Kennedy Jr. replacing the expert vaccine panel at the Department of Health and Human Services, and the Trump administration threatening to withdraw research funding from universities that don’t follow its ideological dictates, the political divide in public perception may grow even deeper.

As social scientists who study the role of science in society, we are deeply concerned about the decline of public trust in expertise, which is often fueled by politicians who manipulate people’s suspicions about experts. Skepticism is sometimes justified, of course. But a system based on expertise is the best one modern democracies have come up with to offer guidance on the various complex issues they face.

younger man smiles putting on a short white doctor's coat with two older men behind
Education and training within accredited programs help people gain expertise.
Anthony Souffle/Star Tribune via Getty Images

Who is an expert?

Before you can place your trust in a community of experts, you need a way to determine who counts as an expert. Modern societies usually do this through a sequence of training within accredited schools and universities – institutions whose reputations depend on their ability to train reliable and trustworthy experts.

Unlike the ancient alchemists’ guilds or modern elites, science is not secret, nor gated by family descent or social ties. Today anyone is permitted to become a scientific expert by attaining academic degrees and certifications and establishing a public track record of published research, teaching and contributions to one’s field.

The government also plays a critical role by requiring doctors or engineers to hold certain degrees or by granting universities formal quality certifications, such as accreditation. As an individual, you can’t evaluate the trustworthiness of every person claiming to have expertise – whether a heart surgeon or an electrician. The governmental license carried by these professionals makes that unnecessary.

In any field of knowledge, there is a web of legitimacy, knotted together by visible signals of trust, such as degrees, publications, affiliations and accreditations. Expertise is a team sport.

What is expert consensus?

The most reliable guidance is based on a rigorous group decision-making process, in which people with diverse training and experience contribute their expertise to a dialogue aimed at reaching consensus. The scientific approach to consensus is transparent and deliberate: Scientific consensus processes – such as the National Academies consensus study process, or a PRISMA review – are systematic in incorporating the credible evidence that is available and synthesizing different expert judgments.

The system, honed over decades, is based on the theory that better decisions can be achieved by systematically aggregating many independent opinions – if the group is well trained, draws from a common body of evidence, relies on a common understanding of research practices, and each of its members are able to independently weigh the evidence.

Such communities of experts arise in many settings, from engineers recommending building codes to epidemiologists proposing policies to contain a viral epidemic.

An expert community doesn’t need everyone to be right – or even to agree – in every case for the process to generate useful results. As long as each person is usually right and the community deliberates systematically on the basis of reason and evidence, the resulting consensus will be the best that can be achieved within the limits of current knowledge.

In short, expert consensus requires trained experts, common evidence and systematic deliberation.

Professional consensus vs. individual opinion

Expert consensus doesn’t mean that experts agree on everything, or that everyone must agree with the experts. In a democracy, expert advice is valuable, but it’s not the last word.

The U.S. Bill of Rights enshrines the idea that freedom of speech is fundamental to good government and to leading good lives. But there’s a distinction between speaking one’s mind and speaking from authority. Experts have a right to express their personal opinions and also a duty to exercise care when speaking in areas of their expertise.

This distinction is at issue in the Chiles vs Salazar case before the Supreme Court. It centers on a Colorado state law that prohibits so-called “conversion therapy” for gay or trans children.

Does doing so violate the free speech rights of therapists? It’s not illegal to believe trans children can be talked out of being trans, it’s just illegal to pursue that practice as a licensed professional, because medical experts have reached a consensus that conversion therapy is both useless and harmful.

Expert consensus is necessary to make sound decisions based on science and evidence, but that doesn’t mean experts must abstain from politics or refrain from expressing dissenting opinions. In fact, political restrictions on scientific debate weaken science, as seen in repressive societies.

people seated around a meeting-room table seen through a glass wall
Experts can disagree in good faith – and that doesn’t mean the system doesn’t work.
FangXiaNuo/E+ via Getty Images

What does expert consensus provide?

In our fractious political climate, people sometimes think divergent expert opinions mean that consensus does not exist, or no experts can be trusted. Some people say, “Do your own research,” which often leads to rejecting consensus and falling victim to conspiracies and disinformation.

In practice, consensus is compatible with substantial disagreement. In many fields, scientific consensus deals with broad patterns rather than individual cases. For example, medical experts may agree on the nature of a specific condition, and the average efficacy of a given treatment, yet make different predictions about the benefits for a specific patient.

Society faces pressing questions about the behavior of complex and uncertain systems: How much is climate likely to change if CO₂ emissions continue at the current rate – and what ecological changes should we expect? What accounts for changing cancer rates – and what are the most promising paths to develop a broad “cure”? Are AIs developing intelligence and self-awareness – and how can they be designed to be behave safely? What social institutions are essential for human flourishing – and how can they be preserved?

It’s the fundamental role of democratic government to determine which goals we as a society pursue and how to balance competing values. And when we face high-stakes issues involving complex systems and uncertain approaches, scientific expert consensus can act as an honest broker to provide a menu of possible approaches and predictions for each one’s likely consequences.

The Conversation

Micah Altman received research funding from the National Science Foundation and the Andrew W Mellon Foundation to conduct research related to the science of science, and related to open science.

Philip N. Cohen does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. ‘Expertise’ shouldn’t be a bad word – expert consensus guides science and society – https://theconversation.com/expertise-shouldnt-be-a-bad-word-expert-consensus-guides-science-and-society-271467

Why the establishment of a national school for civil servants matters

Source: The Conversation – UK – By Matthew Flinders, Founding Director of the Sir Bernard Crick Centre for the Public Understanding of Politics, University of Sheffield

Public administration has never been the glitziest or most immediately attractive discipline to study. With this in mind, the government’s announcement that it intends to establish a new National School of Government and Public Services (NSGPS) – in-house training for civil servants – is easily overlooked as little more than administrative tinkering in a world beset by uncertainty and turbulence.

And yet to see this announcement as little more than peripheral politics would be wrong: it matters. Since the previous National School of Government was abolished in 2012 (and the Civil Service College abolished in 1995), the UK has struggled to ensure that its public service professional development and support structures are fit for the future.

This is necessary if the UK is to build an inclusive economy, deliver its industrial strategy, deal with its “productivity puzzle”, and manage those issues that now sit within the UK’s National Risk Register (such as the threat from extreme weather events). More generally, if it is to escape the dominant “broken Britain” doom-loop narrative, then it needs to radically rethink how it supports politicians and officials across different governments and at all levels of the UK to govern effectively. This is why the creation of a NSGPS matters.

The slight concern is the UK government’s plan to move quickly. A promise to “move fast and fix things” – as made in chief secretary to the prime minister Darren Jones’ speech introducing the measure – is only a good approach once you are clear what actually needs to be put in place to fix the problem. In some ways the creation of a new NSGPS is too important to rush, and a more moderated design and delivery plan is possibly needed.

Five questions could help take this discussion forward.

1. What does success look like?

The creation of an internationally recognised centre of excellence for training, supporting and nurturing politicians and public servants across the UK in an inclusive and positive manner that is responsive to changes in context, society and technology.

Business meeting top down view
It’s important to learn from past successes.
Summit Art Creations/Shutterstock

Critically, it should offer a capacity to identify and learn from successful public policies across the UK, and from different countries in the world. As Pat McFadden argued when he was chancellor of the Duchy of Lancaster in December 2024, public services needs to get better at learning from “things that have gone right”.

2. What does it need?

Stability. If the NSGPS is to flourish and thrive then it cannot be established based on short-term funding guarantees. Ideally it needs an endowment-based model of funding which is managed by an independent trust to facilitate innovation and flexibility. The churn and change that has defined reform in this area cannot continue. It’s a total waste of money.

3. What structure might it adopt?

A flexible one. Not a large country house but a hub-and-spoke model where different providers (universities, consultancies, professional associations) provide a patchwork of services which range from one-to-one mentorship and support right through to action-based learning opportunities and crucible-type initiatives that bring people from different specialisms together.

The Australian and New Zealand School of Government can provide information and inspiration but a bold and ambitious approach in the UK might look to go even further, especially as lots of relevant investments have already been funded.

4. What’s the USP?

Simple – the NSGPS must facilitate mobility. That is, the mobility of people, knowledge and talent across traditional professional, organisation, geographical and sectoral boundaries.

The “public services” dimension of the NSGPS signals a massive opportunity to connect and catalyse with leadership support structures in many sectors (local government, NHS, regional mayors). It cannot be focused on the civil service and must deliver policy learning by building relationships.

5. Where’s the pinch?

Culture. Any minister who is announcing a bold new training initiative for the civil service is almost bound to concede that they will work with the civil service to change the system. However, this creates an obvious risk in the sense that continuity may end up defeating the need for change. Social scientists have for some time recognised the disruptive value of “cultural strangers” – radical new thinking – and a NSGPS must somehow inject a degree of criticality and challenge.

The minister’s announcement that the NSGPS would be “a new centre for world class learning and development within the Cabinet Office” arguably jarred with the broader emphasis on innovation, connectivity and change. Where is the evidence from previous initiatives that the Cabinet Office possesses the capacity to facilitate the mobility of people, ideas and knowledge?

Despite these hurdles, thought, the government’s commitment to establish a new NSGPS matters because dangerous populist narratives are based on claims of governing incompetence. Public trust in political institutions and political processes are at worrying low levels.

Investing in the professional support systems that will help enable politicians and public servants at all levels of government to deliver on their commitments is long overdue. It provides an opportunity to focus not on specific issues or problems, but on systemic improvement and systems leadership based on the realities of working in a quasi-federal, multi-level governance system.

The Conversation

Rebecca Riley receives funding from ESRC as Principle Investigator on the Local Policy Innovation Partnership Strategic Hub . She is affiliated with the Labour Party.

Ian C Elliott and Matthew Flinders do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Why the establishment of a national school for civil servants matters – https://theconversation.com/why-the-establishment-of-a-national-school-for-civil-servants-matters-273938

Trump at Davos marks the start of a new era in world affairs

Source: The Conversation – UK – By Robert Dover, Professor of Intelligence and National Security & Dean of Faculty, University of Hull

Donald Trump’s concern about the strategic positioning of Greenland is rational. But the way the US president has approached the issue is not – and could still rupture Nato and cause enduring harm to North Atlantic political and economic relations. The question for those attending the World Economic Forum in Davos all week has been how to respond to Trump’s ambition for the US to own Greenland by hook or by crook.

His speech on January 21 – which appeared to concede that the US will not take Greenland by force – and his subsequent claim of having negotiated what he referred to as a “framework agreement” with the Nato secretary-general, Mark Rutte, have at least given the assembled heads of state something to work with.

But America’s allies are faced with a series of options. They could try to wait out the 1,093 days left in Trump’s term in the hope that nothing drastic happens. They could appease Trump by conceding to some of his demands. Or alternatively they could activate the economic “bazooka” threatened by the French president Emmanuel Macron – although this is now less likely due to Trump’s decision to row back back on his threat to impose additional sanctions on countries that opposed his Greenland plans.

Finally, they could try to actively resist US aggression towards Greenland. Although, thankfully, Trump appears to have backtracked – for now – on his threat to use force.

A key strategic location

The US president’s Davos speech pitched his interest in Greenland in strategic terms. The Pituffik space base (formerly Thule air base) is a prime location to monitor Russian and Chinese aerospace and maritime activities as well as being an early warning base for missile protection.
This is increasingly important, given Russian military activity and stated claims to the polar region and China’s reference to the Arctic in its “Polar Silk Road” strategy.

In economic terms, Greenland’s melting ice has revealed the world’s eighth-largest deposits of rare earth elements and an estimated 31 billion barrels of oil. These are important to the US, which is seeking to reduce its dependency on China and to exert its own mineral and energy dominance. In the Davos speech, Trump emphasised US energy requirements while claiming not to covet Greenland’s mineral wealth.

Melting ice has similarly opened up Arctic shipping routes. This has made Greenland a strategic location both for influencing global trade and for projecting military power.

Trump has framed his desire to acquire Greenland in terms of his ambition to provide security for the west as a whole. Owning Greenland, he told the WEF, would allow him to build the “greatest Golden Dome ever built” – a missile defence shield which he claims would provide security for the whole world.

His speech revealingly framed his intentions towards Greenland in existential terms which also had echoes of his real estate origins. He said: “And all we’re asking for is to get Greenland, including right, title and ownership, because you need the ownership to defend it. You can’t defend it on a lease.”

This, of course, is wrong. Denmark has made it clear that the US is welcome to grow its military presence on the island, pointing out that during the cold war it had tens of thousands of troops stationed there. Equally the US would be welcome to invest in mineral exploration and investment with Denmark’s blessing. And
the fact is that Denmark cannot sell Greenland without the consent of the 57,000 Greenlandic people.

But in turning the whole thing into a raw power struggle, the situation has become akin to the 19th-century “great game” played out by the colonial powers.

Stephen Miller, a senior Trump advisor throughout his time in office, said recently that the world has always been ruled by “strength” and “power”, not the “niceties of international law”. Trump has gone further, telling the New York Times in a two-hour interview published on January 11, “I don’t need international law”, and that he is only constrained by: “My own morality. My own mind. It’s the only thing that can stop me, and that’s very good.”

An American world?

If it comes down to it, Europe will find it very hard to resist America. Europe is almost inextricably intertwined – economically and militarily – with the US. A separation would have severe consequences, with military and intelligence capabilities compromised and access to modern computing and finance seriously curtailed. For the UK outside of the EU, since Brexit, the position is – if anything – even worse.

There is a dawning realisation that the US might be Europe’s adversary, not ally. The Belgian prime minister, Bart De Wever, commented in a panel discussion at Davos that a “number of red lines are being crossed” by Trump and Europe now appeared to be facing the loss of its self-respect: “Being a happy vassal is one thing, being a miserable slave is something else. If you back down now you’re going to lose your dignity.”

Much is being made of the contrast between the US president’s speech on January 21 and the speech delivered by the Canadian prime minister, Mark Carney, the day before. Carney’s speech was hailed by many as being epoch-defining, in the words of one journalist on a par with Churchill’s Iron Curtain speech.




Read more:
One venue, two speeches – how Mark Carney left Donald Trump in the dust in Davos


Carney talked of “a rupture in the world order, the end of a pleasant fiction and the beginning of a harsh reality”. The rules-based order, Carney said, was “fading” and that the multilateral institutions on which the world depended were under serious threat from great power dominance. It was now up to the rest of the world to stop pretending and face up to the new harsh reality.

It is in this context that America’s Nato partners need to decide whether Trump should be appeased or resisted. Once we know more about his mooted “framework” for the future of Greenland, that choice should become clearer.

The Conversation

Robert Dover does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Trump at Davos marks the start of a new era in world affairs – https://theconversation.com/trump-at-davos-marks-the-start-of-a-new-era-in-world-affairs-274007

Comment dépolluer les friches industrielles face à la défiance des habitants ?

Source: The Conversation – in French – By Cecile Bazart, Maîtresse de conférences, Université de Montpellier

Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.


Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.

Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).

Rue des vignerons à Vincennes (Val-de-Marne), l’usine Pathé fabrique en 1902 des supports et émulsions chimiques pour le cinéma et la photographie. Elle deviendra plus tard l’usine Kodak.

Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.

Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.

Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.

Dépolluer : une étape indispensable mais complexe

Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.

Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.

À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.

Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.




À lire aussi :
En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes


Le stigmate, angle mort de la reconversion

Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.

C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.

Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.

Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.

Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.




À lire aussi :
Comment redonner une nouvelle vie aux friches industrielles en ville ?


Un décalage entre gestion technique et perceptions

Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.

Plusieurs mécanismes expliquent ce décalage.

  • Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.

  • La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.

  • Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.

Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.

Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.

Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.




À lire aussi :
Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite


The Conversation

L’enquête détaillée dans l’article a été financée par l’Université de Montpellier.

Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l’ADEME et la Région Pays de la Loire (2014-2017).

ref. Comment dépolluer les friches industrielles face à la défiance des habitants ? – https://theconversation.com/comment-depolluer-les-friches-industrielles-face-a-la-defiance-des-habitants-273723

En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes

Source: The Conversation – in French – By Sonia Henry, Chercheuse, Université de Lorraine

Le tabouret bleu (_Noccaea caerulescens_) est une plante capable d’extraire du zinc, du cadmium et du nickel des sols. Madeleine Dugois, CC BY-NC-SA

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.


À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.

Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.

Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.

De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.

C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).

Les vertus de la phytoremédiation

Commençons par expliquer ce que l’on entend par « phytoremédiation ».

Mécanismes d’absorption des métaux lourds par les plantes grâce à la phytoremédiation.
Bieby Voijant Tangahu et al, CC BY

Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).

Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.

Le miscanthus géant aide la dégradation de certains hydrocarbures dans les sols.
geograph.org.uk, CC BY-NC-SA

Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.

Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.

L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles




À lire aussi :
La phytoremédiation : quand les plantes dépolluent les sols


La friche d’Uckange, laboratoire à ciel ouvert

Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.

Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.

L’usine d’Uckange et son quatrième haut fourneau sont désormais un monument historique qui peut être visité par le grand public.
Benjism89, CC BY-NC-SA

Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.

Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.

Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.

Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.




À lire aussi :
Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt


Associer plantes d’extraction et de dégradation

Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).

L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.

Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :

  • la diminution des teneurs en contaminants,

  • l’amélioration de la qualité agronomique,

  • et l’augmentation de la biodiversité microbienne.

La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.

Les premiers résultats seront publiés dans les prochains mois.

Bénéfices collatéraux de la phytoremédiation

Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.

Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.

Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.

En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.

The Conversation

Sonia Henry a reçu des financements de la Communauté d’Agglomération du Val de Fensch et de l’Institut Carnot Icéel

ref. En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes – https://theconversation.com/en-moselle-on-depollue-les-sols-dune-friche-siderurgique-grace-aux-plantes-235345

L’eau invisible des chaînes de valeur mondialisées

Source: The Conversation – in French – By Simon Porcher, Professeur, Université Paris Dauphine – PSL

C’est le maillon caché de la mondialisation : quand on échange des biens et des services, on transfère aussi de l’eau douce d’un pays à l’autre. Pourtant, la gestion de l’eau reste locale, quand sa consommation est devenue mondiale. Des solutions émergent.


L’eau douce, pourtant indispensable à toute activité humaine, reste souvent absente des débats sur la mondialisation, comme si sa disponibilité allait de soi. Pourtant, sans eau, il n’y a ni alimentation, ni industrie, ni énergie, ni numérique. Nos vies, même dématérialisées, reposent sur l’utilisation de l’eau, qui refroidit, nettoie, chauffe. L’eau est l’intrant invisible de notre économie. Un chiffre résume son importance : 88 % de l’eau prélevée dans le monde sert à produire des biens ou des services.

L’eau circule déjà d’un continent à l’autre, non pas dans des canalisations, mais à travers les chaînes de valeur mondialisées, dans les produits alimentaires ou les habits que nous consommons et dans toutes nos infrastructures. Cette « eau virtuelle » irrigue la mondialisation, mais reste largement ignorée des décisions économiques et politiques. Résultat : l’eau est mobilisée comme si elle était une ressource infinie, au service d’une économie qui privilégie la performance immédiate au détriment des écosystèmes et des populations.

Les flux d’eau cachés dans notre assiette

Le concept d’eau virtuelle, inventé au début des années 1990 par le géographe Tony Allan, permet de mesurer l’eau incorporée dans les produits que nous consommons. Par exemple, il faut 15 000 litres d’eau pour produire un kilogramme de bœuf, 4 000 litres pour un kilo de pistaches et 1 000 litres pour un kilo de maïs.

Chaque petit déjeuner devient un voyage autour du monde : le café du matin vient de Colombie ou du Brésil, arrosé par les pluies tropicales ; le carré de chocolat noir qui l’accompagne est fabriqué à partir de cacao équatorien ; l’avocat du Pérou vient d’un champ irrigué. Seuls le blé et le sel de la baguette de pain, et la poule qui a pondu l’œuf viennent de France. Nos choix alimentaires connectent les bassins d’eau du monde entier, souvent à notre insu.




À lire aussi :
L’eau, la grande oubliée du label bio ?


Afin de mesurer le volume ainsi utilisé indirectement, Arjen Hoekstra a élaboré en 2002 le concept d’empreinte eau. Celle-ci correspond au volume total d’eau utilisé pour produire les biens et les services que nous consommons. Elle peut être calculée pour un pays ou pour un consommateur. Par exemple, l’empreinte eau d’un Français est supérieure à 4 000 litres par jour. 90 % de cette quantité proviennent de notre alimentation.

L’eau dans les chaînes de valeur mondialisées

Cette approche par l’assiette, et plus généralement par le produit final, révèle les transferts massifs d’eau entre pays, souvent invisibles dans les échanges commerciaux. L’industrie textile illustre parfaitement cette réalité. De la culture du coton à la teinture et au lavage, chaque vêtement consomme des milliers de litres d’eau. Les fleuves Amou-Daria et Syr-Daria, qui prennent leur source au Tadjikistan et au Kirghizistan, ont été détournés par les pays en aval pour irriguer du coton. Cette irrigation massive a réduit leur flux au point d’assécher la mer d’Aral. Là-bas, la baisse de la quantité d’eau entraîne des problèmes sanitaires et de dégradation des conditions d’existence. Les procédés industriels génèrent des rejets polluants, mal traités, contaminant rivières, sols et nappes. Les pays producteurs de textile paient le prix écologique de nos vêtements à bas coût.

Cet exemple illustre un problème plus large. La mondialisation des flux d’eau virtuelle révèle un vide institutionnel majeur. L’économie est globale, mais la gestion de l’eau reste locale. Cette disjonction favorise le dumping hydrique et environnemental. Les règles du commerce mondial invisibilisent les impacts réels sur les populations et les écosystèmes. Les chaînes de production éclatées permettent aux entreprises de profiter des ressources des pays fragiles, sans compensations ni reconnaissance des impacts sociaux et écologiques.

Des inégalités accentuées

L’exploitation intensive de l’eau n’est pas seulement un problème environnemental ; c’est un enjeu social et politique. Les populations des pays producteurs subissent la raréfaction de l’eau, la pollution des nappes et les risques sanitaires. Les inégalités s’accentuent : ce sont les plus vulnérables qui supportent les coûts, et les plus riches qui récoltent les bénéfices.

Au-delà de l’opposition entre le Nord et le Sud, c’est la domination des logiques de marché qui pose problème. Les multinationales choisissent leurs sites de production selon le coût de l’eau et la faiblesse des normes, renforçant un modèle où la ressource devient une variable d’ajustement économique plutôt qu’un bien commun. Les États, souvent dépassés, adoptent ces normes pour rester compétitifs, laissant peu de place à des alternatives locales ou écologiques.

Vers une reconnaissance de l’eau comme une ressource commune globale

La gouvernance de l’eau demeure aujourd’hui largement fragmentée à l’échelle mondiale. Contrairement au changement climatique, qui bénéficie d’un cadre multilatéral de référence malgré ses limites, l’eau n’est pas reconnue comme une ressource commune globale dotée de règles et de normes contraignantes pour les acteurs économiques. Cette situation limite la capacité de régulation des usages et des impacts. En l’absence d’un étiquetage systématique de l’empreinte eau des produits, la consommation d’eau liée aux biens et aux services échangés reste en grande partie invisibles. Alors même que l’empreinte eau d’un produit peut varier fortement selon les systèmes de production et les intrants mobilisés, cette invisibilité contribue à une faible responsabilisation de l’ensemble des acteurs. Dans un contexte de dépassement des limites planétaires relatives à l’eau, la disponibilité et la transparence des informations relatives à l’empreinte eau des produits et des services constituent un enjeu central de gouvernance.

Par ailleurs, les usages de l’eau reflètent de fortes inégalités géographiques : les pays industrialisés concentrent une part importante des consommations d’eau indirectes à travers les importations de produits agricoles et industriels, tandis que les pressions hydriques se manifestent principalement dans les pays producteurs. Dans ce contexte, les politiques commerciales et de coopération internationale sont des leviers potentiels de régulation indirecte des impacts hydriques. La jurisprudence de l’Organisation Mondiale du Commerce a reconnu la possibilité pour un État de restreindre l’accès à son marché sur la base de procédés et de méthodes de production. Demain peut-être prendra-t-on en compte les impacts environnementaux localisés, tels que le stress hydrique, dans la régulation des échanges internationaux.

France 24 – 2024.

Internaliser la contrainte ?

Du côté des entreprises, la prise en compte des risques hydriques progresse mais demeure hétérogène. Elle repose largement sur des démarches volontaires, souvent intégrées à des stratégies de responsabilité sociale sans caractère contraignant. Mais certaines multinationales commencent toutefois à internaliser ces enjeux. Michelin a par exemple mis en place un prix fictif de l’eau en interne pour s’inciter à investir dans des systèmes d’économie et de réutilisation de l’eau. Dans les usines de Gravanches et de Troyes, l’amélioration des processus de refroidissement devrait diminuer les prélèvements de plus de 60 %.

Néanmoins, ces initiatives restent principalement concentrées sur les sites de production directs, alors que l’essentiel des consommations d’eau associées aux produits se situe en amont, le long des chaînes de valeur, où se concentre également une part importante des risques hydriques. L’analyse de l’empreinte eau sur l’ensemble des chaînes d’approvisionnement apparaît dès lors comme un outil central pour identifier et gérer les risques hydriques liés à leurs investissements.

L’eau n’est pas seulement un enjeu environnemental, c’est un facteur structurant de la production économique, du commerce international et de la souveraineté. Le décalage entre la nature localisée des ressources hydriques et l’organisation mondialisée des chaînes de valeur constitue l’un des défis majeurs de la gouvernance contemporaine de l’eau.


Cet article fait partie du dossier « La gestion à l’épreuve du réel nbsp;» par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.

The Conversation

Simon Porcher co-dirige l’Institut d’économie de l’eau, soutenu par des mécènes. Ceux-ci n’ont joué aucun rôle dans le choix de l’angle, la rédaction ou les conclusions ; cette tribune n’engage que son auteur.

ref. L’eau invisible des chaînes de valeur mondialisées – https://theconversation.com/leau-invisible-des-chaines-de-valeur-mondialisees-273627

The pandemic’s hidden toll: millions of chronic conditions left undiagnosed

Source: The Conversation – UK – By Mark Russell, NIHR Advanced Fellow, Rheumatology and Epidemiology, King’s College London

ITS/Shutterstock.com

When COVID hit, healthcare systems around the world were turned upside down. Hospitals cleared beds, routine appointments were cancelled and people were told to stay at home unless it was urgent. In England, visits to family doctors and hospital admissions for non-COVID reasons fell by a third in the early months of the pandemic. Medical staff were redeployed, routine clinics were cancelled and diagnostic tests were postponed.

Against this backdrop, the number of people newly diagnosed with long-term health conditions fell sharply, as our new study, published in the BMJ, has found. My colleagues and I used anonymised health data for nearly 30 million people in England to evaluate what happened to new diagnoses across a wide range of chronic diseases.

The drop in diagnoses during the early pandemic was most pronounced for conditions that usually rely on routine tests or specialist review for diagnosis. New diagnoses of asthma fell by over 30% in the first year of the pandemic, while diagnoses of chronic obstructive pulmonary disease (COPD) dropped by more than half. Both conditions depend on breathing tests that were widely disrupted during the pandemic, causing large backlogs in testing.

Similarly affected were skin conditions such as psoriasis and atopic dermatitis. While some people may have delayed seeking medical attention for these conditions during a time of unprecedented disruption, others will have been affected by delays in referral for specialist review and diagnosis.

For many conditions, delays in diagnosis matter. Osteoporosis is a common condition in which bone thinning can lead to serious fractures. There are highly effective drugs that can prevent fractures from osteoporosis, but they are usually only prescribed after the condition has been diagnosed.

New diagnoses of osteoporosis fell by a third early in the pandemic and did not return to expected levels for almost three years. As a result, more than 50,000 fewer people than expected were diagnosed with osteoporosis in England between March 2020 and November 2024.

Patterns of recovery

As the immediate disruption during the early pandemic eased, diagnosis rates for many conditions slowly recovered. The differences in recovery patterns across different diseases have been striking, however. Two conditions stand out: depression and chronic kidney disease.

New diagnoses of depression fell by nearly 30% in the first year of the pandemic. Rates then partially recovered, but have dropped again considerably since 2022. This does not necessarily mean that fewer people are experiencing symptoms of depression. A doubling in the number of disability claims for mental health conditions in England between 2020 and 2024 suggests otherwise.

Several factors could help explain this disconnect. Continuing pressure on healthcare services may mean that people are waiting longer for formal diagnoses.

People may also be accessing healthcare services differently. In 2022, guidelines for depression management in England were updated to recommend talking therapies (such as cognitive behavioural therapy) as an initial treatment for mild depression, rather than antidepressants.

In England, people can refer themselves directly for talking therapy without needing to see a doctor first. As a result, some people receiving support for depression symptoms may never receive a formal diagnosis in their medical records, giving the impression that diagnosis rates are falling.

Changes in disease classification may also be playing a role. While depression diagnoses have declined, new diagnoses of attention deficit hyperactivity disorder (ADHD) and autism spectrum disorder have risen sharply in England. This may reflect a shift in how overlapping symptoms are being interpreted and labelled, rather than sudden changes in how common they are.

Chronic kidney disease shows a very different pattern. Diagnosis rates have doubled since 2022, making it one of the few conditions in the study to have increased above pre-pandemic levels. There are several different ways of interpreting this finding.

The recent increase in diagnoses might result from improved detection of undiagnosed kidney disease. Recommendations in England were updated in 2021, recommending routine testing for kidney disease in people at higher risk, such as those with diabetes or high blood pressure.

Importantly, new treatments for chronic kidney disease mean that earlier detection can improve outcomes for patients.

Another possibility is that the pandemic itself has contributed to an increase in chronic kidney disease, directly or indirectly. COVID infection has been linked to lasting reductions in kidney function in some people. Delayed diagnosis and treatment of other conditions, including diabetes, may also have had knock-on effects on kidney-related complications from these diseases.

One of the most important messages from the study is that it is now possible to detect changes in disease patterns far earlier and more comprehensively than was previously imaginable. Until recently, data often became available years after events had already unfolded. By the time patterns were recognised, opportunities to respond had often passed.

Secure, anonymised analysis of medical records allows researchers to track diagnoses and treatments in near real time, revealing the effects of disruptions, recoveries, and new guidelines as they happen. While the findings highlight ongoing challenges for healthcare, they also show that timely data can help guide more effective responses.

And so, while many of the findings from this study are sobering at a time when healthcare systems remain under enormous strain, they also point to a new opportunity. The pandemic may have disrupted care, but it has also driven innovations that have revealed patterns that would once have taken years to detect.

The Conversation

Mark Russell receives research funding from the National Institute for Health and Care Research (NIHR).

ref. The pandemic’s hidden toll: millions of chronic conditions left undiagnosed – https://theconversation.com/the-pandemics-hidden-toll-millions-of-chronic-conditions-left-undiagnosed-273418

En Afrique de l’Ouest, deux modèles de souveraineté face à face

Source: The Conversation – in French – By Christian Abadioko Sambou, Dr en Sciences Politiques, spécialiste en paix & sécurité, Université Numérique Cheikh Hamidou Kane

Depuis les luttes d’indépendance, la souveraineté occupe une place centrale dans les débats politiques africains. Elle renvoie à la conquête de l’autonomie, la quête de légitimité et la capacité des États à définir librement leur destin. Cette quête est continue et en lien profond avec l’histoire coloniale des Etats ouest-africains.

L’émergence de l’Alliance des États du Sahel (AES) – Mali, Burkina Faso et Niger– en septembre 2023, a ravivé ces débats ? plaçant au coeur des discussions les notions de souveraineté, de panafricanisme, de démocratie, alimentant les discussions à travers les médias classiques et sociaux. La souveraineté est ainsi devenue un marqueur idéologique structurant, cristallisant des oppositions entre des « pro-0ccident » vs « pro-bloc sino-russe ».

Cette recomposition se manifeste à travers deux dynamiques distinctes: d’un côté, l’AES qui prône une souveraineté de rupture, articulée autour de la sécurité, de la dignité nationale et du rejet des tutelles extérieures ; de l’autre, des démocraties consolidées comme le Sénégal, le Cap-Vert, le Bénin et le Ghana, qui défendent une posture fondée sur la légitimité électorale, la coopération régionale et l’ouverture internationale dans une égale dignité, comme fondement de leur souveraineté internationale.

Pour avoir étudié les régimes politiques et les questions de gouvernance en Afrique de l’Ouest, j’ai observé que là où les régimes militaires du Sahel central revendiquent une souveraineté défensive, parfois exclusive, les États démocratiques côtiers manifestent une autonomie de décision politique basée sur une tradition d’ouverture internationale.

Dès lors, une question s’impose : quels facteurs expliquent la divergence entre ces deux conceptions de la souveraineté en Afrique de l’Ouest, et que révèlent-elles des transformations actuelles de l’État postcolonial africain ?

Deux conceptions de la souveraineté

L’usage contemporain de la souveraineté en Afrique de l’Ouest renvoie moins à une définition juridique univoque qu’à deux idéaux-types de gouvernement, construits à partir de trajectoires politiques contrastées.

La souveraineté de rupture : l’Alliance des États du Sahel

Le premier idéal-type est celui d’une souveraineté de rupture, incarnée par l’Alliance des Etats du Sahel (AES), née de la Charte du Liptako-Gourma en septembre 2023. Dans ce modèle, la souveraineté cesse d’être exclusivement nationale pour prendre une forme régionalisée, articulée autour d’une architecture de défense collective et d’assistance mutuelle (article 2 de la Charte). Elle est pensée comme une capacité à protéger, à combattre le terrorisme et la criminalité en bande organisée (article 4 de la Charte).

Trois piliers structurent cette souveraineté. D’abord, la sécurité comme fondement premier de l’État : l’autorité souveraine se légitime par la lutte contre le terrorisme et la reconquête territoriale. Ensuite, un discours panafricaniste de rupture, qui présente la souveraineté comme émancipation vis-à-vis des puissances occidentales et des institutions régionales jugées dépendantes.

Enfin, la volonté de reconstruire un État fort et centralisé, où l’armée devient l’acteur principal de la refondation nationale et du contrôle des ressources stratégiques. La souveraineté y est défensive, symbolique et identitaire, indissociable de la dignité nationale et de la survie de l’État.

Plus que la lutte contre le terrorisme, l’objectif de l’alliance est fondamentalement politique et souverainiste. A ce propos, le président de transition du Mali Assimi Goïta dans son discours à la nation du 31 décembre 2025, déclarait :

L’année qui s’achève a consacré une avancée majeure dans notre combat pour la souveraineté avec la consolidation de l’Alliance des États du Sahel. Avec le Burkina Faso et le Niger, nous avons choisi l’unité, la solidarité et la défense collective comme réponses aux défis sécuritaires, politiques et économiques auxquels nos peuples sont confrontés.

La souveraineté de consolidation : les démocraties côtières stabilisées

À l’opposé, le second idéal-type est celui d’une souveraineté de consolidation, portée par des États côtiers comme le Sénégal, le Cap-Vert, le Bénin ou le Ghana. Ici, la souveraineté repose sur la légitimité électorale, la stabilité institutionnelle et la continuité de l’État de droit. Elle ne s’exerce pas contre l’ordre régional, mais à travers lui. Le président du Sénégal Bassirou Diomaye Faye déclarait lors de son discours d’investiture le 2 avril 2024 que

le Sénégal doit exercer pleinement sa souveraineté, dans le respect de ses engagements internationaux, mais en plaçant en priorité les intérêts du peuple sénégalais.

Ces États conçoivent la souveraineté comme une capacité d’action collective, fondée sur la coopération, l’intégration régionale et le multilatéralisme, notamment au sein de la Communauté économique des Etats d’Afrique de l’Ouest (Cedeao). La souveraineté n’y est pas synonyme d’isolement, mais d’influence partagée et de consolidation progressive de l’État.

Cinq points de divergence

Ces deux modèles se distinguent à travers cinq indicateurs.

– La centralité de la force armée

La souveraineté est pratique et se mesure à la capacité des armées à protéger, à sécuriser des territoires, à administrer, à user et imposer la force. Dans l’espace AES, la souveraineté est associée à la puissance militaire. Ainsi le militaire est partout comme instrument de coercition et au cœur du pouvoir politique. La sanctuarisation de l’état d’urgence, la médiatisation des succès militaires, la rhétorique de la guerre et la mise en scène d’un Etat protecteur participent à l’entretien de cette souveraineté militaire défensive.

En contraste, dans les démocraties côtières, la souveraineté repose moins sur l’omniprésence du militaire que sur la primauté de l’Etat de droit. La sécurité est une politique publique soumise au contrôle civil parlementaire. Toutefois au regard du contexte régional, l’insécurité constitue un défi et justifie un renforcement des capacités étatiques et une attention aux armées.

– Les fondements de la légitimité politique

La distinction entre les deux modèles est forte autour de cet indicateur. Dans les régimes de l’AES la légitimité n’est pas fondée par les urnes. Les transitions sont prolongées et perdent leur sens. L’insécurité fragilise les institutions. Le pouvoir repose sur la force populaire, pas sur les urnes. Les dirigeants cherchent légitimité par la rue plutôt que par la démocratie.

Dans les États dits démocraties stabilisées, la souveraineté est indissociable de la légitimité électorale.Les citoyens refusent tout report ou blocage des élections. Pourtant, dans certains pays, l’exclusion des principaux opposants dévoie la compétition électorale.

Dans les deux modèles la souveraineté cherche à s’ancrer dans une forme de reconnaissance populaire, mais par des mécanismes radicalement différents.

– Sécurité et droits

Pour les régimes militaires, la sécurité est une priorité absolue. Elle justifie ainsi la suspension ou la relativisation de droits et libertés. Au nom d’un état d’urgence, la lutte contre le terrorisme et la survie de l’Etat priment sur les garanties individuelles.

A l’inverse dans les souverainismes démocratiques, la sécurité est liée aux droits, à la justice, à la gouvernance inclusive. La souveraineté elle-même repose sur un cadre juridique.

– Place des oppositions et des contre-pouvoirs

La conséquence du tout sécuritaire dans l’espace AES est la remise en cause de la place centrale des oppositions politiques, des contre-pouvoirs dans la gouvernance politique. Les droits et libertés sont largement restreints. Les oppositions politiques sont écartées et la presse encadrée.

Les régimes militaires protègent leur légitimité face aux menaces internes.
Dans les souverainismes démocratiques, le pluralisme et les libertés garantissent la légitimité de l’État.

– Rapport à l’international et à l’intégration régionale

Enfin les régimes de l’AES défendent une souveraineté de rupture vis-à-vis des institutions régionales et des partenaires occidentaux, accusés d’ingérence. Cette posture ne signifie pas l’autarcie : elle s’accompagne d’alliances alternatives (Russie, Chine) et d’une affirmation d’idéologie panafricaine parfois présentée en modèle sahélien.

Les démocraties côtières assument une souveraineté coopérative, fondée sur le multilatéralisme, la Cedeao, l’intégration régionale. La souveraineté ici n’est pas exclusive ou contre l’international mais à travers lui.

Les facteurs de la divergence

Les divergences s’enracinent dans des contextes historiques, politiques et économiques profondément asymétriques.

– Un contexte sécuritaire asymétrique

Le premier facteur explicatif tient à la géographie différenciée de la violence armée. Le Sahel central est devenu l’épicentre de l’insécurité depuis 2010.
L’expansion des groupes djihadistes et la porosité des frontières ont affaibli l’autorité étatique. La souveraineté devient une urgence existentielle face à cette crise. La militarisation du pouvoir s’impose comme réponse pour préserver l’unité et la survie de l’État.

À l’inverse, les États côtiers comme le Sénégal ou le Ghana n’ont pas connu une telle intensité de violence armée. Cette relative stabilité sécuritaire a permis la continuité institutionnelle, la consolidation de l’État de droit et une souveraineté pensée dans la durée plutôt que dans l’urgence.

– Dynamiques politiques et crise différenciée de la légitimité démocratique

Le second facteur est politique. Dans l’espace AES, la montée des régimes de transition reflète une crise électorale. Les coups d’État et la perte de confiance expliquent le recul de la démocratie. Cette « fatigue démocratique » nourrit un souverainisme sahélien. Le peuple devient source directe du pouvoir, par la rue et le soutien populaire.

À l’inverse, dans les démocraties côtières, les alternances régulières consolident la confiance. La souveraineté y reste liée au suffrage et au respect des procédures.

– Des économies politiques contrastées

Les structures économiques jouent un rôle clé. Les pays enclavés du Sahel dépendent d’économies agro-extractives fragiles. Les conflits ont désorganisé la production et affaibli l’État. Cela renforce la tentation d’un pouvoir autoritaire centré sur les ressources.

De leur côté, les États côtiers, plus diversifiés et ouverts, privilégient la stabilité et l’intégration économique régionale.

– Reconfigurations géopolitiques et rapports à l’international

Enfin, les divergences tiennent à de profondes recompositions géopolitiques. Au Sahel, le retrait occidental et la rupture avec la Cedeao ont favorisé une souveraineté de défiance. Les régimes militaires recherchent des alliances alternatives. La souveraineté y devient protection et affirmation identitaire.

À l’opposé, le Sénégal et le Ghana privilégient, eux, une souveraineté coopérative.
Ils s’inscrivent dans le multilatéralisme, tout en redéfinissant certains partenariats, notamment militaires. Au Sénégal, les autorités, tout en privilégiant des relations coopératives, ont remis en cause des accords de défense avec la France et rendu effectif le retrait des armées françaises du sol sénégalais.

Que retenir ?

Les deux modèles de souveraineté qui coexistent aujourd’hui en Afrique de l’Ouest ne sont pas des anomalies, mais les expressions d’une même quête d’autonomie dans des contextes différenciés.

Le souverainisme de rupture de l’AES répond à une crise de survie étatique, tandis que celui du Sénégal, du Ghana, du Cap-Vert, du Bénin, repose sur la stabilité institutionnelle et cherche à consolider une autonomie de décision à travers les institutions démocratiques.

Ces trajectoires traduisent deux manières d’adapter la souveraineté africaine au monde contemporain : l’une par la résistance et le refoulement de la tutelle occidentale, l’autre par l’intégration régionale politique et éconnomique.

The Conversation

Christian Abadioko Sambou does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. En Afrique de l’Ouest, deux modèles de souveraineté face à face – https://theconversation.com/en-afrique-de-louest-deux-modeles-de-souverainete-face-a-face-273188