When it comes to developing policies on AI in K-12, schools are largely on their own

Source: The Conversation – USA (2) – By Janice Mak, Assistant Director and Clinical Assistant Professor, Arizona State University

Generative artificial intelligence technology is rapidly reshaping education in unprecedented ways. With its potential benefits and risks, K-12 schools are actively trying to adapt teaching and learning.

But as schools seek to navigate into the age of generative AI, there’s a challenge: Schools are operating in a policy vacuum. While a number of states offer guidance on AI, only a couple of states require local schools to form specific policies, even as teachers, students and school leaders continue to use generative AI in countless new ways. As a policymaker noted in a survey, “You have policy and what’s actually happening in the classrooms – those are two very different things.”

As part of my lab’s research on AI and education policy, I conducted a survey in late 2025 with members of the National Association of State Boards of Education, the only nonprofit dedicated solely to helping state boards advance equity and excellence in public education. The survey of the association’s members reflects how education policy is typically formed through dynamic interactions across national, state and local levels, rather than being dictated by a single source.

But even in the absence of hard-and-fast rules and guardrails on how AI can be used in schools, education policymakers identified a number of ethical concerns raised by the technology’s spread, including student safety, data privacy and negative impacts on student learning.

They also expressed concerns over industry influence and that schools will later be charged by technology providers for large language model-based tools that are currently free. Others report that administrators in their state are very concerned about deepfakes: “What happens when a student deepfakes my voice and sends it out to cancel school or bomb threat?”

At the same time, policymakers said teaching students to use AI technology to their benefit remains a priority.

Local actions dominate

Although chatbots have been widely available for more than three years, the survey revealed that states are in the early stages of addressing generative AI, with most yet to implement official policies. While many states are providing guidance or tool kits, or are starting to write state-level policies, local decisions dominate the landscape, with each school district primarily responsible for shaping its own plans.

When asked whether their state has implemented any generative AI policies, respondents said there was a high degree of local influence regardless of whether a state issued guidance or not. “We are a ‘local control’ state, so some school districts have banned (generative AI),” wrote one respondent. “Our (state) department of education has an AI tool kit, but policies are all local,” wrote another. One shared that their state has a “basic requirement that districts adopt a local policy about AI.”

Like other education policies, generative AI adoption occurs within the existing state education governance structures, with authority and accountability balanced between state and local levels. As with previous waves of technology in K-12 schools, local decision-making plays a critical role.

Yet there is generally a lack of evidence related to how AI will affect learners and teachers, which will take years to become more clear. That lag adds to the challenges in formulating policies.

States as a lighthouse

However, state policy can provide vital guidance by prioritizing ethics, equity and safety, and by being adaptable to changing needs. A coherent state policy can also answer key questions, such as acceptable student use of AI, and ensure more consistent standards of practice. Without such direction, districts are left to their own devices to identify appropriate, effective uses and construct guardrails.

As it stands, AI usage and policy development are uneven, depending on how well resourced a school is. Data from a RAND-led panel of educators showed that teachers and principals in higher-poverty schools are about half as likely to AI guidance provided. The poorest schools are also less likely to use AI tools.

When asked about foundational generative AI policies in education, policymakers focused on privacy, safety and equity. One respondent, for example, said school districts should have the same access to funding and training, including for administrators.

And rather than having the technology imposed on schools and families, many argued for grounding the discussion in human values and broad participation. As one policymaker noted, “What is the role that families play in all this? This is something that is constantly missing from the conversation and something to uplift. As we know, parents are our kids’ first teachers.”

Introducing new technology

According to a Feb. 24, 2025, Gallup Poll, 60% of teachers report using some AI for their work in a range of ways. Our survey also found there is “shadow use of AI,” as one policymaker put it, where employees implement generative AI without explicit school or district IT or security approval.

Some states, such as Indiana, offer schools the opportunity to apply for a one-time competitive grant to fund a pilot of an AI-powered platform of their choosing as long as the product vendors are approved by the state. Grant proposals that focus on supporting students or professional development for educators receive priority.

In other states, schools opt in to pilot tests that are funded by nonprofits. For example, an eighth grade language arts teacher in California participated in a pilot where she used AI-powered tools to generate feedback on her students’ writing. “Teaching 150 kids a day and providing meaningful feedback for every student is not possible; I would try anything to lessen grading and give me back my time to spend with kids. This is why I became a teacher: to spend time with the kids.” This teacher also noted the tools showed bias when analyzing the work of her students learning English, which gave her the opportunity to discuss algorithmic bias in these tools.

One initiative from the Netherlands offers a different approach than finding ways to implement products developed by technology companies. Instead, schools take the lead with questions or challenges they are facing and turn to industry to develop solutions informed by research.

Core principles

One theme that emerged from survey respondents is the need to emphasize ethical principles in providing guidance on how to use AI technology in teaching and learning. This could begin with ensuring that students and teachers learn about the limitations and opportunities of generative AI, when and how to leverage these tools effectively, critically evaluate its output and ethically disclose its use.

Often, policymakers struggle to know where to begin in formulating policies. Analyzing tensions and decision-making in organizational context – or what my colleagues and I called dilemma analysis in a recent report – is an approach schools, districts and states can take to navigate the myriad of ethical and societal impacts of generative AI.

Despite the confusion around AI and a fragmented policy landscape, policymakers said they recognize it is incumbent upon each school, district and state to engage their communities and families to co-create a path forward.

As one policymaker put it: “Knowing the horse has already left the barn (and that AI use) is already prevalent among students and faculty … (on) AI-human collaboration vs. outright ban, where on the spectrum do you want to be?”

The Conversation

Janice Mak receives funding from Google, National Science Foundation, and the Spencer Foundation. She is affiliated with the Association for Computing Machinery’s Education Advisory Committee.

ref. When it comes to developing policies on AI in K-12, schools are largely on their own – https://theconversation.com/when-it-comes-to-developing-policies-on-ai-in-k-12-schools-are-largely-on-their-own-268272

Companies are already using agentic AI to make decisions, but governance is lagging behind

Source: The Conversation – USA (2) – By Murugan Anandarajan, Professor of Decision Sciences and Management Information Systems, Drexel University

Businesses are acting fast to adopt agentic AI – artificial intelligence systems that work without human guidance – but have been much slower to put governance in place to oversee them, a new survey shows. That mismatch is a major source of risk in AI adoption. In my view, it’s also a business opportunity.

I’m a professor of management information systems at Drexel University’s LeBow College of Business, which recently surveyed more than 500 data professionals through its Center for Applied AI & Business Analytics. We found that 41% of organizations are using agentic AI in their daily operations. These aren’t just pilot projects or one-off tests. They’re part of regular workflows.

At the same time, governance is lagging. Only 27% of organizations say their governance frameworks are mature enough to monitor and manage these systems effectively.

In this context, governance is not about regulation or unnecessary rules. It means having policies and practices that let people clearly influence how autonomous systems work, including who is responsible for decisions, how behavior is checked, and when humans should get involved.

This mismatch can become a problem when autonomous systems act in real situations before anyone can intervene.

For example, during a recent power outage in San Francisco, autonomous robotaxis got stuck at intersections, blocking emergency vehicles and confusing other drivers. The situation showed that even when autonomous systems behave “as designed,” unexpected conditions can lead to undesirable outcomes.

This raises a big question: When something goes wrong with AI, who is responsible – and who can intervene?

Why governance matters

When AI systems act on their own, responsibility no longer lies where organizations expect it. Decisions still happen, but ownership is harder to trace. For instance, in financial services, fraud detection systems increasingly act in real time to block suspicious activity before a human ever reviews the case. Customers often only find out when their card is declined.

So, what if your card is mistakenly declined by an AI system? In that situation, the problem isn’t with the technology itself – it’s working as it was designed – but with accountability. Research on human-AI governance shows that problems happen when organizations don’t clearly define how people and autonomous systems should work together. This lack of clarity makes it hard to know who is responsible and when they should step in.

Without governance designed for autonomy, small issues can quietly snowball. Oversight becomes sporadic and trust weakens, not because systems fail outright, but because people struggle to explain or stand behind what the systems do.

When humans enter the loop too late

In many organizations, humans are technically “in the loop,” but only after autonomous systems have already acted. People tend to get involved once a problem becomes visible – when a price looks wrong, a transaction is flagged or a customer complains. By that point, the system has already been decided, and human review becomes corrective rather than supervisory.

Late intervention can limit the fallout from individual decisions, but it rarely clarifies who is accountable. Outcomes may be corrected, yet responsibility remains unclear.

Recent guidance shows that when authority is unclear, human oversight becomes informal and inconsistent. The problem is not human involvement, but timing. Without governance designed upfront, people act as a safety valve rather than as accountable decision-makers.

How governance determines who moves ahead

Agentic AI often brings fast, early results, especially when tasks are first automated. Our survey found that many companies see these early benefits. But as autonomous systems grow, organizations often add manual checks and approval steps to manage risk.

Over time, what was once simple slowly becomes more complicated. Decision-making slows down, work-arounds increase, and the benefits of automation fade. This happens not because the technology stops working, but because people never fully trust autonomous systems.

This slowdown doesn’t have to happen. Our survey shows a clear difference: Many organizations see early gains from autonomous AI, but those with stronger governance are much more likely to turn those gains into long-term results, such as greater efficiency and revenue growth. The key difference isn’t ambition or technical skills, but being prepared.

Good governance does not limit autonomy. It makes it workable by clarifying who owns decisions, how systems function is monitored, and when people should intervene. International guidance from the OECD – the Organization for Economic Cooperation and Development – emphasizes this point: Accountability and human oversight need to be designed into AI systems from the start, not added later.

Rather than slowing innovation, governance creates the confidence organizations need to extend autonomy instead of quietly pulling it back.

The next advantage is smarter governance

The next competitive advantage in AI will not come from faster adoption, but from smarter governance. As autonomous systems take on more responsibility, success will belong to organizations that clearly define ownership, oversight and intervention from the start.

In the era of agentic AI, confidence will accrue to the organizations that govern best, not simply those that adopt first.

The Conversation

Murugan Anandarajan does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Companies are already using agentic AI to make decisions, but governance is lagging behind – https://theconversation.com/companies-are-already-using-agentic-ai-to-make-decisions-but-governance-is-lagging-behind-272792

AI-induced cultural stagnation is no longer speculation − it’s already happening

Source: The Conversation – USA (2) – By Ahmed Elgammal, Professor of Computer Science and Director of the Art & AI Lab, Rutgers University

When generative AI was left to its own devices, its outputs landed on a set of generic images – what researchers called ‘visual elevator music.’ Wang Zhao/AFP via Getty Images

Generative AI was trained on centuries of art and writing produced by humans.

But scientists and critics have wondered what would happen once AI became widely adopted and started training on its outputs.

A new study points to some answers.

In January 2026, artificial intelligence researchers Arend Hintze, Frida Proschinger Åström and Jory Schossau published a study showing what happens when generative AI systems are allowed to run autonomously – generating and interpreting their own outputs without human intervention.

The researchers linked a text-to-image system with an image-to-text system and let them iterate – image, caption, image, caption – over and over and over.

Regardless of how diverse the starting prompts were – and regardless of how much randomness the systems were allowed – the outputs quickly converged onto a narrow set of generic, familiar visual themes: atmospheric cityscapes, grandiose buildings and pastoral landscapes. Even more striking, the system quickly “forgot” its starting prompt.

The researchers called the outcomes “visual elevator music” – pleasant and polished, yet devoid of any real meaning.

For example, they started with the image prompt, “The Prime Minister pored over strategy documents, trying to sell the public on a fragile peace deal while juggling the weight of his job amidst impending military action.” The resulting image was then captioned by AI. This caption was used as a prompt to generate the next image.

After repeating this loop, the researchers ended up with a bland image of a formal interior space – no people, no drama, no real sense of time and place.

A collage of AI-generated images that begins with a politician surrounded by policy papers and progresses to a room with fancy red curtains.
A prompt that begins with a prime minister under stress ends with an image of an empty room with fancy furnishings.
Arend Hintze, Frida Proschinger Åström and Jory Schossau, CC BY

As a computer scientist who studies generative models and creativity, I see the findings from this study as an important piece of the debate over whether AI will lead to cultural stagnation.

The results show that generative AI systems themselves tend toward homogenization when used autonomously and repeatedly. They even suggest that AI systems are currently operating in this way by default.

The familiar is the default

This experiment may appear beside the point: Most people don’t ask AI systems to endlessly describe and regenerate their own images. The convergence to a set of bland, stock images happened without retraining. No new data was added. Nothing was learned. The collapse emerged purely from repeated use.

But I think the setup of the experiment can be thought of as a diagnostic tool. It reveals what generative systems preserve when no one intervenes.

A rolling, green field with a tree and a clear, blue sky.
Pretty … boring.
Chris McLoughlin/Moment via Getty Images

This has broader implications, because modern culture is increasingly influenced by exactly these kinds of pipelines. Images are summarized into text. Text is turned into images. Content is ranked, filtered and regenerated as it moves between words, images and videos. New articles on the web are now more likely to be written by AI than humans. Even when humans remain in the loop, they are often choosing from AI-generated options rather than starting from scratch.

The findings of this recent study show that the default behavior of these systems is to compress meaning toward what is most familiar, recognizable and easy to regenerate.

Cultural stagnation or acceleration?

For the past few years, skeptics have warned that generative AI could lead to cultural stagnation by flooding the web with synthetic content that future AI systems then train on. Over time, the argument goes, this recursive loop would narrow diversity and innovation.

Champions of the technology have pushed back, pointing out that fears of cultural decline accompany every new technology. Humans, they argue, will always be the final arbiter of creative decisions.

What has been missing from this debate is empirical evidence showing where homogenization actually begins.

The new study does not test retraining on AI-generated data. Instead, it shows something more fundamental: Homogenization happens before retraining even enters the picture. The content that generative AI systems naturally produce – when used autonomously and repeatedly – is already compressed and generic.

This reframes the stagnation argument. The risk is not only that future models might train on AI-generated content, but that AI-mediated culture is already being filtered in ways that favor the familiar, the describable and the conventional.

Retraining would amplify this effect. But it is not its source.

This is no moral panic

Skeptics are right about one thing: Culture has always adapted to new technologies. Photography did not kill painting. Film did not kill theater. Digital tools have enabled new forms of expression.

But those earlier technologies never forced culture to be endlessly reshaped across various mediums at a global scale. They did not summarize, regenerate and rank cultural products – news stories, songs, memes, academic papers, photographs or social media posts – millions of times per day, guided by the same built-in assumptions about what is “typical.”

The study shows that when meaning is forced through such pipelines repeatedly, diversity collapses not because of bad intentions, malicious design or corporate negligence, but because only certain kinds of meaning survive the text-to-image-to-text repeated conversions.

This does not mean cultural stagnation is inevitable. Human creativity is resilient. Institutions, subcultures and artists have always found ways to resist homogenization. But in my view, the findings of the study show that stagnation is a real risk – not a speculative fear – if generative systems are left to operate in their current iteration.

They also help clarify a common misconception about AI creativity: Producing endless variations is not the same as producing innovation. A system can generate millions of images while exploring only a tiny corner of cultural space.

In my own research on creative AI, I found that novelty requires designing AI systems with incentives to deviate from the norms. Without it, systems optimize for familiarity because familiarity is what they have learned best. The study reinforces this point empirically. Autonomy alone does not guarantee exploration. In some cases, it accelerates convergence.

This pattern already emerged in the real world: One study found that AI-generated lesson plans featured the same drift toward conventional, uninspiring content, underscoring that AI systems converge toward what’s typical rather than what’s unique or creative.

A cityscape of tall buildings on a fall morning.
AI’s outputs are familiar because they revert to average displays of human creativity.
Bulgac/iStock via Getty Images

Lost in translation

Whenever you write a caption for an image, details will be lost. Likewise for generating an image from text. And this happens whether it’s being performed by a human or a machine.

In that sense, the convergence that took place is not a failure that’s unique to AI. It reflects a deeper property of bouncing from one medium to another. When meaning passes repeatedly through two different formats, only the most stable elements persist.

But by highlighting what survives during repeated translations between text and images, the authors are able to show that meaning is processed inside generative systems with a quiet pull toward the generic.

The implication is sobering: Even with human guidance – whether that means writing prompts, selecting outputs or refining results – these systems are still stripping away some details and amplifying others in ways that are oriented toward what’s “average.”

If generative AI is to enrich culture rather than flatten it, I think systems need to be designed in ways that resist convergence toward statistically average outputs. There can be rewards for deviation and support for less common and less mainstream forms of expression.

The study makes one thing clear: Absent these interventions, generative AI will continue to drift toward mediocre and uninspired content.

Cultural stagnation is no longer speculation. It’s already happening.

The Conversation

Ahmed Elgammal does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. AI-induced cultural stagnation is no longer speculation − it’s already happening – https://theconversation.com/ai-induced-cultural-stagnation-is-no-longer-speculation-its-already-happening-272488

Hacking the grid: How digital sabotage turns infrastructure into a weapon

Source: The Conversation – USA – By Saman Zonouz, Associate Professor of Cybersecurity and Privacy and Electrical and Computer Engineering, Georgia Institute of Technology

Today’s power grid equipment incorporates internet-connected – and therefore hackable – computers. Joe Raedle/Getty Images

The darkness that swept over the Venezuelan capital in the predawn hours of Jan. 3, 2026, signaled a profound shift in the nature of modern conflict: the convergence of physical and cyber warfare. While U.S. special operations forces carried out the dramatic seizure of Venezuelan President Nicolás Maduro, a far quieter but equally devastating offensive was taking place in the unseen digital networks that help operate Caracas.

The blackout was not the result of bombed transmission towers or severed power lines but rather a precise and invisible manipulation of the industrial control systems that manage the flow of electricity. This synchronization of traditional military action with advanced cyber warfare represents a new chapter in international conflict, one where lines of computer code that manipulate critical infrastructure are among the most potent weapons.

To understand how a nation can turn an adversary’s lights out without firing a shot, you have to look inside the controllers that regulate modern infrastructure. They are the digital brains responsible for opening valves, spinning turbines and routing power.

For decades, controller devices were considered simple and isolated. Grid modernization, however, has transformed them into sophisticated internet-connected computers. As a cybersecurity researcher, I track how advanced cyber forces exploit this modernization by using digital techniques to control the machinery’s physical behavior.

Hijacked machines

My colleagues and I have demonstrated how malware can compromise a controller to create a split reality. The malware intercepts legitimate commands sent by grid operators and replaces them with malicious instructions designed to destabilize the system.

For example, malware could send commands to rapidly open and close circuit breakers, a technique known as flapping. This action can physically damage massive transformers or generators by causing them to overheat or go out of sync with the grid. These actions can cause fires or explosions that take months to repair.

Simultaneously, the malware calculates what the sensor readings should look like if the grid were operating normally and feeds these fabricated values back to the control room. The operators likely see green lights and stable voltage readings on their screens even as transformers are overloading and breakers are tripping in the physical world. This decoupling of the digital image from physical reality leaves defenders blind, unable to diagnose or respond to the failure until it is too late.

people wearing hardhats in front of electrical equipment the size of a small house
Today’s electrical transformers are accessible to hackers.
GAO

Historical examples of this kind of attack include the Stuxnet malware that targeted Iranian nuclear enrichment plants. The malware destroyed centrifuges in 2009 by causing them to spin at dangerous speeds while feeding false “normal” data to operators.

Another example is the Industroyer attack by Russia against Ukraine’s energy sector in 2016. Industroyer malware targeted Ukraine’s power grid, using the grid’s own industrial communication protocols to directly open circuit breakers and cut power to Kyiv.

More recently, the Volt Typhoon attack by China against the United States’ critical infrastructure, exposed in 2023, was a campaign focused on pre-positioning. Unlike traditional sabotage, these hackers infiltrated networks to remain dormant and undetected, gaining the ability to disrupt the United States’ communications and power systems during a future crisis.

To defend against these types of attacks, the U.S. military’s Cyber Command has adopted a “defend forward” strategy, actively hunting for threats in foreign networks before they reach U.S. soil.

Domestically, the Cybersecurity and Infrastructure Security Agency promotes “secure by design” principles, urging manufacturers to eliminate default passwords and utilities to implement “zero trust” architectures that assume networks are already compromised.

Supply chain vulnerability

Nowadays, there is a vulnerability lurking within the supply chain of the controllers themselves. A dissection of firmware from major international vendors reveals a significant reliance on third-party software components to support modern features such as encryption and cloud connectivity.

This modernization comes at a cost. Many of these critical devices run on outdated software libraries, some of which are years past their end-of-life support, meaning they’re no longer supported by the manufacturer. This creates a shared fragility across the industry. A vulnerability in a single, ubiquitous library like OpenSSL – an open-source software toolkit used worldwide by nearly every web server and connected device to encrypt communications – can expose controllers from multiple manufacturers to the same method of attack.

Modern controllers have become web-enabled devices that often host their own administrative websites. These embedded web servers present an often overlooked point of entry for adversaries.

Attackers can infect the web application of a controller, allowing the malware to execute within the web browser of any engineer or operator who logs in to manage the plant. This execution enables malicious code to piggyback on legitimate user sessions, bypassing firewalls and issuing commands to the physical machinery without requiring the device’s password to be cracked.

The scale of this vulnerability is vast, and the potential for damage extends far beyond the power grid, including transportation, manufacturing and water treatment systems.

Using automated scanning tools, my colleagues and I have discovered that the number of industrial controllers exposed to the public internet is significantly higher than industry estimates suggest. Thousands of critical devices, from hospital equipment to substation relays, are visible to anyone with the right search criteria. This exposure provides a rich hunting ground for adversaries to conduct reconnaissance and identify vulnerable targets that serve as entry points into deeper, more protected networks.

The success of recent U.S. cyber operations forces a difficult conversation about the vulnerability of the United States. The uncomfortable truth is that the American power grid relies on the same technologies, protocols and supply chains as the systems compromised abroad.

The U.S. power grid is vulnerable to hackers.

Regulatory misalignment

The domestic risk, however, is compounded by regulatory frameworks that struggle to address the realities of the grid. A comprehensive investigation into the U.S. electric power sector my colleagues and I conducted revealed significant misalignment between compliance with regulations and actual security. Our study found that while regulations establish a baseline, they often foster a checklist mentality. Utilities are burdened with excessive documentation requirements that divert resources away from effective security measures.

This regulatory lag is particularly concerning given the rapid evolution of the technologies that connect customers to the power grid. The widespread adoption of distributed energy resources, such as residential solar inverters, has created a large, decentralized vulnerability that current regulations barely touch.

Analysis supported by the Department of Energy has shown that these devices are often insecure. By compromising a relatively small percentage of these inverters, my colleagues and I found that an attacker could manipulate their power output to cause severe instabilities across the distribution network. Unlike centralized power plants protected by guards and security systems, these devices sit in private homes and businesses.

Accounting for the physical

Defending American infrastructure requires moving beyond the compliance checklists that currently dominate the industry. Defense strategies now require a level of sophistication that matches the attacks. This implies a fundamental shift toward security measures that take into account how attackers could manipulate physical machinery.

The integration of internet-connected computers into power grids, factories and transportation networks is creating a world where the line between code and physical destruction is irrevocably blurred.

Ensuring the resilience of critical infrastructure requires accepting this new reality and building defenses that verify every component, rather than unquestioningly trusting the software and hardware – or the green lights on a control panel.

The Conversation

Saman Zonouz receives funding from the Department of Energy Office of Cybersecurity, Energy Security, and Emergency Response (DOE CESER) and the National Science Foundation (NSF).

ref. Hacking the grid: How digital sabotage turns infrastructure into a weapon – https://theconversation.com/hacking-the-grid-how-digital-sabotage-turns-infrastructure-into-a-weapon-272874

‘Expertise’ shouldn’t be a bad word – expert consensus guides science and society

Source: The Conversation – USA – By Micah Altman, Research Scientist, MIT Libraries, Massachusetts Institute of Technology (MIT)

Training and experience are the foundation for a group of experts to provide solid guidance. Tashi-Delek/E+ via Getty Images

A growing distrust of expertise is reshaping the terrain of science in the United States.

Since the pandemic, the partisan divide over science has widened dramatically. While 77% of Americans have at least a fair amount of confidence that scientists act in the best interests of the public, that breaks down to 90% of Democrats and 65% of Republicans.

If people think scientists are trying to impose their political beliefs rather than expressing honest scientific judgments in the pursuit of truth, public trust in expert consensus will continue to erode.

With recent events, such as Robert F. Kennedy Jr. replacing the expert vaccine panel at the Department of Health and Human Services, and the Trump administration threatening to withdraw research funding from universities that don’t follow its ideological dictates, the political divide in public perception may grow even deeper.

As social scientists who study the role of science in society, we are deeply concerned about the decline of public trust in expertise, which is often fueled by politicians who manipulate people’s suspicions about experts. Skepticism is sometimes justified, of course. But a system based on expertise is the best one modern democracies have come up with to offer guidance on the various complex issues they face.

younger man smiles putting on a short white doctor's coat with two older men behind
Education and training within accredited programs help people gain expertise.
Anthony Souffle/Star Tribune via Getty Images

Who is an expert?

Before you can place your trust in a community of experts, you need a way to determine who counts as an expert. Modern societies usually do this through a sequence of training within accredited schools and universities – institutions whose reputations depend on their ability to train reliable and trustworthy experts.

Unlike the ancient alchemists’ guilds or modern elites, science is not secret, nor gated by family descent or social ties. Today anyone is permitted to become a scientific expert by attaining academic degrees and certifications and establishing a public track record of published research, teaching and contributions to one’s field.

The government also plays a critical role by requiring doctors or engineers to hold certain degrees or by granting universities formal quality certifications, such as accreditation. As an individual, you can’t evaluate the trustworthiness of every person claiming to have expertise – whether a heart surgeon or an electrician. The governmental license carried by these professionals makes that unnecessary.

In any field of knowledge, there is a web of legitimacy, knotted together by visible signals of trust, such as degrees, publications, affiliations and accreditations. Expertise is a team sport.

What is expert consensus?

The most reliable guidance is based on a rigorous group decision-making process, in which people with diverse training and experience contribute their expertise to a dialogue aimed at reaching consensus. The scientific approach to consensus is transparent and deliberate: Scientific consensus processes – such as the National Academies consensus study process, or a PRISMA review – are systematic in incorporating the credible evidence that is available and synthesizing different expert judgments.

The system, honed over decades, is based on the theory that better decisions can be achieved by systematically aggregating many independent opinions – if the group is well trained, draws from a common body of evidence, relies on a common understanding of research practices, and each of its members are able to independently weigh the evidence.

Such communities of experts arise in many settings, from engineers recommending building codes to epidemiologists proposing policies to contain a viral epidemic.

An expert community doesn’t need everyone to be right – or even to agree – in every case for the process to generate useful results. As long as each person is usually right and the community deliberates systematically on the basis of reason and evidence, the resulting consensus will be the best that can be achieved within the limits of current knowledge.

In short, expert consensus requires trained experts, common evidence and systematic deliberation.

Professional consensus vs. individual opinion

Expert consensus doesn’t mean that experts agree on everything, or that everyone must agree with the experts. In a democracy, expert advice is valuable, but it’s not the last word.

The U.S. Bill of Rights enshrines the idea that freedom of speech is fundamental to good government and to leading good lives. But there’s a distinction between speaking one’s mind and speaking from authority. Experts have a right to express their personal opinions and also a duty to exercise care when speaking in areas of their expertise.

This distinction is at issue in the Chiles vs Salazar case before the Supreme Court. It centers on a Colorado state law that prohibits so-called “conversion therapy” for gay or trans children.

Does doing so violate the free speech rights of therapists? It’s not illegal to believe trans children can be talked out of being trans, it’s just illegal to pursue that practice as a licensed professional, because medical experts have reached a consensus that conversion therapy is both useless and harmful.

Expert consensus is necessary to make sound decisions based on science and evidence, but that doesn’t mean experts must abstain from politics or refrain from expressing dissenting opinions. In fact, political restrictions on scientific debate weaken science, as seen in repressive societies.

people seated around a meeting-room table seen through a glass wall
Experts can disagree in good faith – and that doesn’t mean the system doesn’t work.
FangXiaNuo/E+ via Getty Images

What does expert consensus provide?

In our fractious political climate, people sometimes think divergent expert opinions mean that consensus does not exist, or no experts can be trusted. Some people say, “Do your own research,” which often leads to rejecting consensus and falling victim to conspiracies and disinformation.

In practice, consensus is compatible with substantial disagreement. In many fields, scientific consensus deals with broad patterns rather than individual cases. For example, medical experts may agree on the nature of a specific condition, and the average efficacy of a given treatment, yet make different predictions about the benefits for a specific patient.

Society faces pressing questions about the behavior of complex and uncertain systems: How much is climate likely to change if CO₂ emissions continue at the current rate – and what ecological changes should we expect? What accounts for changing cancer rates – and what are the most promising paths to develop a broad “cure”? Are AIs developing intelligence and self-awareness – and how can they be designed to be behave safely? What social institutions are essential for human flourishing – and how can they be preserved?

It’s the fundamental role of democratic government to determine which goals we as a society pursue and how to balance competing values. And when we face high-stakes issues involving complex systems and uncertain approaches, scientific expert consensus can act as an honest broker to provide a menu of possible approaches and predictions for each one’s likely consequences.

The Conversation

Micah Altman received research funding from the National Science Foundation and the Andrew W Mellon Foundation to conduct research related to the science of science, and related to open science.

Philip N. Cohen does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. ‘Expertise’ shouldn’t be a bad word – expert consensus guides science and society – https://theconversation.com/expertise-shouldnt-be-a-bad-word-expert-consensus-guides-science-and-society-271467

En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes

Source: The Conversation – in French – By Sonia Henry, Chercheuse, Université de Lorraine

Le tabouret bleu (_Noccaea caerulescens_) est une plante capable d’extraire du zinc, du cadmium et du nickel des sols. Madeleine Dugois, CC BY-NC-SA

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.


À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.

Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.

Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.

De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.

C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).

Les vertus de la phytoremédiation

Commençons par expliquer ce que l’on entend par « phytoremédiation ».

Mécanismes d’absorption des métaux lourds par les plantes grâce à la phytoremédiation.
Bieby Voijant Tangahu et al, CC BY

Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).

Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.

Le miscanthus géant aide la dégradation de certains hydrocarbures dans les sols.
geograph.org.uk, CC BY-NC-SA

Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.

Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.

L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles




À lire aussi :
La phytoremédiation : quand les plantes dépolluent les sols


La friche d’Uckange, laboratoire à ciel ouvert

Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.

Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.

L’usine d’Uckange et son quatrième haut fourneau sont désormais un monument historique qui peut être visité par le grand public.
Benjism89, CC BY-NC-SA

Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.

Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.

Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.

Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.




À lire aussi :
Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt


Associer plantes d’extraction et de dégradation

Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).

L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.

Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :

  • la diminution des teneurs en contaminants,

  • l’amélioration de la qualité agronomique,

  • et l’augmentation de la biodiversité microbienne.

La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.

Les premiers résultats seront publiés dans les prochains mois.

Bénéfices collatéraux de la phytoremédiation

Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.

Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.

Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.

En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.

The Conversation

Sonia Henry a reçu des financements de la Communauté d’Agglomération du Val de Fensch et de l’Institut Carnot Icéel

ref. En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes – https://theconversation.com/en-moselle-on-depollue-les-sols-dune-friche-siderurgique-grace-aux-plantes-235345

Comment dépolluer les friches industrielles face à la défiance des habitants ?

Source: The Conversation – in French – By Cecile Bazart, Maîtresse de conférences, Université de Montpellier

Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.


Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.

Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).

Rue des vignerons à Vincennes (Val-de-Marne), l’usine Pathé fabrique en 1902 des supports et émulsions chimiques pour le cinéma et la photographie. Elle deviendra plus tard l’usine Kodak.

Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.

Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.

Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.

Dépolluer : une étape indispensable mais complexe

Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.

Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.

À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.

Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.




À lire aussi :
En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes


Le stigmate, angle mort de la reconversion

Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.

C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.

Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.

Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.

Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.




À lire aussi :
Comment redonner une nouvelle vie aux friches industrielles en ville ?


Un décalage entre gestion technique et perceptions

Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.

Plusieurs mécanismes expliquent ce décalage.

  • Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.

  • La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.

  • Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.

Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.

Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.

Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.




À lire aussi :
Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite


The Conversation

L’enquête détaillée dans l’article a été financée par l’Université de Montpellier.

Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l’ADEME et la Région Pays de la Loire (2014-2017).

ref. Comment dépolluer les friches industrielles face à la défiance des habitants ? – https://theconversation.com/comment-depolluer-les-friches-industrielles-face-a-la-defiance-des-habitants-273723

L’eau invisible des chaînes de valeur mondialisées

Source: The Conversation – in French – By Simon Porcher, Professeur, Université Paris Dauphine – PSL

C’est le maillon caché de la mondialisation : quand on échange des biens et des services, on transfère aussi de l’eau douce d’un pays à l’autre. Pourtant, la gestion de l’eau reste locale, quand sa consommation est devenue mondiale. Des solutions émergent.


L’eau douce, pourtant indispensable à toute activité humaine, reste souvent absente des débats sur la mondialisation, comme si sa disponibilité allait de soi. Pourtant, sans eau, il n’y a ni alimentation, ni industrie, ni énergie, ni numérique. Nos vies, même dématérialisées, reposent sur l’utilisation de l’eau, qui refroidit, nettoie, chauffe. L’eau est l’intrant invisible de notre économie. Un chiffre résume son importance : 88 % de l’eau prélevée dans le monde sert à produire des biens ou des services.

L’eau circule déjà d’un continent à l’autre, non pas dans des canalisations, mais à travers les chaînes de valeur mondialisées, dans les produits alimentaires ou les habits que nous consommons et dans toutes nos infrastructures. Cette « eau virtuelle » irrigue la mondialisation, mais reste largement ignorée des décisions économiques et politiques. Résultat : l’eau est mobilisée comme si elle était une ressource infinie, au service d’une économie qui privilégie la performance immédiate au détriment des écosystèmes et des populations.

Les flux d’eau cachés dans notre assiette

Le concept d’eau virtuelle, inventé au début des années 1990 par le géographe Tony Allan, permet de mesurer l’eau incorporée dans les produits que nous consommons. Par exemple, il faut 15 000 litres d’eau pour produire un kilogramme de bœuf, 4 000 litres pour un kilo de pistaches et 1 000 litres pour un kilo de maïs.

Chaque petit déjeuner devient un voyage autour du monde : le café du matin vient de Colombie ou du Brésil, arrosé par les pluies tropicales ; le carré de chocolat noir qui l’accompagne est fabriqué à partir de cacao équatorien ; l’avocat du Pérou vient d’un champ irrigué. Seuls le blé et le sel de la baguette de pain, et la poule qui a pondu l’œuf viennent de France. Nos choix alimentaires connectent les bassins d’eau du monde entier, souvent à notre insu.




À lire aussi :
L’eau, la grande oubliée du label bio ?


Afin de mesurer le volume ainsi utilisé indirectement, Arjen Hoekstra a élaboré en 2002 le concept d’empreinte eau. Celle-ci correspond au volume total d’eau utilisé pour produire les biens et les services que nous consommons. Elle peut être calculée pour un pays ou pour un consommateur. Par exemple, l’empreinte eau d’un Français est supérieure à 4 000 litres par jour. 90 % de cette quantité proviennent de notre alimentation.

L’eau dans les chaînes de valeur mondialisées

Cette approche par l’assiette, et plus généralement par le produit final, révèle les transferts massifs d’eau entre pays, souvent invisibles dans les échanges commerciaux. L’industrie textile illustre parfaitement cette réalité. De la culture du coton à la teinture et au lavage, chaque vêtement consomme des milliers de litres d’eau. Les fleuves Amou-Daria et Syr-Daria, qui prennent leur source au Tadjikistan et au Kirghizistan, ont été détournés par les pays en aval pour irriguer du coton. Cette irrigation massive a réduit leur flux au point d’assécher la mer d’Aral. Là-bas, la baisse de la quantité d’eau entraîne des problèmes sanitaires et de dégradation des conditions d’existence. Les procédés industriels génèrent des rejets polluants, mal traités, contaminant rivières, sols et nappes. Les pays producteurs de textile paient le prix écologique de nos vêtements à bas coût.

Cet exemple illustre un problème plus large. La mondialisation des flux d’eau virtuelle révèle un vide institutionnel majeur. L’économie est globale, mais la gestion de l’eau reste locale. Cette disjonction favorise le dumping hydrique et environnemental. Les règles du commerce mondial invisibilisent les impacts réels sur les populations et les écosystèmes. Les chaînes de production éclatées permettent aux entreprises de profiter des ressources des pays fragiles, sans compensations ni reconnaissance des impacts sociaux et écologiques.

Des inégalités accentuées

L’exploitation intensive de l’eau n’est pas seulement un problème environnemental ; c’est un enjeu social et politique. Les populations des pays producteurs subissent la raréfaction de l’eau, la pollution des nappes et les risques sanitaires. Les inégalités s’accentuent : ce sont les plus vulnérables qui supportent les coûts, et les plus riches qui récoltent les bénéfices.

Au-delà de l’opposition entre le Nord et le Sud, c’est la domination des logiques de marché qui pose problème. Les multinationales choisissent leurs sites de production selon le coût de l’eau et la faiblesse des normes, renforçant un modèle où la ressource devient une variable d’ajustement économique plutôt qu’un bien commun. Les États, souvent dépassés, adoptent ces normes pour rester compétitifs, laissant peu de place à des alternatives locales ou écologiques.

Vers une reconnaissance de l’eau comme une ressource commune globale

La gouvernance de l’eau demeure aujourd’hui largement fragmentée à l’échelle mondiale. Contrairement au changement climatique, qui bénéficie d’un cadre multilatéral de référence malgré ses limites, l’eau n’est pas reconnue comme une ressource commune globale dotée de règles et de normes contraignantes pour les acteurs économiques. Cette situation limite la capacité de régulation des usages et des impacts. En l’absence d’un étiquetage systématique de l’empreinte eau des produits, la consommation d’eau liée aux biens et aux services échangés reste en grande partie invisibles. Alors même que l’empreinte eau d’un produit peut varier fortement selon les systèmes de production et les intrants mobilisés, cette invisibilité contribue à une faible responsabilisation de l’ensemble des acteurs. Dans un contexte de dépassement des limites planétaires relatives à l’eau, la disponibilité et la transparence des informations relatives à l’empreinte eau des produits et des services constituent un enjeu central de gouvernance.

Par ailleurs, les usages de l’eau reflètent de fortes inégalités géographiques : les pays industrialisés concentrent une part importante des consommations d’eau indirectes à travers les importations de produits agricoles et industriels, tandis que les pressions hydriques se manifestent principalement dans les pays producteurs. Dans ce contexte, les politiques commerciales et de coopération internationale sont des leviers potentiels de régulation indirecte des impacts hydriques. La jurisprudence de l’Organisation Mondiale du Commerce a reconnu la possibilité pour un État de restreindre l’accès à son marché sur la base de procédés et de méthodes de production. Demain peut-être prendra-t-on en compte les impacts environnementaux localisés, tels que le stress hydrique, dans la régulation des échanges internationaux.

France 24 – 2024.

Internaliser la contrainte ?

Du côté des entreprises, la prise en compte des risques hydriques progresse mais demeure hétérogène. Elle repose largement sur des démarches volontaires, souvent intégrées à des stratégies de responsabilité sociale sans caractère contraignant. Mais certaines multinationales commencent toutefois à internaliser ces enjeux. Michelin a par exemple mis en place un prix fictif de l’eau en interne pour s’inciter à investir dans des systèmes d’économie et de réutilisation de l’eau. Dans les usines de Gravanches et de Troyes, l’amélioration des processus de refroidissement devrait diminuer les prélèvements de plus de 60 %.

Néanmoins, ces initiatives restent principalement concentrées sur les sites de production directs, alors que l’essentiel des consommations d’eau associées aux produits se situe en amont, le long des chaînes de valeur, où se concentre également une part importante des risques hydriques. L’analyse de l’empreinte eau sur l’ensemble des chaînes d’approvisionnement apparaît dès lors comme un outil central pour identifier et gérer les risques hydriques liés à leurs investissements.

L’eau n’est pas seulement un enjeu environnemental, c’est un facteur structurant de la production économique, du commerce international et de la souveraineté. Le décalage entre la nature localisée des ressources hydriques et l’organisation mondialisée des chaînes de valeur constitue l’un des défis majeurs de la gouvernance contemporaine de l’eau.


Cet article fait partie du dossier « La gestion à l’épreuve du réel nbsp;» par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.

The Conversation

Simon Porcher co-dirige l’Institut d’économie de l’eau, soutenu par des mécènes. Ceux-ci n’ont joué aucun rôle dans le choix de l’angle, la rédaction ou les conclusions ; cette tribune n’engage que son auteur.

ref. L’eau invisible des chaînes de valeur mondialisées – https://theconversation.com/leau-invisible-des-chaines-de-valeur-mondialisees-273627

En Afrique de l’Ouest, deux modèles de souveraineté face à face

Source: The Conversation – in French – By Christian Abadioko Sambou, Dr en Sciences Politiques, spécialiste en paix & sécurité, Université Numérique Cheikh Hamidou Kane

Depuis les luttes d’indépendance, la souveraineté occupe une place centrale dans les débats politiques africains. Elle renvoie à la conquête de l’autonomie, la quête de légitimité et la capacité des États à définir librement leur destin. Cette quête est continue et en lien profond avec l’histoire coloniale des Etats ouest-africains.

L’émergence de l’Alliance des États du Sahel (AES) – Mali, Burkina Faso et Niger– en septembre 2023, a ravivé ces débats ? plaçant au coeur des discussions les notions de souveraineté, de panafricanisme, de démocratie, alimentant les discussions à travers les médias classiques et sociaux. La souveraineté est ainsi devenue un marqueur idéologique structurant, cristallisant des oppositions entre des « pro-0ccident » vs « pro-bloc sino-russe ».

Cette recomposition se manifeste à travers deux dynamiques distinctes: d’un côté, l’AES qui prône une souveraineté de rupture, articulée autour de la sécurité, de la dignité nationale et du rejet des tutelles extérieures ; de l’autre, des démocraties consolidées comme le Sénégal, le Cap-Vert, le Bénin et le Ghana, qui défendent une posture fondée sur la légitimité électorale, la coopération régionale et l’ouverture internationale dans une égale dignité, comme fondement de leur souveraineté internationale.

Pour avoir étudié les régimes politiques et les questions de gouvernance en Afrique de l’Ouest, j’ai observé que là où les régimes militaires du Sahel central revendiquent une souveraineté défensive, parfois exclusive, les États démocratiques côtiers manifestent une autonomie de décision politique basée sur une tradition d’ouverture internationale.

Dès lors, une question s’impose : quels facteurs expliquent la divergence entre ces deux conceptions de la souveraineté en Afrique de l’Ouest, et que révèlent-elles des transformations actuelles de l’État postcolonial africain ?

Deux conceptions de la souveraineté

L’usage contemporain de la souveraineté en Afrique de l’Ouest renvoie moins à une définition juridique univoque qu’à deux idéaux-types de gouvernement, construits à partir de trajectoires politiques contrastées.

La souveraineté de rupture : l’Alliance des États du Sahel

Le premier idéal-type est celui d’une souveraineté de rupture, incarnée par l’Alliance des Etats du Sahel (AES), née de la Charte du Liptako-Gourma en septembre 2023. Dans ce modèle, la souveraineté cesse d’être exclusivement nationale pour prendre une forme régionalisée, articulée autour d’une architecture de défense collective et d’assistance mutuelle (article 2 de la Charte). Elle est pensée comme une capacité à protéger, à combattre le terrorisme et la criminalité en bande organisée (article 4 de la Charte).

Trois piliers structurent cette souveraineté. D’abord, la sécurité comme fondement premier de l’État : l’autorité souveraine se légitime par la lutte contre le terrorisme et la reconquête territoriale. Ensuite, un discours panafricaniste de rupture, qui présente la souveraineté comme émancipation vis-à-vis des puissances occidentales et des institutions régionales jugées dépendantes.

Enfin, la volonté de reconstruire un État fort et centralisé, où l’armée devient l’acteur principal de la refondation nationale et du contrôle des ressources stratégiques. La souveraineté y est défensive, symbolique et identitaire, indissociable de la dignité nationale et de la survie de l’État.

Plus que la lutte contre le terrorisme, l’objectif de l’alliance est fondamentalement politique et souverainiste. A ce propos, le président de transition du Mali Assimi Goïta dans son discours à la nation du 31 décembre 2025, déclarait :

L’année qui s’achève a consacré une avancée majeure dans notre combat pour la souveraineté avec la consolidation de l’Alliance des États du Sahel. Avec le Burkina Faso et le Niger, nous avons choisi l’unité, la solidarité et la défense collective comme réponses aux défis sécuritaires, politiques et économiques auxquels nos peuples sont confrontés.

La souveraineté de consolidation : les démocraties côtières stabilisées

À l’opposé, le second idéal-type est celui d’une souveraineté de consolidation, portée par des États côtiers comme le Sénégal, le Cap-Vert, le Bénin ou le Ghana. Ici, la souveraineté repose sur la légitimité électorale, la stabilité institutionnelle et la continuité de l’État de droit. Elle ne s’exerce pas contre l’ordre régional, mais à travers lui. Le président du Sénégal Bassirou Diomaye Faye déclarait lors de son discours d’investiture le 2 avril 2024 que

le Sénégal doit exercer pleinement sa souveraineté, dans le respect de ses engagements internationaux, mais en plaçant en priorité les intérêts du peuple sénégalais.

Ces États conçoivent la souveraineté comme une capacité d’action collective, fondée sur la coopération, l’intégration régionale et le multilatéralisme, notamment au sein de la Communauté économique des Etats d’Afrique de l’Ouest (Cedeao). La souveraineté n’y est pas synonyme d’isolement, mais d’influence partagée et de consolidation progressive de l’État.

Cinq points de divergence

Ces deux modèles se distinguent à travers cinq indicateurs.

– La centralité de la force armée

La souveraineté est pratique et se mesure à la capacité des armées à protéger, à sécuriser des territoires, à administrer, à user et imposer la force. Dans l’espace AES, la souveraineté est associée à la puissance militaire. Ainsi le militaire est partout comme instrument de coercition et au cœur du pouvoir politique. La sanctuarisation de l’état d’urgence, la médiatisation des succès militaires, la rhétorique de la guerre et la mise en scène d’un Etat protecteur participent à l’entretien de cette souveraineté militaire défensive.

En contraste, dans les démocraties côtières, la souveraineté repose moins sur l’omniprésence du militaire que sur la primauté de l’Etat de droit. La sécurité est une politique publique soumise au contrôle civil parlementaire. Toutefois au regard du contexte régional, l’insécurité constitue un défi et justifie un renforcement des capacités étatiques et une attention aux armées.

– Les fondements de la légitimité politique

La distinction entre les deux modèles est forte autour de cet indicateur. Dans les régimes de l’AES la légitimité n’est pas fondée par les urnes. Les transitions sont prolongées et perdent leur sens. L’insécurité fragilise les institutions. Le pouvoir repose sur la force populaire, pas sur les urnes. Les dirigeants cherchent légitimité par la rue plutôt que par la démocratie.

Dans les États dits démocraties stabilisées, la souveraineté est indissociable de la légitimité électorale.Les citoyens refusent tout report ou blocage des élections. Pourtant, dans certains pays, l’exclusion des principaux opposants dévoie la compétition électorale.

Dans les deux modèles la souveraineté cherche à s’ancrer dans une forme de reconnaissance populaire, mais par des mécanismes radicalement différents.

– Sécurité et droits

Pour les régimes militaires, la sécurité est une priorité absolue. Elle justifie ainsi la suspension ou la relativisation de droits et libertés. Au nom d’un état d’urgence, la lutte contre le terrorisme et la survie de l’Etat priment sur les garanties individuelles.

A l’inverse dans les souverainismes démocratiques, la sécurité est liée aux droits, à la justice, à la gouvernance inclusive. La souveraineté elle-même repose sur un cadre juridique.

– Place des oppositions et des contre-pouvoirs

La conséquence du tout sécuritaire dans l’espace AES est la remise en cause de la place centrale des oppositions politiques, des contre-pouvoirs dans la gouvernance politique. Les droits et libertés sont largement restreints. Les oppositions politiques sont écartées et la presse encadrée.

Les régimes militaires protègent leur légitimité face aux menaces internes.
Dans les souverainismes démocratiques, le pluralisme et les libertés garantissent la légitimité de l’État.

– Rapport à l’international et à l’intégration régionale

Enfin les régimes de l’AES défendent une souveraineté de rupture vis-à-vis des institutions régionales et des partenaires occidentaux, accusés d’ingérence. Cette posture ne signifie pas l’autarcie : elle s’accompagne d’alliances alternatives (Russie, Chine) et d’une affirmation d’idéologie panafricaine parfois présentée en modèle sahélien.

Les démocraties côtières assument une souveraineté coopérative, fondée sur le multilatéralisme, la Cedeao, l’intégration régionale. La souveraineté ici n’est pas exclusive ou contre l’international mais à travers lui.

Les facteurs de la divergence

Les divergences s’enracinent dans des contextes historiques, politiques et économiques profondément asymétriques.

– Un contexte sécuritaire asymétrique

Le premier facteur explicatif tient à la géographie différenciée de la violence armée. Le Sahel central est devenu l’épicentre de l’insécurité depuis 2010.
L’expansion des groupes djihadistes et la porosité des frontières ont affaibli l’autorité étatique. La souveraineté devient une urgence existentielle face à cette crise. La militarisation du pouvoir s’impose comme réponse pour préserver l’unité et la survie de l’État.

À l’inverse, les États côtiers comme le Sénégal ou le Ghana n’ont pas connu une telle intensité de violence armée. Cette relative stabilité sécuritaire a permis la continuité institutionnelle, la consolidation de l’État de droit et une souveraineté pensée dans la durée plutôt que dans l’urgence.

– Dynamiques politiques et crise différenciée de la légitimité démocratique

Le second facteur est politique. Dans l’espace AES, la montée des régimes de transition reflète une crise électorale. Les coups d’État et la perte de confiance expliquent le recul de la démocratie. Cette « fatigue démocratique » nourrit un souverainisme sahélien. Le peuple devient source directe du pouvoir, par la rue et le soutien populaire.

À l’inverse, dans les démocraties côtières, les alternances régulières consolident la confiance. La souveraineté y reste liée au suffrage et au respect des procédures.

– Des économies politiques contrastées

Les structures économiques jouent un rôle clé. Les pays enclavés du Sahel dépendent d’économies agro-extractives fragiles. Les conflits ont désorganisé la production et affaibli l’État. Cela renforce la tentation d’un pouvoir autoritaire centré sur les ressources.

De leur côté, les États côtiers, plus diversifiés et ouverts, privilégient la stabilité et l’intégration économique régionale.

– Reconfigurations géopolitiques et rapports à l’international

Enfin, les divergences tiennent à de profondes recompositions géopolitiques. Au Sahel, le retrait occidental et la rupture avec la Cedeao ont favorisé une souveraineté de défiance. Les régimes militaires recherchent des alliances alternatives. La souveraineté y devient protection et affirmation identitaire.

À l’opposé, le Sénégal et le Ghana privilégient, eux, une souveraineté coopérative.
Ils s’inscrivent dans le multilatéralisme, tout en redéfinissant certains partenariats, notamment militaires. Au Sénégal, les autorités, tout en privilégiant des relations coopératives, ont remis en cause des accords de défense avec la France et rendu effectif le retrait des armées françaises du sol sénégalais.

Que retenir ?

Les deux modèles de souveraineté qui coexistent aujourd’hui en Afrique de l’Ouest ne sont pas des anomalies, mais les expressions d’une même quête d’autonomie dans des contextes différenciés.

Le souverainisme de rupture de l’AES répond à une crise de survie étatique, tandis que celui du Sénégal, du Ghana, du Cap-Vert, du Bénin, repose sur la stabilité institutionnelle et cherche à consolider une autonomie de décision à travers les institutions démocratiques.

Ces trajectoires traduisent deux manières d’adapter la souveraineté africaine au monde contemporain : l’une par la résistance et le refoulement de la tutelle occidentale, l’autre par l’intégration régionale politique et éconnomique.

The Conversation

Christian Abadioko Sambou does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. En Afrique de l’Ouest, deux modèles de souveraineté face à face – https://theconversation.com/en-afrique-de-louest-deux-modeles-de-souverainete-face-a-face-273188

Mark Carney’s Davos speech marks a major departure from Canada’s usual approach to the U.S.

Source: The Conversation – Canada – By Stewart Prest, Lecturer, Political Science, University of British Columbia

It was a moment of global clarity. Prime Minister Mark Carney’s speech to the world’s political and economic elite gathered in Davos this week described global realities, past and present, with a candour and nuance rarely heard from a serving politician.

The message was twofold.

First, Carney made clear that the world has changed, and the old comfortable ways of global politics are not coming back. Those who wait for sanity to return are waiting in vain. We are in a world increasingly shaped by the threat and the use of hard power. All states must accept that reality.

Despite this, Carney’s second and more hopeful message was that while the globally powerful may act unilaterally, others — notably “middle powers” like Canada — are not helpless.

By finding ways to co-operate on areas of shared interest, states like Canada can pool their limited resources to build what amounts to a flexible network of co-operative ties. Taken together they can provide an alternative to simply rolling over and taking whatever great powers like the United States dole out.

There’s also little choice in the matter if countries want to remain independent. As he eloquently put it: “If we’re not at the table, we’re on the menu.

From ‘elbows up’ to capitulation, and back

The speech represented a remarkable departure from Canada’s usual approach to its relationship its neighbour to the south.

For all the talk of “elbows up” during the 2025 federal election campaign, the Carney government has been somewhat ambivalent since then. It’s placed its hopes in achieving a renewed trading relationship and normalized relations with the U.S. through a combination of good faith negotiations and a steady stream of conciliatory gestures on issues that seemed to matter most to U.S. President Donald Trump.




Read more:
Mark Carney’s apology to Donald Trump: Far from ‘elbows up,’ it seems Canada has no elbows at all


That resulted in Canada committing significant funds to combat a largely non-existent fentanyl trafficking problem and to meet American demands for increased military funding. At times the conciliation verged on placation, as when Canada unilaterally ended relatiatory tariffs on American goods to no discernible effect.

This strategy clearly was not working, however, as Carney made clear in Davos.

While neither America, nor Trump, were mentioned by name, there’s no doubt who’s driving the dramatic global changes Carney was describing. At times the veneer became very thin as Carney reiterated Canada’s support for the sovereignty of Greenland as a territory of Denmark.

In fact, the speech was remarkably blunt in its rebuke of America’s foreign policy during Trump’s second term, drawing attention, as others have, to how U.S. actions leave almost everyone, including Americans, worse off.

Trump’s response

That not-so-subtle barb was not lost on the audience, either in the room or across the Atlantic in the White House.

Trump wasted little time in firing back in the manner and style the world has become accustomed to. During his own address to the World Economic Forum the next day, Trump delivered a rambling and at times confusing speech.

He reiterated his intent to annex Greenland while confusing the island multiple times with neighbouring and also sovereign Iceland, and he took time to single out Carney by name.

“Canada lives because of the United States,” he said. “Remember that, Mark, next time you make your statements.”

The comments provided helpful proof of Carney’s argument, demonstrating the naked threat of power by the American president to coerce its neighbour and ostensible ally. It revealed the kind of “gangster” mindset we see often from Trump, as he effectively said: “Nice country, Mark. Be a shame if something happened to it.”

Critique of past

As blunt as Carney’s assessment of the present was — that the rules-based, liberal international order has faded away — in some ways his critique of the past was even more remarkable. The prime minister spoke with a candour one wouldn’t expect to find at the podium at Davos.

Effectively, Carney correctly characterized the old order as one defined as much by its hypocrisy as by its rules. He acknowledged that countries like Canada benefited from a system in which rules are applied unevenly, and superpowers continue to shape outcomes.

This idea, along with the the need to look ahead in order to survive a new order, appeared to underpin Carney’s exhortation not to mourn the rapidly vanishing old order.

Carney clearly hopes a new system may emerge that is not only more resilient to diverse and unpredictable threats, but is more honest and just.

By finding common ground on shared issues, middle powers can act in accordance with their own values and interests, instead of deferring to the proclaimed values of global power that are frequently violated in practice. Power will always matter, but it doesn’t have to be all that matters.

History in the making?

Carney’s Davos remarks were powerful by any measure. But will he back up his words with action in the months and years ahead?

His speech was met with a rousing standing ovation, and has justly received plaudits from around the world for its clear-eyed description of a less forgiving world order and its vision for how states like Canada can continue to thrive within it.

Whether it proves a speech for the ages, however, depends on what happens next. If Canada is serious about charting a new path, distinct from the great powers of the world, it must do more than talk. Acts like deploying symbolic forces to Greenland if necessary will show a seriousness of purpose. Canada cannot expect others to stand with it if it doesn’t stand with them.

Similarly, Canada must reject schemes like Trump’s “board of peace,” a thinly disguised attempt to replace institutions of global governance with a body composed by and serving at the president’s whim.

Carney has captured the world’s attention with this speech. There’s a lot hanging on what he does with that attention.

The Conversation

Stewart Prest does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Mark Carney’s Davos speech marks a major departure from Canada’s usual approach to the U.S. – https://theconversation.com/mark-carneys-davos-speech-marks-a-major-departure-from-canadas-usual-approach-to-the-u-s-274090