Trump administration cuts to terrorism prevention departments could leave Americans exposed

Source: The Conversation – USA – By Kris Inman, Professor of African Studies and Security Studies, Georgetown University

Ghanaian special forces take part in U.S. military-led counterterrorism training near Jacqueville, Ivory Coast, on Feb. 16, 2022. AP Photo/Sylvain Cherkaoui

Staff at the State Department’s Office of Countering Violent Extremism and Bureau of Conflict and Stabilization Operations, which led U.S. anti-violent extremism efforts, were laid off, the units shuttered, on July 11, 2025.

This dismantling of the country’s terrorism and extremism prevention programs began in February 2025. That’s when staff of USAID’s Bureau of Conflict Prevention and Stabilization were put on leave.

In March, the Center for Prevention Programs and Partnerships at the Department of Homeland Security, which worked during the Biden administration to prevent terrorism with a staff of about 80 employees, laid off about 30% of its staff. Additional cuts to the center’s staff were made in June.

And on July 11, the countering violent extremism team at the U.S. Institute of Peace, a nonpartisan organization established by Congress, was laid off. The fate of the institute is pending legal cases and congressional funding.

President Donald Trump in February had called for nonstatutory components and functions of certain government entities, including the U.S. Institute of Peace, to “be eliminated to the maximum extent consistent with applicable law.”

These cuts have drastically limited the U.S. government’s terrorism prevention work. What remains of the U.S. capability to respond to terrorism rests in its military and law enforcement, which do not work on prevention. They react to terrorist events after they happen.

As a political scientist who has worked on prevention programs for USAID, the U.S. Institute for Peace, and as an evaluator of the U.S. strategy that implemented the Global Fragility Act, I believe recent Trump administration cuts to terrorism prevention programs risk setting America’s counterterrorism work back into a reactive, military approach that has proven ineffective in reducing terrorism.

The US war against terrorism

Between 9/11 and 2021, the cost of the U.S. war on terrorism was $8 trillion and 900,000 deaths, according to a Brown University study. Nonetheless, terrorism has continued to expanded in geographic reach, diversity and deadliness.

Though it was territorially defeated in Syria in 2019, the Islamic State – designated a foreign terrorist organization by the U.S. government – has expanded globally, especially in Africa. Its nine affiliates on the continent have joined several al-Qaida-linked groups such as al-Shabab.

The Islamic State has expanded through a decentralized model of operations. It has networks of affiliates that operate semi-autonomously and exploit areas of weak governance in places such as Mali and Burkina Faso. That makes them difficult to defeat militarily.

A building with an arched rood and multiple windows.
The U.S. Institute of Peace in Washington, D.C., on March 18, 2025.
Roberto Schmidt/AFP via Getty Images

These terrorist organizations threaten the U.S. through direct attacks, such as the ISIS-linked attack in New Orleans on Jan. 1, 2025, that killed 14 people.

These groups also disrupt the global economy, such as Houthi attacks on trade routes in the Red Sea.

To understand why terrorism and extremism continue to grow, and to examine what could be done, Congress charged the U.S. Institute of Peace in 2017 to convene the Task Force on Extremism in Fragile States.

This bipartisan task force found that while the U.S. military had battlefield successes, “after each supposed defeat, extremist groups return having grown increasingly ambitious, innovative, and deadly.”

The task force recommended prioritizing and investing in prevention efforts. Those include strengthening the ability of governments to provide social services and helping communities identify signs of conflict – and helping to provide tools to effectively respond when they see the signs.

The report contributed to the Global Fragility Act, which Trump signed in 2019 to fund $1.5 billion over five years of prevention work in places such as Libya, Mozambique and coastal West Africa.

Programs funded by the Global Fragility Act included USAID’s Research for Peace, which monitored signs of terrorism recruitment, trained residents in Côte d’Ivoire on community dialogue to resolve disputes, and worked with local leaders and media to promote peace. All programming under the act has shut down due to the elimination of prevention offices and bureaus.

What the US has lost

The State Department issued a call for funding in July 2025 for a contractor to work on preventing terrorists from recruiting young people online. It stated: “In 2024, teenagers accounted for up to two-thirds of ISIS-linked arrests in Europe, with children as young as 11 involved in recent terrorist plots.”

In the same month, the department canceled the program due to a loss of funding.

It’s the kind of program that the now defunct Office of Countering Violent Extremism would have overseen. The government evidently recognizes the need for prevention work. But it dismantled the expertise and infrastructure required to design and manage such responses.

Lost expertise

The work done within the prevention infrastructure wasn’t perfect. But it was highly specialized, with expertise built over 2½ decades.

Chris Bosley, a former interim director of the violence and extremism program at the U.S. Institute of Peace who was laid off in July, told me recently, “Adequate investment in prevention programs isn’t cheap, but it’s a hell of a lot cheaper than the decades of failed military action, and more effective than barbed wire – tools that come too late, cost too much, and add fuel to the very conditions that perpetuate the threats they’re meant to address.”

For now, the U.S. has lost a trove of counterterrorism expertise. And it has removed the guardrails – community engagement protocols and conflict prevention programs – that helped avoid the unintended consequences of U.S. military responses.

Without prevention efforts, we risk repeating some of the harmful outcomes of the past. Those include military abuses against civilians, prisoner radicalization in detention facilities and the loss of public trust, such as what happened in Guantanamo Bay, in Bagram, Afghanistan, and at various CIA black sites during the George W. Bush administration.

Counterterrorism prevention experts expect terrorism to worsen. Dexter Ingram, the former director of the State Department’s Office of Countering Violent Extremism who was laid off in July, told me: “It seems like we’re now going to try shooting our way out of this problem again, and it’s going to make the problem worse.”

Four men dressed in military gear walk along a city street.
Federal agents patrol New Orleans, La., following a terrorist attack on Jan. 1, 2025.
Andrew Caballero-Reynolds/AFP via Getty Images

What can be done?

Rebuilding a prevention-focused approach with expertise will require political will and bipartisan support.

U.S. Reps. Sara Jacobs, a Democrat from California, and Mike McCaul, a Texas Republican, have introduced a bill that would reauthorize the Global Fragility Act, extending it until 2030. It would allow the U.S. government to continue preventing conflicts, radicalization and helping unstable countries. The measure would also improve the way various government agencies collaborate to achieve these goals.

But its success hinges on securing funding and restoring or creating new offices with expert staff that can address the issues that lead to terrorism.

This analysis was developed with research contributions from Saroy Rakotoson and Liam Painter at Georgetown University.

The Conversation

Kris Inman does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Trump administration cuts to terrorism prevention departments could leave Americans exposed – https://theconversation.com/trump-administration-cuts-to-terrorism-prevention-departments-could-leave-americans-exposed-261630

The bacteria killing sea stars in the Pacific: How our team uncovered a decade-long mystery

Source: The Conversation – Canada – By Melanie Prentice, Research Associate, University of British Columbia

A sunflower sea star in Knight Inlet on the British Columbia coast. (Grant Callegari/Hakai Institute)

In 2013, a mysterious epidemic swept across the Pacific Coast of North America, rapidly turning billions of sea stars from Mexico to Alaska into goo.

Its name, sea star wasting disease (SSWD), describes what you might have seen if you wandered the shores of the Pacific Northwest at that time: contorted sea star bodies and fragmented arms littered the sea floor, as the tissues of sea stars melted away within a matter of days.

In the more than 10 years that has followed, SSWD has been described as the largest epidemic ever recorded in a wild marine species, and one of the 10 greatest unsolved ocean mysteries. Attempts to identify the pathogen responsible have turned up more questions than answers, until now.

We have recently published the findings of our five-year research project into the cause of SSWD.

Our team included multi-national and multi-disciplinary researchers from academic, government and non-profit institutions, a collaboration that was critical for the success of this work.

Together, we conducted laboratory experiments and analyzed data from wild outbreaks of SSWD to identify the pathogen responsible: a novel strain of the bacterium Vibrio pectenicida.

The significance of sea stars

An explainer on sea star wasting disease. (Hakai Institute).

Aside from the devastating loss of these charismatic rocky-shore inhabitants, the implications of this epidemic reverberate throughout the ecosystems sea stars inhabit.

More than two dozen species appear to be afflicted by SSWD, which vary in their susceptibility to the disease. Most susceptible is the sunflower sea star, a voracious marine predator and the largest species of sea star. They can grow to the size of a bicycle tire and have as many as 24 arms.

Almost six billion sunflower sea stars have been lost to SSWD, placing them on the critically endangered species list. With them, the kelp forest ecosystems they help to regulate have disappeared.

Sunflower sea stars keep kelp forests thriving by preying on sea urchins. With the rapid disappearance of these predators, unchecked urchin populations increased rapidly, mowing down kelp forests and replacing these lush, biodiverse ecosystems with urchin barrens.

The loss of kelp has had knock-on effects for the numerous species that rely on it for food and habitat. Alongside this staggering loss of biodiversity, millions of dollars from fishing and tourism are lost to impacted communities.

Although harder to quantify, the ecosystem services of kelp forests are also impacted, including water filtration which improves water quality, sediment stabilization that protects coastlines from erosion and storms, and carbon capture that helps mitigate the effects of climate change.

Recovery of kelp forests, and the species reliant upon them, requires a deeper understanding of SSWD and the sea stars devastated by it. The first step in our research was to identify the culprit responsible, however, the task proved more difficult than we initially anticipated.

a group or large starfish with several arms
A group of sunflower sea stars with SSWD in Knight Inlet, B.C.
(Grant Callegari/Hakai Institute)

A pathogen is revealed

Among the many possible pathogens suspected of causing the SSWD epidemic, it is unsurprising that the culprit turned out to be in the Vibrio species group.

From multiple diseases in corals to cholera in humans, the abundance of harmful Vibrio species in our oceans is on the rise with climate change as these bacteria favour warmer waters.

However, narrowing in on the specific culprit was not an easy undertaking. Vibrio pectenicida has some unusual characteristics not observed in other Vibrio species, allowing it to evade detection for more than a decade.

This was originally considered a risky and potentially unanswerable question. However, years of laboratory experiments and field sampling recently culminated in successful mortality-inducing experiments using a pure culture isolated by Amy Chan, a research scientist at the University of British Columbia, of the novel Vibrio pectenicida strain.

Named FHCF-3, it stands apart from previously identified strains (different genetic variants) by less than three per cent of its genome. Such strains have been isolated from diseased scallop larvae in France, crabs in the United Kingdom and, most recently, geoduck larvae from the Pacific Northwest.

Whether or not these strains can cause SSWD remains to be answered, but the potential implications are clear; with a large host range, broad geographic distribution, and propensity for warm seawater temperatures anticipated with advancing climate change, this pathogen is one to watch.

a five armed starfish on a rock underwater, some of its arms are disintegrating.
A cookie sea star with SSWD near Calvert Island, B.C.
(Grant Callegari/Hakai Institute)

No time to waste

Like removing a blindfold, the identification of the pathogen causing SSWD unveils new opportunities for research and management of the species and ecosystems affected.

First on the list is developing a diagnostic test that can detect the genetic sequence of the pathogen. This would allow researchers to test sea star or seawater samples for its presence.

Much like the COVID-19 test eased humanity out of lockdowns, this test will help inform marine management by helping diagnose healthy versus sick sea stars, and identifying locations best suited for reintroduction efforts.

Another target of future research is to identify resilient sea stars (those that can either prevent infection entirely or fight it off once it takes hold) for conservation breeding.

Resilient individuals, particularly of highly vulnerable species like sunflower sea stars, will be vital for recovery efforts in a warming ocean where Vibrio pectenicida is already widespread.

Despite the odds, the identification of the SSWD pathogen provides a new hopeful vision for our oceans and their inhabitants; one where disease-resilient sunflower sea stars once again roam the sea floor among thriving kelp forests replete with vibrant marine life.

The Conversation

Melanie Prentice receives funding from The Tula Foundation and The Nature Conservancy of California.

Alyssa-Lois Gehman receives funding from the Tula Foundation and The Nature Conservancy. She is affiliated with the Hakai Institute

Drew Harvell receives funding from The Nature Conservancy.

Grace Crandall receives funding from The Nature Conservancy.

ref. The bacteria killing sea stars in the Pacific: How our team uncovered a decade-long mystery – https://theconversation.com/the-bacteria-killing-sea-stars-in-the-pacific-how-our-team-uncovered-a-decade-long-mystery-259875

Eddington ends with a dark joke about disability – but its punchline is centuries old

Source: The Conversation – Canada – By Billie Anderson, Ph.D. Candidate, Media Studies, Western University

Joaquin Phoenix, left, who plays small-town sheriff Joe Cross, and Pedro Pascal, who plays the town’s mayor, Ted Garcia, in a scene from Ari Aster’s film ‘Eddington.’ (A24)

This story contains spoilers about ‘Eddington,’ ‘Midsommar’ and ‘Hereditary.’

Ari Aster’s new film Eddington is a political satire set in a small American town, where a feud between Sheriff Joe Cross (Joaquin Phoenix) and Mayor Ted Garcia (Pedro Pascal) begins with disagreement over pandemic policy, but quickly escalates into a chaotic, paranoid power struggle. What starts as a clash of ego spirals into increasingly violent and absurd confrontations.

In the film’s closing minutes, Joe is abruptly stabbed in the head by someone described as “anti-fascist terrorist” after an extended shootout. He survives, and the next time we see him he’s a quadriplegic wheelchair user and non-verbal.

By the end, Joe has been appointed mayor, either by default or out of public pity. The last shot leaves him as the town’s figurehead alongside a giant AI data centre in the desert: a monument to the forces that now shape human life, governance and identity.

It’s brutal, cynical, mean-spirited and a tad esoteric. But Aster seems to be offering a scathing portrait of American politics and the men like Joe who populate it: stubborn, self-righteous, vaguely libertarian; men clinging to authority, even as the world moves on without them.

There’s irony in the film’s portrayal of anarchic protesters, live-streamers and the failed machismo of Joe’s character arc. But when the laughter of the climax fades, what remains is something all too familiar: disability as the poetic consequence of bad behaviour. Not as an ongoing human experience, but as karmic spectacle.

Disability as consequence, not condition

Joe’s fate follows a centuries-old narrative pattern in which disability is framed as punishment, poetic justice or moral revelation. From medieval Christian theology to contemporary satire, bodily difference has long been used to symbolize inner failing. Impairment stands in for sin, ego, corruption or spiritual deficiency.

Enlightenment rationalism and eugenics-era pseudoscience cemented this association, casting disabled bodies as physically manifest proof of social and moral inferiority.

Cinema inherited these tropes, and still leans on them. As disability studies scholars David Mitchell and Sharon Snyder argue, disability is often introduced not to explore a character’s complexity, but to serve as a metaphorical crutch or shortcut to meaning.

Cinematic trailer for Ari Aster’s 2025 film ‘Eddington.’

The disabled body often appears when something needs to be revealed, resolved or punished. In Eddington, Joe’s fate is exactly that.

Disability arrives not as an opening to new experience but as closure: a visual and symbolic transformation from dangerous man to inner object. Joe is no longer speaking, acting or choosing.

The film seems to punish him, not for a single action, but for what he represents: a particular kind of white male authority figure that is combative, self-righteous and increasingly out of touch.

While Joe does oppose the mayor’s early pandemic policies, including mask mandates, his real “crime” in the film is his stubbornness and inflated self-control. He doubles down on personal power, even as systems collapse around him. His disability, then, functions as justice: a final, ironic version of the control he fought so hard to maintain.

He has become a site for meaning-making — a silent figure whose stillness now says everything about the futility of power, the absurdity of authority, the fall of the American sheriff, the political centrist.

Familiar patterns in Aster’s work

Ari Aster’s earlier films follow similar patterns. In Hereditary (2018) Charlie’s facial difference and neurodivergence signal otherness and fragility; her death becomes the hinge on which the horror turns.

In Midsommar (2019), Ruben, a disabled oracle, is portrayed as both holy and someone without personal agency: a vessel for prophecy rather than a fully developed character.

Across Aster’s filmography, disability tends to show up not as life, but as a symbol; as curse, as mysticism, as moral sign. Eddington takes that formula and strips it down even further: Joe becomes disabled at the moment the movie decides he’s no longer needed. It’s efficient, final and familiar.

Disability as visual rhetoric

As disability studies scholar Rosemarie Garland-Thomson writes, disabled bodies are often positioned as visual rhetoric. They are something to be interpreted, not inhabited.

Joe’s silence and stillness as a result of him becoming disabled don’t invite audiences to understand his experience; they invite us to read him, as if his body were a sentence the director had written.

We do see a glimpse of care: Joe appears to be tended to by a man who is now also his mother-in-law’s partner. But even this is played for laughs.

There’s no reckoning with long-term adaptation, no real engagement with the material realities of disability. The body remains an object, not a subject, and once it serves a rhetorical function, the camera moves on.

The real pandemic disabled millions

The symbolic use of disability hits differently given the film’s setting. Eddington is a pandemic movie — a chaotic satire of COVID-era paranoia, misinformation and isolation.

But COVID-19 hasn’t just destabilized governments, upended social norms and exacerbated online political turmoilit has disabled people.

Millions globally now live with long COVID, facing chronic pain, fatigue, cognitive impairment and dramatic changes to their work, social lives and health-care access.




Read more:
People with long COVID continue to experience medical gaslighting more than 3 years into the pandemic


The pandemic is a mass disabling event, not a metaphor. And yet, Eddington engages with disability only as a punchline. It becomes an ironic punishment for a man too arrogant to admit his limits. The joke lands harder when it treats disability as poetic justice instead of ongoing reality.

Toward fuller representation

Disability studies invites us to consider disability not as a narrative end point, but as a relational and continuous experience shaped by care networks, access barriers, evolving identities and collective adaptation.

What if Eddington had stayed with Joe after his injury? What if it explored his new position not through silence or shame, but through the messy human realities of interdependence?

What if the satire had gone further, asking not just what happens to a sheriff when he’s taken down, but what happens to power when it must rely on care? What if Joe had died and his mother-in-law had become mayor as a serious disruption of legacy politics?

Absurdism and dark comedy about the body aren’t the problem. But the symbolic shorthand of disability as justice carries weight, especially when disabled people continue to be marginalized, disbelieved and erased in the very real world that Eddington pretends to parody.

A sharper satire would engage with disability as part of the social fabric that challenges the audience to reckon with embodiment, dependence and mutual obligation. It could surprise audiences by refusing the easy exit of moral symbolism. It could be more rewarding, radical — and frankly, more intellectual — than another joke equating impairment with comeuppance.

The portrayal of disability in Eddington is not malicious, but it is predictable. It continues a long tradition of using disability to signal judgement, irony or narrative finality.

But real life doesn’t offer such clean punctuation. Disability is not the end of a story, but the start of a more complex, embodied and political one. Until cinema catches up, satires like Eddington will continue to undermine what they claim to critique.

The Conversation

Billie Anderson does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Eddington ends with a dark joke about disability – but its punchline is centuries old – https://theconversation.com/eddington-ends-with-a-dark-joke-about-disability-but-its-punchline-is-centuries-old-262780

‘Better Than Chocolate’ highlights lost 90s decade of lesbian Canadian cinema

Source: The Conversation – Canada – By Tamara de Szegheo Lang, Adjunct Assistant Professor, Department of Film and Media, Queen’s University, Ontario

“If coming out of the closet was really as much fun as it is for the sexually adventurous youths in Better Than Chocolate, then everybody would be doing it, even straight people.”

So wrote film critic Bruce Kirkland in his 1999 review of the lesbian romantic comedy by Canadian filmmaker Anne Wheeler.

film poster showing a woman's naked back who is being embraced by another woman
‘Better Than Chocolate’ was released in 1999.
(Wikipedia/Trimark Pictures/IMBD)

Kirkland pointed out that real life for queer and trans community members was “tougher, harsher and nastier” than portrayed in the 90-minute romp, but also wrote: “To hell with reality, at least for an hour-and-a-half. This movie is a little treasure and offers a lot of pleasure.”

The endearing rom-com won audience choice awards at a number of gay and lesbian film festivals, including in its hometown of Vancouver.

Today, more than a quarter century later, with hate crimes against queer and trans people on the rise and legal protections, especially in the United States, being threatened or ripped away, the film’s lens on romance — and the joy, safety and complications of being in community — may resonate with contemporary viewers and offer a brief reprieve from the heaviness of the political fight.

Like many Canadian lesbian-driven films from the 1990s, it also serves as an example of filmmakers working in queer communities to highlight once-censored voices, and reflects the sheer ingenuity and creative force of community collaboration in this moment — something that has been underrepresented in broader histories of queer and Canadian national cinema.

Whirlwind romance

In Better Than Chocolate, bookstore employee Maggie (Karyn Dwyer) and nomadic artist Kim (Christina Cox) start a whirlwind romance, moving in together within a matter of hours (echoing the classic U-Haul lesbian stereotype).

Their love story is complicated by the arrival of Maggie’s mother Lila (Wendy Crewson), a judgmental woman fresh off a divorce who doesn’t know her daughter is a lesbian. Comedic chaos ensues as the two young lovebirds navigate romantic, familial and community conflicts, all of which are neatly wrapped up by the end.

Though Better Than Chocolate may ultimately be a feel-good comedy, the film captures a community under attack from outside and within.

Skinheads harass Maggie and Kim, culminating in violence. Judy (Peter Outerbridge) is accosted for being transgender and is consistently misgendered by other lesbians.

The Canadian Border Services Agency purposefully targets neurotic bookstore owner, Frances (played by actor, author, playwright and Canadian lesbian icon Ann-Marie Macdonald), for selling queer literature.

Lesbian-centred 90s film

Better Than Chocolate is only one in a wave of lesbian-centred 90s films made in Canada. In this decade, creatives produced at least 12 narrative feature-length lesbian-centred films, several documentaries and over 400 short films.

Some echo Better Than Chocolate’s romantic tone, but the wave includes a diversity of genres – including erotic thrillers, family dramas and experimental dreamscapes.

Some of these films are well-recognized in the Canadian film canon, including Deepa Mehta’s Fire (1996) and Patricia Rozema’s When Night is Falling (1995), while others have been largely forgotten and prove hard to access today, like Patricia Rivera Spencer’s Dreamers of the Day (1990) and Jeanne Crépeau’s Revoir Julie (1998).

Ecosystem behind lesbian Canadian film

Canadian economic, social and artistic contexts offered a vital creative ecosystem that facilitated such a vibrant era of lesbian-driven cinema.

Feminist filmmaking collectives in the 1970s — like Women in Focus (Vancouver), intervisions/ARC (Toronto) and Reel Life (Halifax) — alongside the launch of Studio D at the National Film Board of Canada in 1974 — provided dedicated space for training talent and for producing films about women’s issues.

A woman smiling.
Anne Wheeler.
(www.annewheeler.com)

Wheeler came up through Studio D, co-directing the studio’s first film in 1975.

Canadian artists also had access to several funding sources, including federal, provincial and local arts councils. Beginning in the late 80s, such funding sources were soliciting more diverse content, a result of community activism driven by marginalized artists.

Importantly, a growing network of queer film festivals aided the development of an invested audience willing to pay to watch queer stories.

From 1985 to 2000, at least 11 annual queer festivals were founded in Canada, including Reel Pride (Winnipeg, 1985); Out on Screen (Vancouver, 1988); image+nation (Montréal, 1989); London Lesbian Film Festival (London, 1991); and Inside Out (Toronto, 1991).

With increasing venues to screen queer work and growing audiences came the demand for more films.

A Vancouver lesbian story

Alongside the broader Canadian context, local contexts also encouraged more filmmakers to tell lesbian stories.

Wheeler had long been committed to making films about lesser-represented Western Canada. While most of her films were set in Alberta, Better Than Chocolate moved her focus to Vancouver and its local queer politics.

The dramatic subplot between bookstore owner Frances and the Canada Border Services Agency (CBSA) is a clear reference to the then-ongoing Supreme Court of Canada case involving Little Sister’s Book and Art Emporium in Vancouver.

Little Sister’s, a queer bookstore, had been targeted for years by the CBSA, which would delay shipments while confiscating and sometimes damaging materials that it considered obscene.

The film publicized the homophobia of the CBSA, with Frances comedically demanding to know why books such as Little Red Riding Hood had been confiscated.

As we discovered in our archival research, Janine Fuller, the manager of Little Sister’s, provided feedback on an early draft of the screenplay. A flyer from the film’s production company was also used to raise the visibility of the court case.

Local community ties

The film’s community ties extended further. As noted in archival documents and the film’s press package, Canadian trans activist and performance artist Star Maris inspired the filmmakers when crafting the character of Judy. Her song, “I’m Not a Fucking Drag Queen,” was solicited for use within the film.

Vancouver’s lesbian community was invited to participate as extras in a bar scene, with an advertisement stating, “This is an excellent opportunity to meet new friends, party with old ones, have much fun being in a movie.”

Finally, as Anne Wheeler told Eye Weekly in 1999: “Right from the development phase on, we had a group of 12 young lesbian women whom we consulted with and they told us very specifically what they did and didn’t want to see. … So we set out very intentionally to break the mould and dispose of the old perceptions about gay women.”

In returning to Better Than Chocolate and other films, queer audiences may find entertaining gems, but may also be reminded of the power of survival of queer communities.

Better Than Chocolate is now available on CTV. Don’t stop there! In addition to films named above, check out these other Canadian lesbian-centred 90s feature films.

Tokyo Cowboy (1994)

Skin Deep (1994)

Devotion (1995)

Cat Swallows Parakeet and Speaks (1996)

High Art (1998)

2 Seconds (1998)

Emporte-Moi (1999)

The Conversation

Tamara de Szegheo Lang receives funding from the Social Sciences and Humanities Research Council of Canada (SSHRC)
for the project “Bodies on Fire: Rekindling Canada’s Decade of Lesbian-Driven Filmmaking.”

Dan Vena receives funding from the Social Sciences and Humanities Research Council of Canada (SSHRC) for the project “Bodies on Fire: Rekindling Canada’s Decade of Lesbian-Driven Filmmaking.”

ref. ‘Better Than Chocolate’ highlights lost 90s decade of lesbian Canadian cinema – https://theconversation.com/better-than-chocolate-highlights-lost-90s-decade-of-lesbian-canadian-cinema-259494

As the status quo shifts, we’re becoming more forgiving when algorithms mess up

Source: The Conversation – Canada – By Hamza Tariq, PhD Student, Cognitive Psychology, University of Waterloo

New inventions — like the printing press, magnetic compasses, steam engines, calculators and the internet — can create radical shifts in our everyday lives. Many of these new technologies were met with some degree of skepticism by those who lived through the transition.

Over the past 30 years alone, we’ve seen our relationship with the internet transform dramatically — it’s fundamentally changed how we search for, remember and learn information; how we evaluate and trust information; and, more recently, how we encounter and interact with artificial intelligence.




Read more:
AI can be responsibly integrated into classrooms by answering the ‘why’ and ‘when’


As new technologies and ways of doing things emerge, we fixate on their flaws and errors, and judge them more harshly than what we’re already familiar with. These apprehensions are not unwarranted. Today, important debates continue around accountability, ethics, transparency and fairness in the use of AI.

But how much of our aversion is really about the technology itself, and how much is driven by the discomfort of moving away from the status quo?

Algorithm aversion

As a PhD student in cognitive psychology, I study human judgment and decision-making, with a focus on how we evaluate mistakes, and how context, like the status quo, can shape our biases.

In my research with cognitive psychologists Jonathan A. Fugelsang and Derek J. Koehler, we tested how people evaluate errors made by humans versus algorithms depending on what they saw as the norm.

Despite algorithms’ track record of consistently outperforming humans in several prediction and judgment tasks, people have been hesitant to use algorithms. This mistrust goes back as far as the 1950s, when psychologist Paul Meehl argued that simple statistical models could make more accurate predictions than trained clinicians. Yet the response from experts at the time was far from welcoming. As psychologist Daniel Kahneman would later put it, the reaction was marked by “hostility and disbelief.”

That early resistance continues to echo in more recent research, which shows that when an algorithm makes a mistake, people tend to judge and punish it more harshly than when a human makes the same error. This phenomenon is now called algorithm aversion.

Defining convention

We examined this bias by asking participants to evaluate mistakes made by either a human or by an algorithm. Before seeing the error, we told them which option was considered the conventional one — described as being historically dominant, widely used and typically relied upon in that scenario.

In half the trials, the task was said to be traditionally done by humans. In the other half, we reversed the roles, indicating that the role had traditionally been done by an algorithmic agent.

When humans were framed as the norm, people judged algorithmic errors more harshly. But when algorithms were framed as the norm, people’s evaluations shifted. They were now more forgiving of algorithmic mistakes, and harsher on humans making the same mistakes.

This suggests that people’s reactions may have less to do with algorithms versus humans, and more to do with whether something fits their mental picture of how things are supposed to be done. In other words, we’re more tolerant when the culprit is also the status quo. And we’re tougher on mistakes that come from what feels new or unfamiliar.

Intuition, nuance and skepticism

Yet, explanations for algorithm aversion continue to make intuitive sense. A human decision-maker, for instance, might be able to consider the nuances of real life like an algorithmic system never could.

But is this aversion really just about the non-human limitations of algorithmic technologies? Or is part of the resistance rooted in something broader — something about shifting from one status quo to another?

These questions, viewed through the historic lens of human relationships with past technologies, led us to revisit common assumptions about why people are often skeptical and less forgiving of algorithms.

Signs of that transition are all around us. After all, debates around AI haven’t slowed its adoption. And for a few decades now, algorithmic tech has already been helping us navigate traffic, find dates, detect fraud, recommend music and movies, and even help diagnose illnesses.

And while many studies document algorithm aversion, recent ones also show algorithm appreciation — where people actually prefer or defer to algorithmic advice in a variety of different situations.

We’re increasingly leaning on algorithms, especially when they’re faster, easier and appear just as (or more) reliable. As that reliance grows, a shift in how we view technologies like AI — and their errors — seems inevitable.

This shift from outright aversion to increasing tolerance suggests that how we judge mistakes may have less to do with who makes them and more to do with what we’re accustomed to.

The Conversation

Hamza Tariq has received funding from the Natural Sciences and Engineering Council (NSERC) of Canada.

ref. As the status quo shifts, we’re becoming more forgiving when algorithms mess up – https://theconversation.com/as-the-status-quo-shifts-were-becoming-more-forgiving-when-algorithms-mess-up-261166

Photovoltaïque et réseau électrique : comment une IA fiable et transparente pourrait faciliter la décarbonation

Source: The Conversation – France in French (2) – By Gabriel Kasmi, Chercheur postdoctoral en IA appliquée au système électrique, Mines Paris – PSL

Les énergies renouvelables sont souvent accusées de déstabiliser le réseau électrique. Des outils d’intelligence artificielle permettent de localiser les installations photovoltaïques, facilitant ainsi le suivi de leur déploiement et assurant leur insertion sans heurts au réseau électrique.


Le photovoltaïque est une source d’électricité renouvelable profondément décentralisée. De petite taille mais représentant 99 % des systèmes raccordés au réseau électrique, les installations en toiture chez les particuliers ou dans le tertiaire (ombrières, supermarchés…) ont un poids croissant sur réseau électrique.

Hier centralisée, la production électrique est désormais répartie entre des grandes centrales et des centaines de milliers de petites installations. Ainsi, l’équilibrage du système – essentiel afin d’éviter les blackouts – nécessite de nouveaux moyens afin de tenir compte de cette production décentralisée.

Équilibrer la production d’électricité en intégrant la production solaire décentralisée est tout à fait possible en principe. Encore faut-il savoir où les panneaux sont installés et quelle taille ils font. L’intelligence artificielle (IA) peut être mise à contribution pour automatiser ce suivi… à condition que la fiabilité des données puisse être garantie.

L’intégration des renouvelables au réseau électrique : des défis maîtrisables

Historiquement, la production d’électricité provient des centrales reliées au réseau de transport (haute tension), avant d’être acheminée vers le réseau de distribution (basse tension) et les gros consommateurs industriels. La production était « pilotable », c’est-à-dire que l’on peut l’ajuster assez rapidement en fonction de la demande.

L’essor de l’éolien terrestre et du solaire photovoltaïque, majoritairement raccordés au réseau de distribution, a profondément modifié cette organisation. Aujourd’hui, la production pilotable s’ajuste à une « demande nette », c’est-à-dire à la différence entre la consommation et la production renouvelable.

Par exemple, la demande française en électricité est historiquement sensible à la température (chauffage, climatisation), et la production renouvelable est sensible aux variables climatiques. Cette variabilité n’est pas problématique en soi : l’important est qu’une filière soit observable, c’est-à-dire que l’on peut mesurer ou estimer avec précision sa production – et quantifier les incertitudes de production.

Or actuellement, le photovoltaïque manque d’observabilité, principalement en raison d’une caractérisation incertaine du parc existant de systèmes.

Le photovoltaïque est en effet caractérisé par une très grande variété de systèmes, allant de grandes centrales à des installations sur des toitures individuelles. Une telle diversité d’installations facilite le déploiement rapide à grande échelle et fait du photovoltaïque un vecteur indispensable de la décarbonisation du système électrique, mais cette même caractéristique rend le suivi de son déploiement difficile. Ainsi, 99 % des installations photovoltaïques, représentant un cinquième de la puissance installée, sont ainsi installées sur des toitures (résidentielles ou tertiaires) de manière totalement décentralisée (à la différence par exemple des centrales au sol pour lesquelles les appels d’offres sont centralisés, et donc les capacités mieux connues).

Comment répertorie-t-on aujourd’hui les systèmes installés ?

Le cadastre photovoltaïque, qui recense toutes les installations photovoltaïques raccordées au réseau, est obtenu à partir des déclarations de raccordement et est sujet à des incertitudes, tant en termes de recensement des systèmes que d’estimation de leur puissance installée et de leur répartition géographique.

L’intelligence artificielle, appliquée à l’imagerie aérienne, offre une opportunité unique de cartographier automatiquement et à grande échelle les systèmes photovoltaïques, en estimant leur surface, leur orientation et leur puissance, permettant ainsi d’améliorer notre connaissance sur le nombre, la répartition et les caractéristiques des systèmes photovoltaïques sur toiture. De nombreux modèles ont ainsi été développés afin de cartographier des systèmes photovoltaïques sur toiture.

Cependant, et malgré leurs performances remarquables, ces modèles ne sont que rarement utilisés par les acteurs du système électrique pour compléter et corriger leurs registres, ce qui réduit l’impact de telles méthodes pour répondre au problème dit de l’observabilité du photovoltaïque sur toiture, et plus largement pour faciliter la décarbonation du système électrique.

Quels sont les freins à l’adoption de l’IA comme outil d’aide à la cartographie des systèmes photovoltaïque ?

Au cours de ma thèse, j’ai prêté une attention particulière à l’identification des verrous méthodologiques pour le déploiement d’outils d’IA permettant d’améliorer l’observabilité du photovoltaïque sur toiture. Je suis parti d’un paradoxe apparent : les outils et les méthodes pour détecter les panneaux solaires existaient déjà, mais les projets existants n’allaient pas au-delà des expérimentations en laboratoire. Plusieurs raisons peuvent expliquer ce décalage. D’une part, des facteurs institutionnels ou humains, liés au manque de formation à ces outils ou encore à la question de la responsabilité en cas d’erreur de l’IA. D’autre part, il existe des facteurs liés aux méthodes elles-mêmes, où il est apparu en particulier que la combinaison d’un manque de transparence et de fiabilité des algorithmes était un frein puissant à leur adoption.

Notre travail de recherche récent a ainsi proposé une méthode permettant d’améliorer à la fois la transparence et la fiabilité des algorithmes de cartographie. L’amélioration de la transparence repose sur des techniques d’IA explicable et permet de mieux comprendre comment « voit » le modèle. L’amélioration de la fiabilité repose sur cette meilleure connaissance du processus de décision du modèle.

Nous avons utilisé une technique d’IA explicable inédite qui permet de décomposer entre différentes échelles ce que « voit » l’IA sur l’image. Cette décomposition montre les cas où l’IA s’appuie sur des composantes de l’image facilement altérables (les hautes fréquences de l’image) s’apparentant à des motifs quadrillés dont la taille au sol est de l’ordre d’un mètre par un mètre. On peut facilement comprendre la corrélation entre les panneaux et les grilles, mais on comprend aussi que toutes les grilles ne sont pas des panneaux solaires ; et que tous les panneaux solaires ne présentent pas de grilles.

comment l’IA identifie un panneau solaire
Un exemple de détection expliquée par notre méthode d’explicabilité. À gauche se trouve l’image de panneau, telle que vue par le modèle. Les zones de cette image importantes pour la prédiction du modèle sont surimposées avec des couleurs chaudes (B). Cependant, cette surimposition n’indique pas quels sont les éléments importants dans ces régions. Sur l’animation (C), nous utilisons notre méthode d’explicabilité pour filtrer progressivement l’image jusqu’à ne retenir que ce qui est nécessaire pour que le modèle fasse sa prédiction. Ce filtrage montre que le modèle a besoin du motif en grilles (plutôt que la couleur ou la forme générale du panneau) pour identifier un panneau.
Kasmi et collaborateurs, études de 2024 et 2025, Fourni par l’auteur

Cette méthode permet de mieux anticiper les occurrences de faux positifs mais aussi de faux négatifs.

Par exemple, dans une région où il y a de nombreuses verrières, qui présentent un motif grillé similaire, l’utilisateur anticipera une éventuelle surestimation du nombre réel de panneaux. À l’inverse, dans une région où les panneaux installés sont plus récents et donc plus susceptibles d’être sans cadre, on pourra s’attendre à une sous-estimation du nombre de panneaux. L’identification de potentiels faux négatifs est d’autant plus cruciale que s’il est simple d’éliminer les faux positifs par des post-traitements, il est plus difficile de lutter contre les faux négatifs.

Qu’est-ce que l’IA explicable ?

  • Les algorithmes de deep learning atteignent des performances remarquables dans de nombreuses applications. Ils sont néanmoins très complexes et donc difficiles à interpréter : on parle ainsi souvent de “boîtes noires”.
  • L’IA explicable (XAI) désigne l’ensemble des outils et méthodes permettant de décrire le fonctionnement d’un algorithme de deep learning de manière compréhensible pour un humain. Ces méthodes visent ainsi à améliorer la transparence des algorithmes, faciliter leur débogage, prévoir leurs cas d’échecs ou encore encourager leur adoption par des utilisateurs non spécialistes.
  • Dans notre cas, l’XAI nous a permis d’identifier un processus de décision (le modèle entraîné traduit souvent la présence d’un panneau PV avec un motif en forme de grille sur l’image), ce qui nous a permis d’identifier des cas d’échecs potentiels : la confusion de verrières pour des panneaux solaires.

Comment faire en sorte que l’IA reste fiable alors que les systèmes à détecter évoluent ?

Pour une IA, la fiabilité correspond à la faculté du système à atteindre une précision comparable à celle obtenue lors de l’entraînement initial du modèle, sur une période plus ou moins longue. En pratique, ces données d’entraînement sont figées, tandis que les données sur lesquelles le modèle est utilisé évoluent continuellement. Ainsi, la distribution statistique des données d’entraînement est de moins en moins représentative de celle des données sur lesquelles le modèle est déployé.

Il est établi que les IA sont sensibles à de tels changements de distributions (distribution shifts) et ainsi que les performances théoriques sont de moins en moins représentatives de la réalité. Pour la détection de panneaux solaires, on peut s’attendre à une baisse des détections liée au fait que le modèle n’a jamais « appris » à reconnaître les nouveaux panneaux. Les données d’entraînement sont ainsi biaisées par rapport aux conditions réelles, et les mises à jour des données d’entraînement veilleront à refléter la distribution actualisée des types de panneaux photovoltaïques.

L’IA seule ne résoudra pas l’ensemble des questions induites par la décarbonation du système électrique. Néanmoins, elle peut et doit y contribuer, compte tenu de la maturité des technologies, de la disponibilité des données et de l’appétence générale qui l’entoure. L’enjeu est double : d’une part, comprendre son fonctionnement et ses limites et, d’autre part, améliorer sa fiabilité, de sorte que l’adhésion à cette technologie soit fondée sur le discernement de l’utilisateur, plutôt que sur une foi aveugle en ces outils.

The Conversation

Gabriel Kasmi a reçu des financements de RTE et de l’Association Nationale de la Recherche et de la Technologie (thèse financée dans le cadre d’une convention Cifre). Il est membre du think tank Zenon.

ref. Photovoltaïque et réseau électrique : comment une IA fiable et transparente pourrait faciliter la décarbonation – https://theconversation.com/photovolta-que-et-reseau-electrique-comment-une-ia-fiable-et-transparente-pourrait-faciliter-la-decarbonation-261681

Pourquoi les Hispaniques évangéliques ont-ils voté Trump ?

Source: The Conversation – France in French (3) – By Marie Gayte, Chercheuse au laboratoire Babel de l’Université de Toulon, spécialiste de la politique américaine contemporaine, Université de Toulon

Depuis son accession au pouvoir, Donald Trump a multiplié les discours hostiles au droit d’asile et au droit du sol. Cent jours après le début de son mandat, il avait déjà publié 140 décrets contre l’immigration illégale, ciblant tout particulièrement les migrants latino-américains. Ces mesures avaient déjà été annoncées durant la campagne présidentielle ; ce qui n’a pas empêché un net accroissement des votes en sa faveur au sein des communautés hispaniques lors de l’élection. Comment l’expliquer ?.


En mai 2016, le Los Angeles Times titrait : « Les évangéliques sont le type de Latinos dont le GOP pourrait remporter les voix. Mais sans doute pas avec Donald Trump. » Quelques mois plus tard, Trump était élu, obtenant au passage 26 % des suffrages latinos. En 2024, lors de sa seconde victoire, il a obtenu 46 % des voix au sein de ces communautés – 14 points de plus qu’en 2020, et un record pour un candidat républicain à une élection présidentielle. Bien que souvent utilisés de manière interchangeable, les termes « Latino » et « Hispanique » désignent deux réalités différentes, et sont remis en question par certains chercheurs car reflets d’une réalité coloniale. Dans le langage courant, « Hispanique » désigne les personnes originaires d’un pays d’Amérique latine hispanophone, tandis que « Latino » peut englober les personnes originaires de pays lusophones.

Quand on décompose ce vote selon la religion des électeurs, on constate que Trump a effectué une percée notable chez les catholiques (41 %, contre 31 % en 2020), et surtout un score remarquable chez les protestants évangéliques (64 %, contre 48 % en 2020).

Historiquement, les Hispaniques des États-Unis ont été très majoritairement catholiques mais, depuis quelques années, une recomposition religieuse s’opère : ils rejoignent soit les rangs des « nones », ces Américains sans affiliation religieuse, soit, dans une moindre mesure, ceux des églises évangéliques. Il semble que cette affiliation les entraîne vers le conservatisme politique – y compris chez les immigrés de première et deuxième génération –, ce qui peut sembler contre-intuitif, étant donné les propos virulents de Trump sur les migrants en provenance des pays situés au sud de la frontière avec le Mexique et ses politiques migratoires.

France 24, 22 octobre 2024.

Un lien net entre évangélisme et immigration

Si l’« exode latino » du catholicisme vers l’évangélisme annoncé par certains chercheurs ne s’est pas concrétisé – la part des évangéliques dans le mix religieux restant relativement stable (entre 14 et 24 % selon les études) –, ces pourcentages s’appliquent à une cohorte sans cesse grandissante, la proportion des Hispaniques étant passée de 16 % de la population en 2010 à 19 % en 2022.

Les immigrés nourrissent la croissance des rangs évangéliques latinos, puisque la majorité d’entre eux sont nés hors des États-Unis, tandis que la part des immigrés hispaniques de première génération se déclarant évangéliques est passée de 22 % à 32 % entre 2008 et 2022.

Les Hispaniques viennent de plus en plus de pays d’Amérique centrale à forte population évangélique. En outre, même quand ils sont catholiques à leur arrivée aux États-Unis, ils sont plus susceptibles de se convertir à l’évangélisme que les Hispaniques nés aux États-Unis, lesquels ont plutôt tendance à tomber dans l’irreligion.

Ces conversions sont par ailleurs très souvent le fruit de l’influence d’autres Hispaniques, souvent originaires du même pays. Les immigrés centre-américains qui ne trouvent pas dans les églises catholiques le soutien dont ils ont besoin seront particulièrement enclins à se tourner vers l’évangélisme s’ils sont issus de pays où celui-ci est déjà très implanté.

Pour certains, la conversion à l’évangélisme, perçu comme fondamentalement états-unien et vecteur de mobilité sociale, représenterait une démarche d’intégration, annonciatrice d’une nouvelle vie, voire un mécanisme offrant une « citoyenneté spirituelle » les rendant moins susceptibles d’être expulsés s’ils sont clandestins. Les églises qu’ils fréquentent diffusent souvent le message qu’ils doivent être « quelqu’un de bien » – ce qui réduira le risque qu’ils soient expulsés –, de « bons chrétiens », qui ne comptent que sur eux-mêmes et respectent la loi.

Individualisme et prospérité

La nature des églises fréquentées par les Hispaniques aux États-Unis est l’une des grilles de lecture qui permet d’expliquer leur adhésion croissante au conservatisme politique. Les deux tiers d’entre eux fréquentent des églises pentecôtistes ou charismatiques, très souvent dirigées par des Hispaniques, immigrés de première génération ou enfants d’immigrés.

Pour la plupart indépendantes, elles sont souvent influencées par l’« Évangile de la Prospérité », dont les idées dépassent les églises qui s’en réclament du fait de l’omniprésence en librairie et sur Internet de ses figures phares. Pour ses tenants, Dieu accorde santé et richesse à ceux dont la foi est suffisamment forte, et la pauvreté, loin d’être une vertu, est le signe d’un manque de foi individuelle.

Ces églises tendent à diffuser un message de responsabilité et d’action individuelle, avec l’aide de Dieu, et de rejet de toute responsabilité et réponse systémique aux problèmes économiques et sociaux. Une vision néolibérale de la société, qui fait de la famille (déjà un pilier pour cette communauté), de la foi, de la valeur travail, de la contribution de l’individu à l’économie du pays, et du rôle des églises plutôt que de l’État dans les mécanismes d’aide sociale, les éléments constitutifs de l’identité états-unienne.

Samuel Rodriguez, directeur la puissante National Hispanic Christian Leadership Conference, l’un des conseillers évangéliques de Trump lors de la campagne de 2016, et qui prononça une des prières lors de la cérémonie d’investiture de janvier 2017, illustre bien cette tendance. Né de parents originaires de Porto Rico, il est à la tête d’une megachurch à Sacramento dont les fidèles sont majoritairement des immigrés latinos de première et deuxième génération. Dans l’émission « Race and Grace », qu’il animait sur la chaîne évangélique TBN en 2018, il affirmait que la solution au racisme n’est pas politique, car il s’agit d’un pêché individuel, « le produit d’un cœur qui refuse de se repentir » et que la solution consiste à changer son cœur avec l’aide de Dieu.

Interrogé sur la Public Broadcasting Service (PBS) juste après la victoire de Trump en novembre dernier au sujet de son projet d’expulser des millions de sans-papiers, il affirmait avoir obtenu en haut lieu l’assurance que seuls les criminels seraient ciblés, mais que les « bonnes familles, travailleuses, qui craignent Dieu, qui sont ici depuis des années, qui ne dépendent pas d’allocations du gouvernement », ne seraient pas visées.

Il n’est pas étonnant dans ce contexte que des chercheurs aient démontré que l’adhésion à ce courant pousse tous les groupes ethniques vers le conservatisme politique. Que Donald Trump se présente en homme d’affaires prospère peut en outre être perçu comme un signe qu’il est béni de Dieu, et sa réussite résonner auprès d’immigrés venus en quête d’une vie meilleure.

Dominionisme et nationalisme chrétien

Au-delà du fait que les Latinos évangéliques sont également plus conservateurs sur les questions de morale sexuelle que leurs homologues catholiques, et ont donc sans doute été séduits par le discours de Trump sur le genre, ils appartiennent souvent à des Églises dites « dominionistes », pour lesquelles Jésus ordonne « de faire de toutes les nations des disciples » : il ne faut donc pas seulement convertir des citoyens, mais les nations elles-mêmes. Il incombe ainsi aux chrétiens de prendre le contrôle des « sept montagnes » que sont la politique, la famille, l’économie, la culture, l’éducation, les médias, et la religion.

Arte, 3 juillet 2025.

C’est le cas de l’église El Rey Jesús, de l’« apôtre » Guillermo Maldonado, né au Honduras, et de sa femme, née en Colombie, à la tête d’un réseau apostolique de plus de 500 églises dans 70 pays. Maldonado, ainsi que Mario Bramnick, Ramiro Pena, Pasqual Urrabazo, eux aussi pasteurs issus de cette mouvance, ont conseillé Trump lors de ses trois campagnes présidentielles. Ils sont fréquemment invités à la Maison Blanche, et c’est dans l’église de Maldonado, à Miami, que Trump a lancé sa campagne en direction des Hispaniques en 2020 – Maldonado ayant dû au préalable rassuré ses fidèles sans papier qu’aucune arrestation n’aurait lieu lors du meeting.

Ceci explique en partie le fait que les Hispaniques évangéliques (57 %) sont juste derrière les évangéliques blancs (66 %) dans leur adhésion au nationalisme chrétien. Ce nationalisme regroupe un ensemble de croyances, dont le fait de considérer les États-Unis comme une nation chrétienne qui doit retrouver ses racines, et dont les chrétiens devraient contrôler les institutions.

Or, les sociologues Samuel Perry et Andrew Whitehead ont montré que l’adhésion au nationalisme chrétien fut un indicateur à part entière d’un vote Trump en 2016. Trump avait, dès cette campagne, promis aux chrétiens qu’ils « retrouveraient le pouvoir » perdu, non seulement politique, mais aussi dans l’éducation et les médias.

Une évolution qui ne passe pas inaperçue

Ces messages conservateurs, largement relayés par les pasteurs, ne sont pas sans effet sur les fidèles, dans la mesure où les Hispaniques évangéliques sont très pratiquants – bien plus que les catholiques – et ne remettent pas en cause la parole de leur pasteur.

Quant à la position de Trump sur les immigrés clandestins, beaucoup d’Hispaniques ne se sentent pas visés, et les Latinos évangéliques ont plus que leurs homologues catholiques tendance à s’identifier aux États-Unis davantage qu’à leur pays d’origine. Ils estiment qu’il faut venir légalement, et ils privilégient leurs convictions sur les questions de morale sexuelle aux préoccupations sur le sort des clandestins.

En 2002, des stratèges démocrates annonçaient l’avènement proche d’une majorité démocrate durable, forte de la montée inexorable des minorités ethniques, forcément acquises au parti de l’âne. Au contraire, aujourd’hui, le conservatisme croissant des Hispaniques évangéliques est suivi de près par le GOP. Il peut compter sur des organisations comme la Faith and Freedom Coalition, fondée par Ralph Reed – l’un des artisans de la mobilisation des évangéliques blancs derrière le GOP dans les années 1990 – qui distribue désormais des guides de vote en espagnol et organise des campagnes d’inscription sur les listes électorales dans les églises de ces pasteurs latinos évangéliques, notamment dans des États clés comme la Pennsylvanie ou l’Arizona.

L’engouement de certains pasteurs pour Trump et son conservatisme est tel que depuis 2020, nombre d’entre eux – immigrés de première ou deuxième génération – se mobilisent d’eux-mêmes pour encourager leurs fidèles à s’inscrire sur les registres électoraux. Ils publient leurs propres guides électoraux selon lesquels il faut voter « selon la Bible », et prier à des meetings de campagne de Trump – et cela, sans même que le parti républicain ne les y incite

The Conversation

Marie Gayte est chercheuse associée à l’IRSEM et a été titulaire d’une bourse Fulbright recherche en 2023.

ref. Pourquoi les Hispaniques évangéliques ont-ils voté Trump ? – https://theconversation.com/pourquoi-les-hispaniques-evangeliques-ont-ils-vote-trump-262136

Quand l’Union européenne améliore les droits sociaux : le cas des congés payés et de la maladie

Source: The Conversation – France (in French) – By Stéphane Lamaire, Professeur associé au CNAM en droit du travail, Conservatoire national des arts et métiers (CNAM)

Le droit européen vient de prendre une décision en faveur des salariés, contrairement à ce que prétendait jusqu’ici le droit français. Et cela pourrait ne pas s’arrêter là.


Sous l’influence du droit européen, nous savons désormais que pendant un arrêt maladie, un salarié continue d’acquérir des droits à congés payés qu’il pourra déposer après son retour au travail.

Néanmoins, la situation d’un salarié faisant l’objet d’un arrêt maladie alors qu’il se trouve en période de congés payés semble incertaine. En effet, ce dernier peut-il reporter ultérieurement les congés acquis dont il n’a pas bénéficié du fait de son arrêt de travail ?

Les contradictions des droits français et européen

Par le biais de plusieurs arrêts de l’automne 2023 (Cass. soc., 13 septembre 2023, n°22-17.340 à 22-17.342, n°22-17.638 et n°22-10.529 et 22-11.106), la Cour de cassation s’appuyant sur le droit européen (l’article 31 §2 de la Charte des droits fondamentaux de l’UE et l’article 7 §1 de la directive n°2003/88/CE), a contraint le législateur à modifier sa position au sujet de l’articulation des périodes de congés payés et de maladie (loi nº2024-364 du 22 avril 2024). En effet, par le passé, le droit français indiquait qu’il n’était pas possible d’acquérir des jours de congés payés durant un arrêt de travail pour maladie ou accident non professionnel (ancien article L.3141-5 du Code du travail). Or, cette disposition nationale était contraire à celle du droit européen découlant d’une directive (article 7 §1 de la directive n°2003/88/CE) et de l’article n°31 de la Charte des droits fondamentaux de l’Union européenne garantissait à tous les salariés un minimum de quatre semaines de congés payés annuels. Le juge européen nous précisait que cette période de congé ne pouvait pas être subordonnée « par un État membre à l’obligation d’avoir effectivement travaillé pendant la période de référence établie par ledit État » (CJCE, 20 janvier 2009, n°C-350/06 et CJUE, 24 janvier 2012, n°C-282/10).

En outre, en reconnaissant que les dispositions de la Charte des droits fondamentaux de l’Union européenne avaient désormais un effet impératif s’imposant aux états membres, le juge européen avait décidé qu’en cas de non-conformité avec les dispositions de l’Union, les juridictions nationales devaient laisser la réglementation nationale en cause inappliquée (CJUE, 6 novembre 2018, n°C-619/16). Suivant la combinaison de ces deux logiques, la Cour de cassation a par conséquent décidé d’écarter les dispositions non conformes du Code du travail empêchant toute acquisition de congés payés durant un arrêt de travail pour maladie ordinaire ainsi que celles limitant l’acquisition des congés en cas d’arrêt de travail pour accident (ancien article L.3141-5 du Code du travail).

Dès lors, sur le fondement du droit européen, la Cour de cassation est parvenue à contraindre le législateur jusqu’alors très réticent à toutes modifications en ce domaine, à garantir à tout travailleur en arrêt maladie l’acquisition d’une période annuelle de congés payés.




À lire aussi :
Le droit est-il impuissant au sujet de l’égalité de rémunération femmes-hommes ?


Le travailleur malade continue d’acquérir des congés payés

En effet, la jurisprudence en question est à l’origine du vote de la loi nº 2024-364 du 22 avril 2024 dont il ressort que désormais le salarié en arrêt de travail pour maladie continue d’acquérir des droits à congés, quelle que soit la cause de sa maladie (professionnelle ou non professionnelle). Il en découle qu’il bénéficie également d’un droit au report des congés qu’il n’a pu prendre en raison d’une maladie ou d’un accident. Désormais, l’ensemble des arrêts maladie constituent donc des périodes assimilées à du temps de travail effectif, quelle que soit leur durée.

Toutefois, selon le motif de l’arrêt maladie (professionnel ou non professionnel), les droits à congés payés annuels sont calculés différemment. En effet, si la maladie est d’origine non professionnelle, le salarié acquiert deux jours ouvrables de congés par mois d’absence, soit vingt-quatre jours ouvrables s’il a été absent pendant toute la période d’acquisition. Toutefois, si la maladie est d’origine professionnelle (ou accident du travail), celui-ci acquiert 2,5 jours ouvrables de congés par mois d’absence, dans la limite de trente jours ouvrables.

De surcroît, si le salarié n’a pas pu prendre tout ou partie de ses congés en cours au moment de son arrêt de travail, en raison de sa maladie (professionnelle ou non), il bénéficie d’une période de report de quinze mois au maximum. Par conséquent, il en résulte que les congés payés non pris par le salarié à l’issue de ce délai de quinze mois sont perdus. Dès lors, après un arrêt de travail pour maladie ou accident, l’employeur doit porter à la connaissance du salarié, le nombre de jours de congés dont il dispose (soit le nombre de jours acquis) ainsi que la date jusqu’à laquelle ces jours de congés peuvent être pris (soit le délai dont le salarié dispose pour les poser).

L’arrêt maladie survenant pendant les congés payés

Toutefois, la loi nº 2024-364 du 22 avril 2024 ne semble pas envisager précisément la question de l’arrêt maladie survenant durant les congés payés du salarié.

À cette date, la Cour de cassation nous précise que lorsqu’un arrêt de travail débute durant une période de congés payés, le salarié relève de ce seul et unique régime. Par conséquent, les congés payés étant la cause initiale de la suspension du contrat de travail, l’arrêt maladie ne peut pas s’y substituer. Dès lors, si, pendant ses congés, le salarié arrêté pour maladie accomplit les formalités requises (envoi d’un arrêt de travail), l’employeur doit uniquement lui verser son indemnité de congés payés sans défalquer les indemnités journalières de la sécurité sociale (Cass. Soc. 2 mars 1989, n° 86-42426, BCV n°173). Il en ressort que, sauf dispositions conventionnelles ou usage plus avantageux, le salarié ne peut donc pas exiger de prendre ultérieurement les congés payés s’étant confondus avec son arrêt (Cass. Soc. 4 décembre 1996, n°93-44907, BCV n°420).

Néanmoins, précisons que la Cour d’appel de Versailles est déjà allée à rebours de cette position ancienne de la Cour de cassation en jugeant que, si le salarié a été en arrêt maladie durant ses congés, il pouvait prétendre au report des jours de congés payés correspondant aux jours d’arrêt maladie (CA Versailles 18 mai 2022, RG n° 19/03230).

Toutefois, les juristes estiment que cette position isolée ne constitue pas un revirement de la jurisprudence française. Par conséquent, au regard du droit national, le sort du salarié malade durant ses congés payés est bien incertain. Or, de son côté, le juge européen a clairement indiqué que lorsqu’un salarié tombe malade alors qu’il était déjà en congés payés, il a droit à un report des jours de congés dont il n’a pas pu bénéficier dans la limite du congé annuel minimal de quatre semaines (CJUE 21 juin 2012, Aff. C-78/11).

De surcroît, il considère que tout travailleur peut se prévaloir de ce droit, car il est nécessaire de préserver ses congés payés, dont la finalité est de lui permettre de se reposer et de disposer d’une période de détente et de loisirs. Par conséquent, ces contradictions sont source d’incertitudes pour le salarié, mais également pour l’employeur confrontés à cette situation relativement courante.

La France mise en demeure

C’est précisément sur ce point que le 18 juin 2025, la Commission européenne a mis en demeure, la France pour manquement aux règles sur le temps de travail découlant de la directive n°2003/88/CE, en considérant que la législation française « ne garantit pas la santé et la sécurité des travailleurs ». Elle lui accorde donc un délai de deux mois pour répondre à sa lettre de mise en demeure.

Dès lors, si elle ne propose pas de mesures corrective, la Commission pourrait émettre un avis motivé, étape préalable à une éventuelle saisine de la Cour de justice de l’Union européenne qui estime que la finalité des congés annuels (temps de repos et de loisirs) ne peut être confondue avec celle de la maladie (temps de rétablissement) (CJUE, 21 juin 2012, Aff. C-78/11).

En somme, l’Union européenne garantit la santé et le progrès social des travailleurs alors que fleurissent de nombreux projets de récession de droits notamment en matière de prise en charge des arrêts maladie et de durée des congés payés.

The Conversation

Stéphane Lamaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’Union européenne améliore les droits sociaux : le cas des congés payés et de la maladie – https://theconversation.com/quand-lunion-europeenne-ameliore-les-droits-sociaux-le-cas-des-conges-payes-et-de-la-maladie-261485

Chantier de l’A69 : rendre la nature malléable à notre volonté (humaine)

Source: The Conversation – France in French (3) – By Rémy Conche, Docteur en sciences de gestion, Université Paris Dauphine – PSL

Greta Thunberg, venue soutenir les opposants à la construction de l’A69, qui relie Toulouse à Castres (10 février 2024). AgenceDyF/Shutterstock

Le chantier de l’A69 représente une énième tentative de « mettre le monde à notre disposition », de le rendre façonnable par la seule volonté humaine. Plus particulièrement deux de ses dimensions : l’espace, par l’ingénierie, et le temps, par la gestion de projet.


Le chantier controversé de l’A69, visant à créer une liaison autoroutière Toulouse-Castres, a repris ce mois de juillet. Le chantier avait été interrompu en février par le tribunal administratif de Toulouse qui avait annulé son autorisation environnementale. Le tribunal ne reconnaissait pas la « raison impérative d’intérêt public majeur » (RIIPM) qui permettait à cette opération de déroger à la réglementation relative aux espèces protégées.

En mars, la Cour d’appel administrative de Toulouse a décidé, à la suite de la saisine de l’État, de suspendre temporairement l’exécution de la décision de première instance. Le chantier pourra être finalisé avant que l’affaire ne trouve son dénouement juridique. En parallèle, un groupe de sénateurs de centre droit, mêlant l’Union centriste, Les Républicains (LR) et quelques indépendants, a déposé un projet de loi au Sénat. Celle-ci vise à valider les autorisations environnementales auparavant annulées. Ce texte retravaillé en commission mixte paritaire reste à voter.

En quelques chiffres, ce chantier vise à créer une autoroute 2×2 voies de 53 kilomètres et 200 ouvrages d’art pour un montant total estimé à 513 millions d’euros. L’autoroute sera ensuite exploitée dans le cadre d’une concession de cinquante-cinq ans. Les détracteurs de ce projet ont attiré l’attention du public sur son impact environnemental qui s’étendra sur 400 hectares et affectera 150 espèces protégées.

Mise à disposition du monde

L’enjeu ici n’est pas de juger de la pertinence de ce projet, sujet qui a déjà fait l’objet d’une multitude d’articles et de prises de parole. Mais plutôt de souligner en quoi celui-ci est révélateur de notre « rapport au monde » pour reprendre les termes du sociologue Hartmut Rosa. Dans son essai Rendre le monde indisponible, Rosa définit notre rapport au monde comme cherchant toujours la « mise à disposition » de ce dernier. Chacune de nos actions peut se comprendre comme une manière de « connaître », d’ atteindre », de « conquérir », de « dominer » ou d’« utiliser » le monde.

Le chantier de l’A69 illustre cette volonté de « mise à disposition », de rendre façonnable, malléable, la nature telle que l’être humain le souhaite. Dans le cadre du projet de loi visant à relancer les travaux de l’A69, le sénateur de Haute-Garonne Pierre Médevielle (groupe Les Indépendants, Républiques et Territoires, LIRT) a fustigé devant ses pairs les raisonnements « hors-sol » des détracteurs de l’A69. L’usage de cette expression dans ce contexte paraît surprenant, car ces derniers ont souligné les importants mouvements de terre que ce projet nécessitera : de l’ordre de 5 850 000 m3 de déblais et 5 330 000 m3 de remblais.

Ces raisonnements hors-sol attirent paradoxalement notre attention sur l’une des nombreuses mises à disposition opérées par ces travaux : celle du sol.

Mise à disposition des espaces

L’économiste et mathématicien Nelo Magalhães a montré, même s’il n’use pas ces concepts, dans Accumuler du béton, tracer des routes, une histoire environnementale des grandes infrastructures, comment l’A69 pouvait être appréhendée comme un projet de « mise à disposition » des espaces.

La mécanisation des travaux d’infrastructure a permis aux ingénieurs et projeteurs de réaliser des tracés faisant fi des reliefs qui doivent s’adapter aux infrastructures souhaitées. La stabilisation mécanique (c’est-à-dire, adjonction de matériaux de carrière) et chimique (c’est-à-dire, adjonction d’un liant hydraulique) ont permis la mise à disposition des sols. À cette mécanisation s’est ajoutée une « abstraction des sols ». La construction des autoroutes est pensée indépendamment de la qualité de ces derniers.

Cette volonté de « mettre à disposition » des reliefs, des sols et in fine des territoires (en les désenclavant) n’est pas sans conséquence. Hartmut Rosa parle du monde rendu disponible comme un monde qui se « dérobe » devient « illisible », « muet », à la fois « menacé et menaçant », et donc au bout du compte « constitutivement indisponible ».

Mise à disposition du temps

Les chantiers de construction, non seulement ceux de grandes infrastructures, mais aussi d’ouvrages beaucoup plus ordinaires comme des centres commerciaux, des bureaux ou des hôtels, ne dérogent pas à ce rapport au monde. Et la « mise à disposition » qu’ils opèrent ne se limite pas aux espaces. Elle se décline sur le temps.




À lire aussi :
Le train survivra-t-il au réchauffement climatique ?


Cette mise à disposition s’opère au travers des principes de la gestion de projet, définie comme une discipline destinée à agir sur le temps. L’acteur projet se doit de veiller scrupuleusement au triptyque coût, qualité, délai, de Roger Atkinson. C’est bien la notion de délai qui fait du temps un élément central de cette pratique. Elle est a fortiori d’autant plus importante que la vitesse est considérée comme un atout déterminant dans un environnement économique toujours plus concurrentiel. L’évaluation de l’avancement dans le temps est une manière de surveiller ses marges.

La bonne gestion du temps est rendue possible par sa transformation en quantité, autrement appelée sa « fongibilisation » – qui se consomme par l’usage. La recherche s’accorde sur l’idée que la gestion de projet, comme discipline reposant sur des standards, comme ceux du PMBOK, s’appuie sur une conception « quantitative et objective du temps », selon la chercheuse Julie Delisle. Cette conception rend possibles d’innombrables pratiques très concrètes concourant à l’optimisation de son usage. Parmi les plus connues, on peut citer la réalisation de diagrammes de Gantt.

Mais de même que la « mise à disposition » des sols prétendument permise par leur stabilisation conduit à leur imperméabilisation et les rend finalement indisponibles pour des milliers d’années, la mise à disposition du temps « participe à l’accélération et à la pénurie de ce dernier », explique Julie Delisle. Quand bien même la gestion de projet n’a jamais été aussi raffinée dans les chantiers, ces derniers n’ont jamais connu autant de retards. Songeons notamment au chantier de l’EPR de Flamanville et à tant d’autres qui sont autant de preuves de l’inefficacité d’un rapport au temps de l’ordre de la « mise à disposition ».

De la « mise à disposition » au « faire avec »

Pour Nelo Magalhães dont nous évoquions les travaux plus haut, l’une des solutions les plus viables dans une optique environnementale est « l’écologie du démantèlement », c’est-à-dire « apprendre à hériter et à fermer ».

Pour notre part, il nous semble essentiel de porter attention à l’échelle micro, celle des acteurs, de leurs pratiques et de leurs interactions quotidiennes. Cette attention pourrait permettre non pas de « mettre à disposition », mais de « faire avec », c’est-à-dire d’« accepter certaines limites qui contraignent la satisfaction de nos désirs individuels de liberté ou de consommation », selon le professeur en littérature Yves Citton.

Il s’agirait non de s’imposer, mais de tenir compte de la multiplicité des temporalités dans un projet, ou de la multiplicité des acteurs, possiblement non humains, au sein d’un écosystème. Cette attention micro pourrait être le point de départ d’élaboration de pratiques relevant du « faire avec » aux conséquences à terme macro (à l’échelle de la société, des normes).

Certaines initiatives comme le Comprehensive Accounting in Respect of Ecology, dite la comptabilité CARE, relèvent selon nous d’une telle démarche. En tant que système comptable, cet outil influe sur les pratiques quotidiennes, dont les implications peuvent devenir à terme macro-économiques si son usage se diffuse. Ce qui rendrait impossibles certaines activités économiques ne tenant pas compte des enjeux environnementaux.

The Conversation

CONCHE Rémy est maître d’œuvre et responsable de la recherche au sein de l’entreprise CICAD, filiale du groupe INGEROP, un cabinet d’ingénierie du secteur de la construction.

ref. Chantier de l’A69 : rendre la nature malléable à notre volonté (humaine) – https://theconversation.com/chantier-de-la69-rendre-la-nature-malleable-a-notre-volonte-humaine-260951

La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir

Source: The Conversation – in French – By Benjamin Brigaud, Professeur en géologie et géothermie, Université Paris-Saclay

La géothermie évoque généralement la production de chaleur, mais elle peut également rafraîchir ou produire du froid. Et cela de manière beaucoup plus économe que les climatiseurs classiques et avec un impact écologique réduit. Non seulement il s’agit d’une solution bas carbone, mais elle ne rejette pas de chaleur dans l’air extérieur et ne contribue donc pas à l’effet d’îlot de chaleur urbain, à l’origine de la surchauffe des villes en période de canicule.


La vague de chaleur de fin juin et de début juillet 2025, où 38 °C ont été mesurés à Paris, rappelle que le refroidissement des bâtiments sera un enjeu crucial pour le confort et la sécurité de leurs occupants dans les prochaines années et décennies. Cela fait les beaux jours de la climatisation : en France, la fraction des ménages possédant un climatiseur est passée de 5 % en 2005 à 25 % en 2020.

Mais se tourner vers les climatiseurs pour refroidir nos bâtiments pose question : ces appareils consomment beaucoup d’électricité.

À l’échelle mondiale, le refroidissement des bâtiments représentait, en 2016, 18,5 % de la consommation totale d’électricité, contre 13 % seulement en 1990. L’Agence internationale de l’énergie (AIE) table d’ailleurs sur une forte augmentation du nombre de climatiseurs à l’échelle mondiale, avec un taux d’équipement des ménages qui devrait passer de 30 % en 2016 à plus de 60 % en 2050. Elle anticipe également que la climatisation pourrait devenir l’un des principaux contributeurs de la demande mondiale d’électricité dans les prochaines décennies.

L’autre inconvénient des climatiseurs est que, pour produire du froid, ils rejettent de la chaleur à l’extérieur – ce qui contribue localement à la surchauffe urbaine.

À titre d’exemple, à Paris, les climatiseurs sont typiquement de petits équipements de ce type, de 6 à 70 kW par unité. Il a été démontré que leur utilisation pourrait augmenter de 0,5 à 2 °C la température à Paris en été, amplifiant ainsi l’effet d’îlot de chaleur urbain bien connu dans les villes. Lors des vagues de chaleur, ce microclimat sera d’autant plus exacerbé que le nombre de canicules par an va augmenter dans le futur, passant de neuf recensés à Paris entre 1960 et 1990 où la température maximale a atteint 38 °C, à potentiellement une par an à l’horizon 2100.

Une solution pour refroidir les bâtiments sans surchauffer l’air extérieur alentour serait de mobiliser la fraîcheur de notre sous-sol. La géothermie représente ainsi une piste sérieuse non seulement pour le chauffage à la saison froide, mais également pour le confort d’été.




À lire aussi :
Climatisation : quelles alternatives au quotidien, quelles recherches pour le futur ?


Une solution économique qui ne génère pas d’îlot de chaleur

À quelques mètres de profondeur, en France, le sous-sol se trouve à une température constante de 12 °C toute l’année. Puis en moyenne, la température augmente en fonction de la profondeur, d’environ 3,5 °C tous les 100 mètres. À 100 mètres de profondeur, cette température est donc de 15/16 °C, et à 200 mètres de profondeur, elle est d’environ 20 °C. À moins de 200 mètres, le sous-sol représente donc une source de fraîcheur, si on vise une température inférieure à 20 °C.

Cette fraîcheur est abondante, mobilisable quasiment partout sur notre territoire, et peut être ainsi produite localement. C’est une solution de refroidissement bas carbone et économe, non intermittente et quasiment inépuisable. La solution serait donc de mieux utiliser cette source de fraîcheur en été, et inversement, de chaleur en hiver.

Mobiliser la fraîcheur du sous-sol pour produire du froid et rafraîchir les bâtiments est une solution technique mature, déjà déployée un peu partout dans le monde. Elle consiste à transférer des calories du sous-sol aux bâtiments par l’intermédiaire d’un ou plusieurs forages de quelques mètres à une centaine de mètres de profondeur, alimentant une pompe à chaleur géothermique (PACg). Cette géothermie est appelée « géothermie de surface », avec des forages d’une profondeur inférieure à 200 mètres.

Comment fonctionne une pompe à chaleur géothermique ?

À l’heure actuelle, cette technologie est surtout utilisée pour le chauffage. Pourtant, si la PACg est réversible, elle permet également de produire du froid en été. Or, ce type de pompe à chaleur (PAC) est pour l’instant utilisée de manière négligeable en France.

Pour le chauffage par PACg, relevant de la géothermie de surface classique, deux techniques sont principalement mises en œuvre.

La première (illustration de droite sur le schéma ci-contre) consiste à capter de l’eau souterraine à environ 12 à 15 °C pour produire du chaud. Comme des calories sont prélevées dans cette eau pour le chauffage, de l’eau plus froide (d’une température comprise entre 5 et 10 °C) est alors réinjectée à la même profondeur dans un autre forage localisé à plusieurs dizaines de mètres. On parle alors de doublet géothermique sur nappe phréatique, c’est-à-dire utilisant l’eau souterraine.

La deuxième technique (illustration de gauche sur le schéma ci-dessus) est celle de la PACg sur sonde géothermique verticale. Elle consiste à placer dans un trou de forage, à une profondeur de quelques mètres à une centaine de mètres, une sonde géothermique. Celle-ci est généralement constituée d’un tube en U en polyéthylène haute densité et contenant un fluide caloporteur constitué d’eau glycolée. Comme le fluide caloporteur est réinjecté à une température d’environ 0 °C, le sous-sol se refroidit de quelques degrés en profondeur, typiquement de 3 °C à 1 mètre du forage, ce qui reste suffisant pour réchauffer le fluide caloporteur qui alimente la PACg.

Les deux techniques permettent toutes deux d’alimenter une PACg, dont le coefficient de performance (COP) est généralement de 4 à 5. C’est-à-dire que pour 1 kWh d’électricité consommé par la PACg, 4 à 5 kWh de chaud ou de froid seront restitués. C’est beaucoup plus efficace que de capter l’air chaud extérieur pour alimenter une PAC aérothermique (PACa) – c’est-à-dire, fonctionnant à l’air – pour produire du froid. De plus, la chaleur émise par la PACg est injectée dans le sous-sol, et non dans l’air extérieur comme avec une PACa, évitant de créer des îlots de chaleur urbains (ICU).

Une autre technique est celle du « géocooling ». La fraîcheur du sous-sol est alors directement utilisée dans les réseaux de ventilation et de refroidissement du bâtiment (plancher/plafond rafraîchissant, ventilo-convecteur, centrale de traitement de l’air…), sans alimenter de PACg. Il s’agit alors d’un rafraîchissement dit passif dans la mesure où il ne consomme quasiment pas d’électricité, hormis les pompes de circulation du fluide caloporteur dans le sous-sol et le bâtiment. Il se caractérise par des coefficients de performance imbattables : de 30 à 50 ! C’est-à-dire, pour 1 kWh consommé, 30 à 50 kWh de fraîcheur peuvent être restitués.




À lire aussi :
La géothermie, enjeu majeur pour la neutralité carbone des zones urbaines


Stocker de la chaleur dans le sous-sol pour l’hiver

Un autre avantage de la géothermie pour le refroidissement des bâtiments est que la chaleur évacuée dans le sous-sol en été par la PACg peut être bien utile quelques mois plus tard, à la saison froide. En effet, cela permet de réchauffer localement le sous-sol de quelques degrés autour des sondes, ou encore de réinjecter de l’eau plus chaude (jusqu’à 25 °C) directement dans l’aquifère, ce qui permet de stocker de la chaleur.

Comme il s’agit d’une pompe à chaleur réversible, on peut inverser le système entre l’été et l’hiver. On peut alors « récupérer » en été les calories perdues en hiver, ce qui permet d’augmenter le rendement annuel de l’installation géothermique.

Ce stockage de chaleur peut encore être amplifié par l’ajout de ressources supplémentaires, comme des panneaux solaires thermiques (l’eau chauffée peut être directement réinjectée dans les puits) ou photovoltaïques (l’électricité produite en excès la journée en été alimente alors une résistance qui chauffe de l’eau). Dans le cas de bâtiments industriels, on peut aussi récupérer la chaleur dite fatale, produite par les procédés industriels (par exemple, par les data centers) pour chauffer l’eau réinjectée dans les puits.

Il s’agit donc de réchauffer le sous-sol de manière active, soit en réinjectant l’eau chaude (à environ 40-50 °C) directement dans la nappe phréatique, soit dans le sous-sol via les sondes géothermiques. Cette géothermie « réversible », avec un couplage du chauffage en hiver et rafraîchissement en été, est le grand avantage de cette ressource, d’autant plus que ce couplage permet l’optimisation des systèmes de chauffage et de rafraîchissement.

Ambitions politiques et potentiel inexploité

Invité le 29 juin 2025 lors du Grand Jury RTL-Le Figaro-Public Sénat-M6, le premier ministre François Bayrou a rappelé que la géothermie permet de rafraîchir en économisant plus de 90 % de l’électricité. Lorsqu’il était haut-commissaire au plan, il avait lui-même reconnu l’intérêt de développer la géothermie de surface (à moins de 200 mètres de profondeur) pour chauffer et refroidir des bâtiments.

François Bayrou, premier ministre, invité du Grand Jury RTL-Le Figaro-Public Sénat-M6, le 29 juin 2025 (passage à 00:37:00).

Lors de sa visite au centre opérationnel de gestion des crises du ministère de l’intérieur le 1er juillet 2025, la ministre de la transition écologique Agnès Pannier-Runacher rappelait l’enjeu à rafraîchir sans renvoyer de la chaleur à l’extérieur.

Malgré son potentiel, la géothermie pour le chauffage (hors production d’électricité) n’a produit qu’un million de térajoules (TJ) en 2020, soit seulement 0,17 % de la production annuelle mondiale d’énergie, qui s’élevait à 580 millions de TJ. En France, la géothermie a produit 7 térawattheures (TWh) de chaleur en 2023 : 2,3 TWh pour la géothermie profonde et 4,7 TWh pour la géothermie de surface (utilisée pour les PACg)… soit 0,49 % des 1 420 TWh d’énergie produite en France en 2023.

Dans notre pays, les PACg ne représentent aujourd’hui que 2 % du parc des PAC. Le coût de leur installation peut être un frein : il représente le double de celui d’une chaudière à gaz. Mais une fois amorti, leur coût de fonctionnement est très faible, et même inférieur au coût d’exploitation d’une pompe à chaleur à air (PACa).

L’installation d’une PACg peut également s’avérer complexe, car elle nécessite de forer le sous-sol avant de mettre en place le système de chauffage et climatisation. Peu de professionnels maîtrisent cette technologie ou la proposent spontanément, elle est souvent mise en œuvre à l’initiative du propriétaire.

Il y a un vrai sujet sur comment développer la géothermie et la rendre plus incitative. Nul doute que les prochaines années seront charnières pour mieux développer la filière. Le 28 juillet 2025, le ministère de l’économie a présenté ses sept mesures pour accélérer le développement d’une énergie renouvelable et locale. Par exemple, simplifier les démarches administratives et améliorer la communication sur la géothermie.

Une autre des mesures vise également à réduire les délais de confidentialité de certaines données d’explorations géologiques : aujourd’hui, les entreprises qui font des forages pour étudier le sous-sol doivent garder leurs résultats confidentiels pendant 10 ans. Cela permettrait de les valoriser plus rapidement pour lancer de nouveaux projets de géothermie tout en réduisant les coûts d’exploitation.

The Conversation

Benjamin Brigaud est également membre de l’Institut universitaire de France (IUF). Il a reçu divers financements publics, de l’Université Paris-Saclay, de l’Institut universitaire de France et de l’Agence nationale de la recherche (ANR-22-EXSS-0011).

ref. La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir – https://theconversation.com/la-geothermie-plus-ecologique-et-econome-que-la-climatisation-classique-pour-rafraichir-262661