Frustration in hetero relationships has a long history — that’s why today’s crisis looks so familiar

Source: The Conversation – Canada – By Meaghan Furlano, PhD Student, Sociology, Western University

“Many women tell me they want to have a man in their life, but they are no longer willing to be the only person giving in the relationship. They don’t want to be with a man who needs to be taken care of. In that case, it’s easier and more pleasant to be without a man.”

These words speak eerily to the current moment. Yet their date of publication? 1984.

You’ll find them in psychotherapist and acclaimed author Marjorie Hansen Shaevitz’s The Superwoman Syndrome, one of the earliest books to grapple with the superwoman myth — the idea that women can effortlessly balance work and family responsibilities in workplaces not designed to support them. And that any evidence of struggle is interpreted as a personal failing rather than a systemic one.

Despite its articulation of the burdens women face in the formal economy, its solutions to what is now called the the “second shift” involve telling women to make lists and prioritize their responsibilities. These, of course, are hardly the strategies that will move the needle in improving women’s daily lives.

Similar frustrations appear in another influential work from the same period. In a report written by feminist Shere Hite, published in 1987, most American women described feeling frustrated with their relationships.

Ninety-eight per cent reported wanting more verbal closeness with the men they loved: more sharing of thoughts, feelings and plans, and more reciprocal curiosity. Eighty-three per cent reported being the ones to initiate deep conversations with their partners, and 63 per cent reported being met with “great resistance” when trying to get their partner to talk about their feelings.

Though these findings were released decades ago, their relevance raises questions about how much has really changed for women.

The media-fuelled illusion of novelty

Both Hite’s report and Shaevitz’s book were published long before the term “heteropessimism” or the decentring men trend came into vogue. They came out long before any of us were considering where we fell on the “is having a boyfriend embarrassing?” debate. (My take? No relationship status should be slotted hierarchically above or below another).

Yet these publications capture the mood of contemporary heterosexual culture to a tee: women continue to be doing the most emotional, cognitive and unpaid housework and child-care labour, and women continue to be sick and tired of doing it.

News outlets today report on the “great divide” between men and women, particularly among younger generations. They discuss how women are turning to voluntary celibacy and/or rejecting heterosexual dating outright. They frame these trends and attitudes as out of the norm: for the first time, women are opening up about how they feel. But the truth is, these trends are normative and historically patterned.

It seems that women’s frustration — with the unpaid labour they are culturally expected to perform, with the men who won’t share in it, and with the social institutions that fail to support its redistribution — is the heartbeat of history. But it doesn’t need to be so.

Frustration keeps reproducing itself

Unlike what “tradwife” influencers will have you believe, working women are, on average, less depressed and have higher rates of self-esteem than stay-at-home mothers. Yet working mothers still face anxieties and role conflicts.

Where does this anxiety come from? Is it because women are “naturally” suited to the home and therefore ill-equipped for work in the formal economy, as tradwife influencers suggest? Or is it something else?

Looking at the problem from a sociological lens, it’s clear that anxiety results from the structures of paid work (which have not changed, despite women and the demographic composition of the workforce changing) and the distressing (and at times violent) contours of contemporary heterosexual culture, in which men continue to free-ride off women’s unpaid labour.

Anxieties also pervade as many governments fail to mandate paid parental and care leave, workplaces fail to offer family-friendly policies, and the ideology of individualism, in contrast to collectivism and communal care, remains dominant. Above all, anxiety is rife because cultural beliefs about gender, parenthood and work have remained stubbornly resistant to change.

Every few years, a flurry of news articles and social media posts lament women’s unpaid work and individual men are tasked with becoming equal helpers in the home. While individuals have their part to play in facilitating this cultural transformation, sociologists like myself are interested, too, in the role that social institutions, such as work, media and government, play in structuring individual lives.

Why hasn’t change happened yet?

We set ourselves up for failure when we hold individual men responsible but fail to provide them with cultural frameworks of masculinity that laud men’s contributions to housework and child care, and when we fail to vote for (or don’t have the option of voting for) governments that will introduce paid parental leave, regulate corporations to enhance worker power and fund community-building initiatives.

To be sure, frameworks and representations of caring masculinities do exist, but they’re not often shown in mainstream media. This is why the representation of communicative and consensual masculinities that reject male domination in television shows like Ted Lasso, Shrinking and Heated Rivalry matters. They demonstrate to men alternative modes of being, living and relating to others in our world today.




Read more:
_Heated Rivalry_ shows how queer joy can disrupt hockey’s culture of masculinity


Representation matters, but so does concrete political transformations.

For too long, work and family have been treated as separate domains. Perhaps the solution lies in their convergence: a radical reimagining of how work and parenthood ought to look.

Potential strategies include disrupting gendered occupational segregation, raising the wages of feminized work, decreasing hours of paid work and building a normative definition of masculinity centred around care.

Otherwise, we’re bound to keep having the same conversations, year after year, decade after decade — like we have been.

The Conversation

Meaghan Furlano does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Frustration in hetero relationships has a long history — that’s why today’s crisis looks so familiar – https://theconversation.com/frustration-in-hetero-relationships-has-a-long-history-thats-why-todays-crisis-looks-so-familiar-274486

Epiaceratherium itjilik: The rhino that lived in the Arctic

Source: The Conversation – Canada – By Danielle Fraser, Adjunct Research Professor, Department of Biology, Carleton University

Paleontologists at the Canadian Museum of Nature have recently been studying the skeletal remains of a rhinoceros. This might not sound remarkable at first, but what makes these remains fascinating is that they were found Devon Island in the Canadian Arctic.

Today, mammals inhabit nearly every corner of the Earth. In Asia, Europe and North America, mammals arrived via three routes, one over the Bering Strait and two over the North Atlantic.

The Bering Land Bridge is the best known, having enabled the arrival of humans in North America approximately 20,000 years ago and shaped the population genetics of animals such as bears, lions and horses.

Less well known are the two routes that traversed the North Atlantic, one from the Scandinavian Peninsula over Svalbard and Greenland, and another from Scotland over Iceland to Greenland and the Canadian Arctic.

However, it has typically been thought that land animals could not have crossed the North Atlantic by the Early Eocene, a period around 50 million years ago when the Earth’s climate was warmer.

However, the Arctic rhino’s remains provide tantalizing evidence that land mammals were able to traverse the North Atlantic using frozen land bridges much more recently than the Early Eocene.

A rhinoceros in the Arctic

Danielle Fraser explains her team’s research on the Arctic rhinoceros. (Canadian Museum of Nature)

The new species of rhinoceros was discovered from a nearly complete specimen collected from the Haughton Formation of Devon Island in Nunavut — lake sediments formed in an asteroid impact crater that likely date to the Early Miocene, around 23 million years ago.

The sediments of the Haughton Formation preserve plants, mammals and birds, among others. The majority of the rhinoceros was collected in the 1980s by paleontologist Mary Dawson and her team, with additional collections by paleontologists Natalia Rybczynski, Marisa Gilbert and their team in the 2010s.

The rhinoceros lacked a horn, which is common among extinct rhinos. It is remarkable, however, in possessing features of much more ancient forms, like teeth of forms many millions of years older. It also has a fifth toe on the forefoot, which is rare among rhinoceroses.

Anatomical comparison and evolutionary analysis suggest the specimen belongs to an existing genus, Epiaceratherium, found only in Europe and western Asia. In naming the new species, the team consulted with Jarloo Kiguktak, an elder from the nearest Indigenous community to the Haughton Crater, Aujuittuq (Grise Fiord). Together, they named it Epiaceratherium itjilik. Itjilik is an Inuktitut word meaning frost or frosty, an homage to the Arctic setting where the specimen was found.

Most surprisingly, the team’s evolutionary analysis placed E. itjilik closest to the European species of Epiaceratherium. This indicates that its ancestors likely crossed from Europe to North America via the North Atlantic at some point during the late Eocene period around 33-38 million years ago.

Bio-geographic analyses further revealed a surprisingly high number of rhinoceros crossings over the North Atlantic directly between Europe and North America, some in the last 20 million years. While a finding of such a recent crossing via the North Atlantic has often been considered unlikely, emerging geological evidence tells a different story.

How did rhinos get to the Arctic?

Today, land animals are impeded from crossing between Europe and North America by several deep, wide waterways. The Faroe Islands, Iceland and Greenland are separated by the Faroe-Bank Channel, Faroe Shetland Channel and the Denmark Strait. Between the Scandinavian Peninsula, Svalbard and Greenland are the Barents Sea and Fram Strait. It is believed that land animals could traverse at least one of these areas only up until the Early Eocene about 50 million years ago.

Recent studies, however, are starting to paint a more complex picture of North Atlantic geological change. Estimates for the timing of formation of the various channels that now break up North Atlantic land masses are highly variable.

Mathematical modelling suggests a highland connected Svalbard to northern Europe as recently as the 2.7 million years ago. An array of new data also suggest the Fram Strait was shallow and narrow until the Early Miocene, around 23 million years ago. The Faroe-Shetland channel may have opened between 50 and 34 million years ago, while the Iceland-Faroe Channel and Denmark Strait were submerged later, 34 to 10 million years ago.

This suggests that rhinoceroses could have walked on land for at least part of their journey across the North Atlantic. They could possibly have swum the relatively short distances between land masses but the team hypothesized that seasonal sea ice may also have facilitated their movement.

Seasonal ice

More than 47 million years ago, the Arctic Ocean and surrounding regions were ice-free all year. Ocean cores collected from the Arctic Ocean — samples of mud, sand and organic material drilled from the seafloor — contain evidence of ice-rafted debris during the Middle Eocene, approximately 47 to 38 million years ago. This indicates the presence of seasonal ice.

Another ocean core collected between Greenland and Svalbard also contains ice-rafted debris originating from across the Arctic dating from between 48 to 26 million years ago. What is emerging, therefore, is the possibility that land animals crossed the North Atlantic by a combination of routes formed over land and seasonal ice.

Vertebrate fossils from the islands that once comprised the North Atlantic land bridges are extremely rare. Given that much of the land bridges are now submerged, direct evidence for how animals spread across the North Atlantic may be lost.

Bio-geographic studies like the one conducted by the team at the Canadian Museum of Nature highlight how discoveries in the Arctic are reshaping what we know about mammal evolution. These insights further our understanding of how animals moved across our planet.

The Conversation

Danielle Fraser received funding from the Natural Sciences and Engineering Research Council of Canada (NSERC
RGPIN-2018-05305). Natalia Rybczynski, who co-authored the study mentioned in this article, received funding from the W. Garfield Weston Foundation. Mary Dawson, a co-author on the study, received funding for field work from National Geographic.

ref. Epiaceratherium itjilik: The rhino that lived in the Arctic – https://theconversation.com/epiaceratherium-itjilik-the-rhino-that-lived-in-the-arctic-269484

‘Sinners’’ 16 Oscar nods signals a broader appetite for imaginative Black cinema

Source: The Conversation – Canada – By Cornel Grey, Assistant Professor in Department of Gender, Sexuality, and Women’s Studies, Western University

When Sinners recently received a record-breaking 16 Oscar nominations, the response was overwhelmingly celebratory, but not uncomplicated.

The nominations capped a year in which the film had already defied expectations at the box office. An original horror film with no built-in franchise, Sinners broke multiple domestic and international records and earned more than US$300 million during its theatrical run.

Critics also responded strongly, praising Ryan Coogler’s direction and the film’s blend of spectacle and social commentary. Those reviews helped cement Sinners as both a commercial hit and a critical success.

Sinners doesn’t resolve longstanding debates about Black recognition or racial equity in Hollywood. However, its nominations arrive at a moment that suggests wider audience interest — and possible film industry openness — to Black films that are culturally specific, formally ambitious and uninterested in proving their importance through suffering alone.

Questions of popular success and excellence

The Academy of Motion Picture Arts and Sciences — the group of just over 10,000 film industry professionals who vote on Oscar nominations and winners — has long grappled with how to balance popular success and its self-image as an arbiter of artistic excellence.

In the wake of declining viewership, the academy proposed a new category in 2018 for “Outstanding Achievement in Popular Film.”

The plan was met with significant backlash from commentators who were offended by the implication that commercially successful films couldn’t also be great art. The idea was shelved amid concerns that it would undermine the Oscars’ standards instead of bridging the gap between popular taste and critical recognition.

Sinners is not a traditional prestige drama designed for the awards circuit. It is a piece of work that refuses easy classification, blending elements of horror, musical, Southern Gothic and Black folklore into a form that balances excess and control.

As director Ryan Coogler has said, the film resists categorical conventions, dubbing it “genre-fluid.”

‘Sinners’ official trailer.

Directorial innovation

Coogler’s directorial innovation is central to the cultural significance of the film’s nominations.

Historically, the Oscars have rewarded Black films that conform to a narrow range of familiar narratives. Stories centred on racial trauma, historical injustice, moral redemption or social pathology have been far more likely to receive acknowledgement than films that foreground pleasure and fantasy.

Best Picture winners like 12 Years a Slave and Green Book, along with heavily awarded films such as Precious and The Help, illustrate this pattern, as does Halle Berry’s Best Actress win for Monster’s Ball, a performance structured around sexualized suffering and endurance.

Acclaimed Black films that don’t focus on trauma or suffering have been long overlooked by the academy.

Movies like Do the Right Thing, Eve’s Bayou, Girls Trip and Sorry to Bother You received strong critical and cultural support, but were largely ignored during Oscar voting.

Rather than critiquing those films or performances, this pattern points to how Hollywood taste — reflecting racialized assumptions and values — shapes what kinds of Black stories are recognized as important and deserving of reward.

Black creative achievement and possibility

Sinners does something different. It bends and unsettles the frames that tell audiences how to read a film. Vampires, music, violence, sex and history are woven together in a way that invites audiences in, without stopping to explain or defend each choice.

The film draws on familiar genre esthetics that white audiences recognize (like horror, spectacle, supernatural myth) but it refuses to translate its cultural references or soften its Black specificity.

Viewers unfamiliar with Black Southern folklore, diasporic spiritual traditions or the film’s musical and historical cues may miss things. The film does not slow down to catch them up.

Award bodies’ reception

The film’s success also raises questions about how awards bodies respond when Black creative experimentation gains critical acclaim.

A recent example comes from the Recording Academy. After Beyoncé won Best Country Album in 2025, the Grammys split the category into “traditional” and “contemporary” — a change that expanded recognition while also reintroducing distinctions.




Read more:
Beyoncé’s ‘Cowboy Carter’ transmits joy, honours legends and challenges a segregated industry


The move echoed earlier controversies around genre-labelling, including debates over the now-retired “urban” category. It also underscored how recognition can be followed by new forms of sorting rather than lasting structural change.

Wider shift in Black creative possibility

The risk is that Sinners is celebrated as a one-off, rather than understood as part of a wider shift in Black creative possibility.

Some conservative responses have framed Sinners less as an artistic achievement and more as an example of cultural overreach, reading its genre play and historical remixing as ideological provocation rather than creative labour.

Alongside this, the film’s record-breaking nominations are likely to be interpreted by some viewers or critics as further evidence of a so-called “woke era” in awards culture, a framing that tends to downplay the craft, ambition and substance of works featuring Black talent.

These reactions reveal ongoing anxieties over who gets to reshape tradition, and how recognition by industry powerbrokers is interpreted when it is attached to Black cultural production.

Reputational weight, star power

Sinners could take these creative risks in part because of the reputational weight behind it.

Coogler’s track record of commercially successful films, combined with the star power of Michael B. Jordan and their history of delivering profitable collaborations, created a level of confidence among funding studios that is rarely extended to Black filmmakers more broadly.

The uneven distribution of that creative latitude and resourcing remains visible across the industry, where many Black directors continue to face funding barriers for innovative or less conventional projects.

Challenging esthetic norms

The academy recently introduced representation and inclusion standards for Best Picture eligibility that require films to meet benchmarks for on-screen representation, creative leadership, industry access or audience outreach to be considered for nomination.

These measures are aimed at expanding opportunities for underrepresented groups, yet they focus on who appears in and works on films rather than on how films innovate or challenge esthetic norms.

As a result, longstanding assumptions about genre bias and what counts as quality cinema are largely unexamined, even as the rules change around how films qualify for consideration.

Works that trust audiences

The recognition of Sinners by the academy points to a widening space for Black films rooted in lived experience, place and history. Similar dynamics are visible elsewhere.

Recent global successes like K-Pop Demon Hunters show that viewers are drawn to genre-blended, culturally grounded stories that stimulate the imagination rather than explain themselves away. These works trust audiences to enter unfamiliar worlds without constant translation.




Read more:
With _KPop Demon Hunters_, Korean women hold the sword, the microphone — and possibly an Oscar


Sinners belongs to this moment. Its record-breaking nominations expand the range of Black cinema visible at the highest levels of recognition and quietly signal greater room for formal experimentation. The film treats Black creativity as something that can include visual excess, genre experimentation and narrative openness, and still be recognized as artistically rigorous work.

The Conversation

Cornel Grey does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. ‘Sinners’’ 16 Oscar nods signals a broader appetite for imaginative Black cinema – https://theconversation.com/sinners-16-oscar-nods-signals-a-broader-appetite-for-imaginative-black-cinema-274191

Pourquoi le choix de Donald Trump pour la présidence de la Fed a-t-il fait chuter l’or et l’argent ?

Source: The Conversation – in French – By Henry Maher, Lecturer in Politics, Department of Government and International Relations, University of Sydney

Alors que Donald Trump multiplie les attaques contre la Fed, le choix de Kevin Warsh peut être lu comme un signal paradoxal envoyé aux marchés : préserver, malgré tout, la crédibilité de la politique monétaire américaine dans un monde en recomposition.


Après des mois de spéculations, Donald Trump a confirmé qu’il nommerait Kevin Warsh au poste de prochain président de la Réserve fédérale. Cette nomination était très attendue dans le contexte du conflit persistant entre le président américain et la Fed, ainsi que de ses tensions avec l’actuel président de l’institution, Jerome Powell.

L’annonce a provoqué une réaction immédiate sur les marchés, avec un net décrochage de l’or et de l’argent. Après plusieurs mois de records et de valorisations étirées, les prix au comptant de l’or et de l’argent ont chuté respectivement de 9 % et de 28 %. Le marché boursier américain a également reculé, les principaux indices enregistrant tous des pertes modérées.

Mais dans le climat de défiance suscité par les tentatives d’ingérence de Donald Trump à l’égard de la Fed, ce décrochage des marchés peut, ironiquement, se lire comme un premier signal de confiance accordé à Kevin Warsh, semblant valider sa légitimité pour le poste et miser sur son indépendance future.

Pour saisir cette apparente contradiction, il faut la replacer dans le cadre du bras de fer de longue date entre Trump et la Réserve fédérale et prendre en compte le rôle crucial que joue l’indépendance des banques centrales dans l’architecture financière mondiale contemporaine.

La guerre de Trump contre la Fed

L’année écoulée a été marquée par un affrontement sans précédent entre le président états-unien et la Réserve fédérale. Donal Trump avait lui-même nommé l’actuel président de la Fed, Jerome Powell, en 2017. Mais la relation s’est rapidement détériorée lorsque Powell n’a pas abaissé les taux d’intérêt aussi rapidement que Trump l’exigeait. Fidèle à son style outrancier, Donald Trump a depuis traité Powell de « clown » souffrant de « sérieux problèmes mentaux », ajoutant : « J’adorerais le virer ».

Cette guerre de mots a finalement glissé vers le terrain judiciaire. Le Department of Justice a annoncé l’ouverture d’une enquête visant la gouverneure de la Fed Lisa Cook, soupçonnée de fraude liée à d’anciens documents de prêts immobiliers. Puis, le mois dernier, dans une escalade spectaculaire, le ministère de la Justice a ouvert une enquête pénale retentissante contre Jerome Powell, portant sur des soupçons de dépenses excessives lors de la rénovation des bâtiments de la Réserve fédérale.

Les deux séries d’accusations sont largement considérées comme dénuées de fondement. Donald Trump a néanmoins tenté de s’appuyer sur cette enquête pour justifier le limogeage de Lisa Cook. L’affaire est actuellement examinée par la Cour suprême des États-Unis.

Jerome Powell a vivement répliqué à Trump, affirmant que ces menaces judiciaires étaient :

« la conséquence du fait que la Réserve fédérale fixe les taux d’intérêt sur la base de ce que nous estimons, en toute indépendance, être dans l’intérêt général, plutôt qu’en fonction des préférences du président ».
Jerome Powell a reçu le soutien de 14 dirigeants de banques centrales à travers le monde, qui ont rappelé que « l’indépendance des banques centrales est un pilier de la stabilité des prix, financière et économique ».

Par le passé, les ingérences présidentielles dans les affaires de la Fed ont été l’un des facteurs majeurs de la crise de stagflation des années 1970. Plus récemment, l’Argentine et la Turquie ont toutes deux traversé de graves crises financières provoquées par des atteintes à l’indépendance de leurs banques centrales.

Qui est Kevin Warsh ?

Kevin Warsh est un ancien banquier et ex-gouverneur de la Réserve fédérale. Il a également exercé les fonctions de conseiller économique auprès de deux présidents américains : George W. Bush et Donald Trump.

Dans un premier temps, le président américain semblait plutôt enclin à choisir l’actuel directeur du National Economic Council, Kevin Hassett. Mais ce dernier était largement perçu comme trop étroitement aligné sur Trump, ce qui a ravivé les craintes d’une remise en cause de l’indépendance de la Fed. Kevin Warsh présente un profil plus indépendant et bénéficie d’une réputation de « faucon » en matière de lutte contre l’inflation.

Qu’est-ce qu’un « faucon » ?

La Réserve fédérale est chargée de fixer les taux d’intérêt aux États-Unis. Schématiquement, des taux bas peuvent stimuler la croissance économique et l’emploi, mais au risque d’alimenter l’inflation. À l’inverse, des taux élevés permettent de contenir l’inflation, au prix d’un ralentissement de l’activité et d’une hausse du chômage.

Trouver le juste équilibre entre ces objectifs constitue le cœur de la mission de la Réserve fédérale. L’indépendance des banques centrales est cruciale pour que cet arbitrage délicat repose sur les meilleures données disponibles et sur les besoins de long terme de l’économie, plutôt que sur des objectifs politiques à court terme.

On qualifie de « faucon » anti-inflation un banquier central qui donne la priorité à la lutte contre la hausse des prix, par opposition à une « colombe », davantage encline à privilégier la croissance économique et l’emploi.

Lors de son précédent passage à la Réserve fédérale, Kevin Warsh s’est forgé une solide réputation de « faucon » en matière d’inflation. Même au lendemain de la crise financière mondiale de 2008, Warsh se montrait davantage préoccupé par les risques inflationnistes que par la situation de l’emploi.

Au regard des conflits passés entre Donald Trump et Jerome Powell autour de la baisse des taux d’intérêt, le choix de Warsh peut donc, à première vue, surprendre.

Plus récemment toutefois, Kevin Warsh a infléchi sa position, reprenant à son compte les critiques de Trump à l’égard de la Fed et ses appels à des taux d’intérêt plus bas, dans la lignée de tribunes dénonçant le pilotage actuel de l’institution. Reste à savoir si cet alignement perdurera, ou si ses réflexes de faucon reprendront le dessus, au risque de raviver à terme un nouveau conflit avec Trump.

La réaction des marchés

Le décrochage de l’or et de l’argent, ainsi que le repli des marchés boursiers, suggèrent que les investisseurs jugent désormais des baisses de taux moins probables avec Kevin Warsh qu’avec d’autres candidats potentiels.

Les prix de l’or et de l’argent ont tendance à grimper en période d’instabilité ou lorsque les craintes d’inflation s’accentuent.

Les précédents records s’expliquaient par une combinaison de facteurs, parmi lesquels l’instabilité géopolitique, les inquiétudes autour de l’indépendance de la Fed et une dynamique spéculative marquée.

Le fait que l’annonce de la nomination de Warsh ait déclenché une correction sur les métaux précieux indique que les investisseurs anticipent une inflation plus faible et une plus grande stabilité financière. La hausse concomitante du dollar américain vient conforter cette lecture.

La crédibilité de la Fed est en jeu

Ces dernières semaines ont été rythmées par de nombreux débats sur l’évolution de l’ordre mondial. Le Premier ministre canadien Mark Carney a ainsi récemment acté la fin de l’ordre international fondé sur des règles, appelant à s’affranchir de « l’hégémonie américaine ».

La domination mondiale du dollar américain demeure l’un des fondements centraux de cette puissance économique. Si Donald Trump reste ouvertement méfiant à l’égard de l’indépendance des banques centrales, le choix de Kevin Warsh laisse penser qu’il a conscience de l’enjeu que représente la crédibilité de la monnaie américaine et de la Réserve fédérale.

Rien ne garantit toutefois que cette lucidité suffira à contenir durablement son penchant pour l’ingérence dans la conduite de la politique monétaire.

The Conversation

Henry Maher ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi le choix de Donald Trump pour la présidence de la Fed a-t-il fait chuter l’or et l’argent ? – https://theconversation.com/pourquoi-le-choix-de-donald-trump-pour-la-presidence-de-la-fed-a-t-il-fait-chuter-lor-et-largent-274837

Freetown’s property tax is designed to plug funding gap: how Sierra Leone’s capital went about it

Source: The Conversation – Africa – By Astrid R.N. Haas, Research associate at African Centre for Cities, University of Cape Town

Property taxes remain one of the most underperforming sources of revenue for urban development across Africa. One reason is that they are often opposed by the economic elites and large property owners. Freetown, the economic and administrative hub of Sierra Leone, has successfully implemented a property tax regime aimed at raising revenue the city needs for its development.

Freetown is where 15% of the country’s population lives, out of a total population of nearly 9 million. The city accounts for 30% of Sierra Leone’s economic output as measured by gross domestic product (GDP). GDP in 2024 was nearly US$7 billion.

Urban economist Astrid R.N. Haas asked Manja Kargbo, who leads the Mayor’s Delivery Unit in the Freetown City Council, how Freetown pulled it off.


Can you walk us through the process Freetown went through to design and implement its property tax reform, from the initial idea to where you are today, including why you decided to focus on property tax reform?

Freetown’s property tax reform began in September 2019 with a recognition that the city’s revenue base was severely underutilised, and property tax offered a sustainable, locally controlled source of funding. Freetown could not rely on central government transfers to finance core urban services. In recent years these grants to the city have continued to fall.

Therefore, the reform was designed to increase the city’s own source revenue by improving fairness, transparency and compliance while modernising outdated property identification, valuation, billing and enforcement systems.

The reform process included:

  • Creation of a digital platform, (Moptax), to manage assessments, billing and payments.

  • A comprehensive valuation cycle supported by satellite imagery, field discovery and digital mapping.

  • Development of standard operating procedures for each stage of the tax cycle, from the identification of a new property within the city’s boundaries to enforcement.

  • Strategic engagement with stakeholders, including councillors, community leaders and taxpayers, to build trust and understanding.

  • A phased rollout of the new property tax system, starting with pilot testing, training of council staff and continuous feedback loops.

The reform has now reached a point where the city has institutionalised many of these processes, with the Freetown City Council administration taking the lead and the reform team providing technical support.

Property tax is often referred to as the “tax people love to hate”. How did you attain the necessary buy-in and a sense of fairness around Freetown’s new system?

Stakeholder engagement was central to the reform’s success.

Key strategies included:

  • digital town hall meetings across 31 wards to explain the reform and gather feedback

  • radio, posters, WhatsApp and community meetings to demystify the tax

  • transparent communication about how revenues would be reinvested locally, including a commitment to allocate 20% of ward-level revenue to community projects

  • engagement with councillors and the Communications Committee to ensure political buy-in and local ownership

  • a help desk and appeals process to address taxpayer concerns and ensure fairness.

Digital tools have been central to your reform. How did you ensure that technology worked for the city rather than the other way around?

Technology was designed to serve the reform, not drive it, reflecting lessons drawn from earlier property tax reforms in Sierra Leone and comparable cities where technology-led approaches had underperformed in the absence of political buy-in, administrative capacity and public trust.

We ensured this by:

  • building Moptax around the city’s operating cycles, so that digital processes aligned with operational needs

  • training Freetown City Council staff through a “train the trainer” model, ensuring local capacity to manage and adapt the system

  • using satellite imagery and GIS (Geographic Information System) mapping to improve accuracy, but validating data through fieldwork and appeals

  • creating dashboards and audit trails that supported transparency and accountability

  • ensuring that all digital tools were backed by policy decisions, council resolutions and community feedback.

What were some of the most unexpected challenges your team faced along the way, and how did you adapt?

Some of the key challenges included:

  • resistance to change from internal departments. This was addressed through structured training and leadership engagement.

  • bank reconciliation with property tax payments issues. This required deep dives with finance teams and meetings with bank representatives to resolve.

  • data tampering by enumerators and audit capacity gaps. This led to the creation of an internal audit framework and training for the audit department.

  • limited internet and technological infrastructure, such as sufficient data storgage capacity. This was mitigated by cloud hosting and procurement of equipment like MiFi devices and power banks.

  • repeated outreach efforts began to lose their effectiveness and residents became disengaged. The city then shifted towards multimedia and community-led messaging.

What advice would you give to other African cities that want to embark on property tax reform but feel daunted by where to start?

Start with clarity of purpose and build from the ground up:

  • Map your processes before digitising them. Technology should follow strategy.

  • Engage stakeholders early and often – reform is as much about trust as it is about systems.

  • Invest in training and documentation to build institutional memory.

  • Pilot, learn and adapt – don’t wait for perfection before starting.

  • Use data to drive decisions, but always validate it with field realities.

  • Celebrate small wins to build momentum and confidence.

The Conversation

Astrid R.N. Haas does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Freetown’s property tax is designed to plug funding gap: how Sierra Leone’s capital went about it – https://theconversation.com/freetowns-property-tax-is-designed-to-plug-funding-gap-how-sierra-leones-capital-went-about-it-268781

Should private sector executives sit on the boards of non-profits? There are risks and benefits

Source: The Conversation – Africa – By Ron Soonieus, Director in Residence, INSEAD

Serving on a non-profit board can be deeply fulfilling and beneficial to the cause – but only if you’re fully committed and prepared for the role.

It must be flattering to be offered a seat on the board of a non-profit organisation (NPO). After all, the non-profit sector has long valued for-profit executives for their business acumen, result-orientation and decision-making abilities.

Along with their expertise in areas such as finance, legal, human resources, marketing and management, the ability of for-profit executives to translate broad strategic goals into actionable decisions can help non-profit boards navigate complexity and ambiguity with greater confidence. They also often bring extensive networks that can open doors – be it for partnerships, fundraising or advocacy – which can significantly enhance an NPO’s ability to achieve its mission.

The appeal to serve on the board of an NPO may be an emotional one: service and meaning. As a bridge between the government, society and the business sector, NPOs play a vital role in addressing market and government failures. They advocate for accountability, counterbalance profit-driven motives, mediate between stakeholders, complement government services and even foster social innovation.

At the same time, non-profits have reached a transformation moment. As public donations shrink – a trend now accelerating with recent shifts in aid policies by the United States and Europe – non-profits must take a proactive approach by refining their priorities, strengthening operational resilience and preparing for future shocks.

But to achieve these, NPOs need strong leadership and effective governance. This is where the board comes in.

In an ideal world, the relationship can be mutually beneficial. But executives without prior board experience may struggle to transition from an “action-oriented” mindset to one of board oversight and, as a result, sometimes slip into micromanagement and undermine the delineation of roles between governance and management. Also, there is the question of fit.

Before embarking on the journey as a non-profit board member, it is critical for both the executive and NPO to assess their readiness and alignment. We’ve developed a set of questions to consider, drawing from our work in this field, as well as the insights gained from non-profit board members, executives, governance practitioners and academic experts whom we meet at Governance and Leadership Community of Practice meetings we’ve been organising regularly.

Assessing your motivation, capacity and commitment

Do I share a genuine passion for the non-profit’s mission and values? Would I feel fulfilled contributing to this cause, even if it didn’t yield professional benefits?

Do I have the time and energy to commit to this role? Am I truly prepared to attend meetings, participate in committees and provide support beyond the boardroom when required?

Can I balance this commitment with my professional and personal responsibilities? What impact might this role have on my other obligations? Can I really commit to the task, especially when it requires additional commitment in times of crisis?

Am I honest to myself and the organisation about my real motivation? Is it to give back, support a cause I’m passionate about, expand my network, for professional development, or a mix?

Evaluating your expertise

Can my skills and experience contribute to the non-profit’s success? Are there specific areas, such as strategy, fundraising or financial oversight, where I can add value?

Do I have a full appreciation of the specific complexities and challenges of non-profit governance? Am I prepared to navigate the differences between for-profit and non-profit operations, such as stakeholder dynamics, funding models and mission-driven objectives?

Understanding the role

Am I clear about the expectations and responsibilities of a board member in this organisation? Have I reviewed the organisation’s bylaws, financial status and strategic priorities to understand the role fully?

Do I understand (or am I willing to learn) the oversight role of a trustee or director? Can I maintain a strategic, supervisory perspective without micromanaging the management team?

Am I comfortable asking tough questions and holding the organisation accountable? Will I speak up when necessary to ensure transparency, ethical behaviour and good governance?

How can I align my expectations with the non-profit’s operating realities? Non-profits often lack the resources and support that for-profit organisations possess. Faced with a different operational reality, it can be challenging to understand whether what is being delivered is all that can be expected or if there is room to push for more.

Evaluating risks

Am I prepared to associate my personal reputation with this NPO? Have I researched the NPO’s reputation, leadership, financial health, bylaws and legal compliance, and am I willing to accept any potential risks that could impact my professional ambition?

Are there potential conflicts of interest? Could my professional role or personal interests lead to ethical challenges or perceived biases?

Am I prepared to use my network repeatedly? Engaging your network can be one of the most powerful ways to support a non-profit, whether for fundraising, partnerships or advocacy. However, you should consider whether you’re ready to tap your network repeatedly as the organisation’s needs arise.

Committing to learn and engage

Am I open to learning and adapting to the non-profit sector? Am I willing to invest time in understanding the mission, community and operational nuances of the non-profit world?

Can I work collaboratively with diverse stakeholders? Am I prepared to engage with and learn from individuals from varying professional, cultural and socioeconomic backgrounds?

Put mission at the core

Serving on a non-profit board can be rewarding, both personally and professionally. However, this role requires more than experience – it also demands knowledge of the NPO sector, self-awareness, intentionality and a genuine commitment to the organisation’s mission. A for-profit executive’s skills and experience can help shape the strategic direction and success, but only if approached with the focus, time and humility the role demands.

For non-profits, the inclusion of for-profit executives brings valuable expertise, networks and decision-making capabilities that can elevate their professionalism and impact. Yet, non-profits should not overestimate their added value and must ensure their boards are balanced, with diverse skills and perspectives that complement the organisation’s needs.

A final reflection for the passionate executive: If you truly care about the mission, periodically ask yourself (as well as your fellow board members and management): “Am I the best fit to help advance it?” Reflect on whether you are bringing your fullest value or if stepping aside might better serve the organisation and its purpose.

Ultimately, by prioritising the mission, both non-profits and for-profit executives can forge partnerships that build stronger, more effective organisations that drive meaningful and lasting change. Keeping the mission at the core ensures every decision contributes to lasting impact.

This article is published courtesy of INSEAD Knowledge, the portal to the latest business insights and views of INSEAD, The Business School for the World. Copyright 2025.

The Conversation

Caelesta Braun is affiliated with the Dutch Council for Public Administration

Agota Szabo and Ron Soonieus do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Should private sector executives sit on the boards of non-profits? There are risks and benefits – https://theconversation.com/should-private-sector-executives-sit-on-the-boards-of-non-profits-there-are-risks-and-benefits-261011

Ce que Donald Trump devrait apprendre de la chute de l’empire aztèque

Source: The Conversation – in French – By Jay Silverstein, Senior Lecturer in the Department of Chemistry and Forensics, Nottingham Trent University

L’assaut de la Teocalli par Cortez et ses troupes, tableau d’Emanuel Leutze (1848). Emanuel Leutze/Wikicommon, CC BY

La chute des Aztèques rappelle qu’un pouvoir fondé sur la force accumule des ennemis plus vite qu’il ne consolide des alliances. Une dynamique ancienne, aux résonances très contemporaines.


En 1520, des émissaires aztèques arrivèrent à Tzintzuntzan, la capitale du royaume tarasque, dans l’actuel État mexicain du Michoacán. Ils apportaient un avertissement de l’empereur aztèque Cuauhtémoc, mettant en garde contre l’arrivée d’étrangers étranges — les Espagnols — qui avaient envahi le territoire et représentaient une grave menace. Les émissaires demandèrent une audience auprès du souverain tarasque, le « Cazonci », le roi Zuanga. Mais Zuanga venait de mourir, très probablement de la variole apportée par les Espagnols.

Les relations entre les deux empires étaient tendues de longue date. Ils s’étaient affrontés sur la frontière occidentale dès 1476, livrant de grandes batailles et fortifiant leurs frontières. Les Tarasques disaient des Aztèques qu’ils étaient fourbes et dangereux — une menace pour leur existence même.

Ainsi, lorsque ces émissaires arrivèrent pour s’adresser à un roi déjà mort, ils furent sacrifiés et n’obtinrent audience avec lui que dans l’au-delà. À cet instant précis, le destin des Aztèques était scellé dans le sang.

L’empire aztèque ne s’est pas effondré faute de moyens. Il s’est écroulé parce qu’il avait accumulé trop d’adversaires, exaspérés par sa domination. C’est un épisode historique auquel le président américain, Donald Trump, devrait prêter attention, alors que sa rupture avec les alliés traditionnels des États-Unis se creuse.

Carl von Clausewitz et d’autres philosophes de la guerre ont exposé la différence entre force et puissance dans la conduite des affaires de l’État. Au sens le plus large, la puissance est un capital idéologique, fondé sur la force militaire et l’influence dans la sphère politique mondiale. À l’inverse, la force désigne l’usage de la puissance militaire pour contraindre d’autres nations à se plier à sa volonté politique.

Alors que la puissance peut se maintenir grâce à une économie solide, des alliances et une influence morale, la force, elle, s’épuise. Elle consomme des ressources et risque d’affaiblir à la fois le capital politique interne et l’influence mondiale qu’a un pays si son usage est perçu comme arrogant ou impérialiste.

L’empire aztèque s’est formé en 1428 sous la forme d’une triple alliance entre les cités-États de Tenochtitlan, Texcoco et Tlacopan, Tenochtitlan finissant par dominer l’ensemble. L’empire exerçait la force par des campagnes militaires saisonnières, tout en l’équilibrant par une dynamique de puissance fondée sur la mise en scène sacrificielle, la menace, le tribut et une culture de supériorité raciale.

Dans son usage à la fois de la force et de la puissance, l’empire aztèque était coercitif et reposait sur la peur pour gouverner. Les populations soumises à l’empire, comme celles engagées dans ce qui semblait être une guerre permanente, nourrissaient une profonde animosité et une forte défiance à l’égard des Aztèques. L’empire s’était ainsi construit sur des peuples conquis et des ennemis attendant la bonne occasion de renverser leurs maîtres.

Hernán Cortés, le conquistador espagnol qui finit par placer de vastes territoires de l’actuel Mexique sous la domination de l’Espagne, sut exploiter cette hostilité. Il noua des alliances avec Tlaxcala et d’autres anciens sujets des Aztèques, renforçant sa petite force espagnole par des milliers de guerriers autochtones.

Cortés mena cette force hispano-autochtone contre les Aztèques et les assiégea à Tenochtitlan. Les Aztèques n’avaient plus qu’un seul espoir : convaincre l’autre grande puissance du Mexique, l’empire tarasque à l’ouest, de s’allier à eux. Leurs premiers émissaires connurent un sort funeste. Ils tentèrent donc à nouveau leur chance.

En 1521, des envoyés aztèques arrivèrent une fois encore à Tzintzuntzan et rencontrèrent cette fois le nouveau seigneur, Tangáxuan II. Ils apportaient des armes en acier capturées à l’ennemi, une arbalète et une armure afin de démontrer la menace militaire à laquelle ils faisaient face.

Des envoyés aztèques présentant des armes au souverain tarasque.
Des émissaires aztèques présentant des armes espagnoles au roi tarasque comme preuve de la menace.
Codex Michoacan, CC BY-NC

Le roi tarasque prêta cette fois attention à l’avertissement. Il envoya une mission exploratoire à la frontière afin de déterminer s’il s’agissait d’une ruse aztèque ou de la vérité. À leur arrivée sur la frontière, les émissaires rencontrèrent un groupe de Chichimèques — un peuple de guerriers semi-nomades qui travaillaient souvent pour les empires afin de surveiller les frontières.

Lorsqu’on leur expliqua que la mission se rendait à Tenochtitlan pour évaluer la situation, les Chichimèques répondirent qu’il était trop tard. La ville n’était plus désormais qu’un lieu de mort, et eux-mêmes se rendaient auprès du roi tarasque pour offrir leurs services. Tangáxuan se soumit aux Espagnols l’année suivante en tant que royaume tributaire, avant d’être brûlé vif en 1530 par des Espagnols cherchant à savoir où il avait dissimulé de l’or.

Si les Tarasques avaient entretenu des relations politiques normales avec les Aztèques, ils auraient pu enquêter sur le message des premiers émissaires. On peut imaginer combien l’histoire aurait été différente si, lors du siège de Tenochtitlan, 40 000 guerriers tarasques — réputés bons archers — étaient descendus des montagnes de l’ouest. Il est peu probable que Cortés et son armée aient alors pu l’emporter.

La politique étrangère américaine

Les échecs de l’empire aztèque ne relevaient ni d’un déficit de courage ni d’une infériorité sur le plan militaire. Lors de leurs combats contre les Espagnols, les Aztèques ont à maintes reprises fait preuve d’adaptabilité, apprenant à affronter les chevaux et les navires armés de canons. L’échec résidait dans une faille fondamentale de la stratégie politique de l’empire — celui-ci reposait sur la coercition et la peur, laissant ainsi en réserve une force prête à contester son autorité au moment où il était le plus vulnérable.

Depuis 2025 et le retour de Trump à la Maison-Blanche pour un second mandat, la politique étrangère américaine s’inscrit dans cette logique. L’administration Trump a récemment mis en avant une puissance coercitive au service d’ambitions mêlant richesse, visibilité et affirmation de l’exceptionnalisme américain ainsi que d’une supériorité affichée.

Cette orientation s’est manifestée par des menaces ou par un recours ponctuel à la force, notamment à travers des droits de douane ou des opérations militaires en Iran, en Syrie, au Nigeria et au Venezuela. Mais cette stratégie est de plus en plus contestée par d’autres États. La Colombie, le Panama, le Mexique ou encore le Canada ont, par exemple, largement fait fi de ces menaces coercitives.

À mesure que Trump utilise la puissance américaine pour revendiquer le Groenland, ses menaces gagnent en faiblesse. Les pays de l’Otan respectent leur pacte de longue date avec détermination économique et militaire, leurs dirigeants affirmant qu’ils ne céderont pas aux pressions de Trump. Les États-Unis se retrouvent ainsi poussés vers une position où ils pourraient devoir passer de la puissance coercitive à la force coercitive.

Si cette trajectoire se poursuit, les engagements militaires, l’hostilité des voisins et les vulnérabilités liées à la montée en puissance d’autres armées, aux perturbations économiques et aux catastrophes environnementales pourraient bien laisser la nation la plus puissante du monde exposée, sans alliés.

Alors que Trump mobilise la puissance américaine pour revendiquer le Groenland, ses menaces apparaissent de moins en moins crédibles. Les États membres de l’Otan respectent leur accord de longue date avec une détermination économique et militaire affirmée, leurs dirigeants déclarant qu’ils ne plieront pas face aux pressions de Trump. Les États-Unis se rapprochent ainsi d’un point où la coercition politique pourrait laisser place à la coercition militaire.

Si cette voie est maintenue, les conflits armés, l’hostilité régionale et les fragilités liées aux capacités accrues d’autres puissances militaires, aux déséquilibres économiques et aux catastrophes environnementales pourraient laisser la première puissance mondiale isolée.

The Conversation

Jay Silverstein a reçu des financements de l’US National Science Foundation (NSF), de la Foundation for the Advancment of Mesoamerican Studies (FAMSI), de de la Penn State Hill Foundation dans le cadre de ses études doctorales.

ref. Ce que Donald Trump devrait apprendre de la chute de l’empire aztèque – https://theconversation.com/ce-que-donald-trump-devrait-apprendre-de-la-chute-de-lempire-azteque-274836

Camions à hydrogène vert : une voie sans issue pour décarboner le fret routier ?

Source: The Conversation – France (in French) – By Julien Lafaille, PhD student, Energy Management, GEM

Sur les routes européennes, les camions à hydrogène sont de plus en plus nombreux. Le développement de la filière est en effet généreusement subventionné. Mais si l’hydrogène vert est présenté comme une solution idéale de décarbonation du transport lourd routier, ce potentiel est largement exagéré.


Presque tous les secteurs industriels européens ont réussi à diminuer leurs émissions de gaz à effet de serre (GES) depuis 1990. Tous, sauf celui des transports, dont les émissions continuent de grimper, malgré l’objectif de neutralité carbone d’ici à 2050 fixé par la Commission européenne.

Le transport lourd routier, en particulier, est très difficile à décarboner. Pour y parvenir, trois leviers potentiels sont mobilisables : l’innovation technologique (dont les camions à batterie et à hydrogène, avec une pile à combustible à la place d’un moteur diesel), le transfert vers le rail ou le maritime, et une logistique plus efficace.

Ce sont les camions à pile à combustible (CPC) qui nous intéressent ici : leur intérêt réside principalement dans leurs avantages par rapport aux camions à batterie électrique. Ces derniers sont plus lourds, manquent encore d’autonomie et prennent longtemps à recharger.

Il existe deux types de CPC : les camions à hydrogène comprimé, qui ont une autonomie d’environ 400 kilomètres et sont déjà commercialisés, et ceux à hydrogène liquide, dont l’autonomie avoisine les 1000 kilomètres mais qui sont encore en développement. L’hydrogène qui les alimente peut être plus ou moins décarboné en fonction de la source d’énergie utilisée.

Nous considérons ici les CPC alimentés par de l’hydrogène vert, obtenu intégralement grâce à de l’électricité d’origine photovoltaïque et/ou éolienne. Les piles à combustible n’émettant que de la vapeur d’eau, la Commission européenne considère les CPC alimentés à l’hydrogène vert comme étant « zéro émission » et subventionne généreusement le développement des infrastructures nécessaires.

Mais la réalité est plus complexe, et ce choix d’investissement très questionnable.

Les infrastructures derrière l’hydrogène « vert »

De quoi est-il ici question ? L’hydrogène vert arrive jusque dans les stations-service à la suite d’une série d’opérations complexes et énergétiquement peu efficaces : électrolyse de l’eau, compression ou liquéfaction, et transport. La pile à combustible reconvertit ensuite dans le camion l’hydrogène en électricité, qui est alors transmise aux roues sous forme d’énergie cinétique.

La production d’hydrogène et son utilisation dans une pile à combustible ne produisent pas de CO2 directement. En revanche, il y a des émissions associées en amont, avec la compression-liquéfaction et le transport, des processus généralement réalisés avec des sources d’énergie carbonées. Ces émissions sont comptabilisées par la Commission européenne, qui considère que l’hydrogène reste vert (ou « renouvelable ») tant qu’il est décarboné à 70 % (ou plus) par rapport à l’hydrogène « gris » (issu du méthane). Dans ce cas, il peut être certifié « renouvelable », et les camions l’utilisant sont considérés « zéro émission ».

C’est la Commission européenne qui fixe ces règles et définit ce qui est qualifié de « renouvelable » et de « zéro émission », à l’aide de textes législatifs sous-tendus par une méthodologie complexe.

Cadre législatif européen – Décarbonation de la mobilité.
CC BY-NC

Une méthodologie européenne erronée

Dans cette méthodologie, la Commission européenne affirme notamment que l’électricité provenant de technologies photovoltaïques ou éoliennes est « zéro émission ».

En réalité, le système industriel mondial étant totalement dépendant des énergies fossiles, cette affirmation est fausse. Dans les panneaux solaires comme dans toutes les technologies dites vertes, l’extraction des matériaux nécessaires, les processus de fabrication, leur transport et leur installation impliquent des émissions de gaz à effet de serre considérables.

Qualifier leur production électrique de « zéro émission » peut parfois être une simplification acceptable, mais dans le cas de l’hydrogène vert, il s’agit d’une erreur méthodologique majeure.

En effet, la dette carbone initiale reste associée à la quantité d’énergie utile finale (celle qui fait tourner les roues), même si cette dernière est divisée par quatre environ par rapport à l’énergie en sortie de panneaux solaires ou d’éoliennes. Les émissions, par unité d’énergie utile finale, sont donc multipliées par quatre par rapport à l’énergie électrique initiale. Si l’on fait l’hypothèse que l’éolien et le photovoltaïque sont zéro carbone, on obtient effectivement zéro émissions pour les camions… mais cette hypothèse est fausse. Prendre pour base méthodologique une hypothèse zéro carbone erronée conduit donc à sous-estimer de façon conséquente les émissions associées à l’hydrogène vert.

Le cycle de vie du camion à hydrogène vert, avec la méthodologie correcte (en haut) et la méthodologie européenne (en bas).
CC BY-NC

Un autre problème de la méthodologie européenne est de ne considérer que l’intensité carbone du transport, c’est-à-dire les émissions par tonne-kilomètre (tkm) effectuée, c’est-à-dire au kilomètre pour une tonne de marchandise transportée. Le recours à l’hydrogène vert peut en théorie diminuer considérablement cette intensité, mais la croissance du nombre de tkm prévue en parallèle par la croissance du fret routier pourrait fortement réduire, voire annuler ces gains.

D’un côté, on verdit la tkm, de l’autre, le nombre de tkm augmente. Difficile d’évaluer les émissions totales du fret routier d’ici à 2050 dans ces conditions, mais il est fort probable qu’elles resteront loin du net zéro.

Un gaspillage d’argent public

Pour éclaircir le débat, nous avons repris la méthodologie en tenant compte de ces éléments et de la croissance du fret routier anticipée : +50 % d’ici à 2050 par rapport à 2025.

Nous avons considéré ici deux cas de figure : l’une fondée sur de l’hydrogène vert importé du Maroc sous forme liquide, l’autre sur de l’hydrogène vert produit en Europe directement par les stations-service utilisant de l’électricité renouvelable. Les deux étant des voies d’approvisionnement en développement.

Pour résumer, ce qui dépasse la ligne rouge n’est pas aligné avec l’objectif de neutralité carbone européen. Nos résultats mettent en évidence que la méthodologie européenne doit être revue de fond en comble et que les camions à hydrogène vert ne nous aideront pas atteindre la neutralité carbone, et d’autant moins s’ils roulent à l’hydrogène liquide.

Dans ce contexte, les subventions étatiques considérables accordées à la filière sont un gâchis d’argent public et devraient être redirigées vers d’autres leviers plus plausibles : les camions à batterie et à caténaires, le rail, le maritime…

Ces options ont aussi des limites, et nos résultats indiquent que limiter la croissance (voire faire décroître) le secteur du fret routier rendrait sa décarbonation beaucoup plus aisée, quel que soit le levier d’action.

The Conversation

Julien Lafaille ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Camions à hydrogène vert : une voie sans issue pour décarboner le fret routier ? – https://theconversation.com/camions-a-hydrogene-vert-une-voie-sans-issue-pour-decarboner-le-fret-routier-270707

Une piste vers des stations de traitement d’eau plus sobres en énergie grâce aux bactéries… électriques

Source: The Conversation – France in French (2) – By Grégory Bataillou, Ingénieur Recherche en bio-électrochimie, Centrale Lyon

Le traitement des eaux usées est essentiel pour éviter la pollution de l’environnement et ses impacts potentiels sur la santé humaine. Différentes pistes existent pour rendre les stations d’épuration plus efficientes, et donc réduire le prix de l’eau.


En France, le coût du traitement de l’eau (ou « assainissement collectif ») représente 40 % de son prix de vente. Un ménage paie en moyenne 260 euros par an juste pour l’assainissement… dont plus de 35 euros directement imputable à la consommation d’énergie des stations d’épuration.

Au vu de la volatilité du prix de l’énergie, de nouvelles solutions émergent pour réduire drastiquement la consommation énergétique des stations de traitement. Des solutions qui utilisent des bactéries électriques !

Traitement de l’eau – comment ça marche ?

Les technologies d’épuration des eaux usées sont connues de longue date et très matures. Leur principe est relativement simple : il s’agit de soustraire (ou mieux, d’éliminer) les polluants de l’eau, du plus gros au plus petit. Dans ces étapes, celle dite d’aération est une étape clef… mais c’est également la principale consommatrice d’énergie !

Le processus commence en général par des grilles et tamis permettant de retirer la fraction solide volumineuse (branches, détritus, cailloux…) présente les eaux usées à l’entrée de la station.

Vient alors l’étape de séparation du sable (grosses particules) qui décante assez facilement au fond du bassin de traitement, et des huiles moins denses que l’eau, récupérées à la surface.

Les particules plus légères sont encore trop nombreuses et trop lentes à décanter au fond du bassin – certaines peuvent mettre des mois à décanter ! Des lamelles insérées en biais permettent de les rapprocher du fond du bassin, et de diminuer ainsi leur temps de décantation. Des produits chimiques sont également ajoutés (floculants) pour agréger les particules entre elles et les rendre plus lourdes. On parle de traitement primaire.

Ensuite, le bassin d’aération constitue le cœur de la station de traitement. Il s’agit tout simplement d’aérer l’eau en permanence pendant un certain temps grâce à des bulleurs au fond du bassin. Cette aération permet à des microorganismes de se développer et de décomposer toute la matière organique encore présente. Sans cette aération, les microorganismes efficaces ne se développent plus, l’eau croupit, et la matière organique se dégrade peu (pensez à l’eau des tourbières, ou simplement celle des flaques d’eau qui ne sont jamais remuées). L’aération est le principal poste de consommation de la station, responsable de 40 à 80 % de l’énergie utilisée. Cette énergie est nécessaire au fonctionnement des pompes et surpresseurs employés pour injecter de l’air en continu dans le bassin. On parle de traitement secondaire.

Dans la plupart des stations d’épuration existantes, à la suite du traitement biologique par aération, l’eau passe de nouveau dans un bassin de décantation (décantation secondaire ou clarificateur) pour faire sédimenter les milliards de bactéries mortes.

Enfin, l’eau est rejetée dans la nature.

Station d’épuration à Pierre-Bénite (Rhône) – Le cycle urbain de l’eau expliqué aux enfants. Source : Grand Lyon TV.

Repenser le système grâce à d’autres microorganismes

Il existe donc un enjeu important dans le monde de l’assainissement : comment limiter la consommation d’énergie liée à l’aération, tout en traitant aussi bien les eaux usées et sans faire exploser les coûts ?

Car si l’aération fonctionne aussi bien, c’est parce qu’elle permet une oxygénation de l’eau, et que les microorganismes qui se développent dans les milieux oxygénés sont très efficaces pour dégrader la matière organique.

En effet, l’oxygène est un élément naturellement oxydant, c’est-à-dire qu’il est avide d’électrons. À l’inverse, la matière organique est riche en électrons du fait de son important nombre de liaisons Carbone. La présence d’oxygène facilite la rupture des liaisons Carbone, les électrons libérés étant transférés vers l’oxygène. Ce transfert est naturellement lent (heureusement, sinon, nous brûlerions instantanément), mais il est accéléré par la présence des bactéries, véritables usines de décomposition). C’est bien ce qui est souhaité dans cette étape : casser les chaînes de carbone jusqu’à obtenir des éléments simples, non assimilables par des bactéries pathogènes en aval dans les cours d’eau.

Si l’on décide de se passer d’aération, l’oxygène devient difficilement accessible, et la dégradation peu efficace. Sauf si on utilise des microorganismes un peu spéciaux.

Par exemple, à Villeurbanne (Rhône), une station d’épuration utilise des microorganismes capables de digérer les boues des stations d’épuration et de fabriquer du méthane, qui est injecté dans le réseau de gaz de ville.

Dans notre groupe de recherche, nous explorons une autre piste : celle des bactéries électriques !

images de microscopie
Bactéries « électriques » ayant colonisé un matériau carboné conducteur (image obtenue par microscope électronique à balayage).
Grégory Bataillou, Fourni par l’auteur

Éviter l’aération grâce aux bactéries « électriques »

Dès le début des années 2000, les chercheurs ont redécouvert des bactéries « électriques ». Ces bactéries, telles des araignées dans le monde microscopique, ont la capacité de fabriquer des fils de taille nanométrique, qui ont la curieuse propriété d’être conducteurs électriques. Nul besoin d’oxygène en leur sein : il suffit de se connecter à un oxydant externe, qui peut être plus loin. Imaginez-vous être capable de respirer grâce à un fil dont un bout reste exposé à l’air libre, peu importe l’endroit dans lequel vous vous trouvez.

Pour en revenir au traitement de l’eau, voici l’idée : plutôt que d’amener l’oxygène aux bactéries par l’aération, les bactéries électriques présentes dans tout le bassin se connectent à un matériau conducteur présent sur toute la colonne d’eau et s’y développent. Ainsi, les bactéries sont connectées à l’oxygène de la surface. Pour cela, l’eau transite dans des structures en carbone conducteur appelées « biofiltres électro-actifs », sur lesquelles se développent les bactéries électriques. Plus besoin d’aérer : si un chemin électrique existe entre la bactérie et l’air ambiant, elle dégradera presque aussi bien la matière organique l’environnant.

L’avantage est considérable : une fois installé, le système est passif, nécessite un faible entretien, et régénérable à l’infini. Ces systèmes sont déjà proposés à la vente pour les petites stations de traitement, notamment par la start-up espagnole METfilter.

schémas pour comparer les deux modes de fonctionnement
Différence entre traitement standard énergivore (aération, à gauche), et traitement par décomposition passive grâce à des bactéries électriques (à droite). Bien entendu, les bactéries n’ont pas d’yeux en réalité.
Grégory Bataillou, Fourni par l’auteur

Cerise sur le gâteau : ces bactéries « électriques » existent spontanément dans l’environnement, elles n’ont pas à être artificiellement ajoutées au système et sont sélectionnées naturellement par la présence du matériau carboné.

Si cette piste nous semble prometteuse pour diminuer la facture d’électricité des stations d’épuration, ces bactéries ne dégradent pas tout : résidus de médicaments, PFAS, et autres substances résiduelles dans notre eau traversent encore les stations de traitement, et se retrouvent disséminées dans l’environnement. Les solutions techniques étant encore très énergivores, chaque économie d’énergie sur l’ensemble de la chaîne est un pas vers un traitement plus vertueux de nos eaux usées.


Le projet IRONTECH est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Grégory Bataillou a travaillé comme Post-Doctorant sur le financement ANR appelé IRONTECH qui vise à utiliser du Fer et des bactéries actives pour dénitrifier les effluents agro-industriels.

ref. Une piste vers des stations de traitement d’eau plus sobres en énergie grâce aux bactéries… électriques – https://theconversation.com/une-piste-vers-des-stations-de-traitement-deau-plus-sobres-en-energie-grace-aux-bacteries-electriques-273287

Thaïlande : une démocratie à marée basse

Source: The Conversation – France in French (3) – By Arnaud Leveau, Docteur en science politique, professeur associé au Master Affaires internationales, Université Paris Dauphine – PSL

À l’approche des élections législatives de février 2026, la Thaïlande s’apprête à voter une nouvelle fois dans un cadre démocratique formellement respecté mais politiquement étroit. Derrière le rituel électoral, ce scrutin révèle surtout les limites structurelles d’un système où le changement reste soigneusement borné.


Le 8 février 2026, les Thaïlandais retourneront aux urnes à la suite de la dissolution anticipée du Parlement par le premier ministre sortant Anutin Charnvirakul. Cette décision, motivée par l’impossibilité de consolider une majorité stable et par la menace d’une motion de censure, s’inscrit dans une longue tradition politique nationale : lorsque l’équilibre parlementaire devient trop incertain, la dissolution apparaît comme un moyen de reprendre l’initiative, tout en renvoyant l’arbitrage formel aux électeurs.

La scène est désormais familière. Les campagnes électorales s’ouvrent dans un climat de relative normalité institutionnelle, avec leurs caravanes sillonnant les provinces, leurs promesses économiques diffusées massivement sur les réseaux sociaux et le retour de figures bien connues de la vie politique locale. Pourtant, derrière cette mécanique démocratique bien huilée, persiste une interrogation plus fondamentale : dans quelle mesure le vote peut-il réellement transformer le jeu politique thaïlandais, au-delà du simple renouvellement des équilibres partisans ?

Un pluralisme réel mais étroitement encadré

La vie politique thaïlandaise repose sur une compétition partisane bien réelle, contrairement à l’image parfois caricaturale que l’on donne d’elle dans les médias occidentaux. Les élections sont régulières, pluralistes, relativement bien organisées, et la participation demeure élevée. Cependant, cette compétition s’exerce dans un espace strictement délimité, où certaines réformes et certains débats restent structurellement hors de portée.

Trois forces politiques dominent aujourd’hui le paysage. Le camp gouvernemental, emmené par Anutin Charnvirakul et son parti Bhumjaithai, incarne un conservatisme pragmatique. Plus gestionnaire que réformateur, Anutin se présente comme un homme de compromis, capable de maintenir la stabilité dans un environnement politique fragmenté. Sa stratégie repose sur la continuité des politiques publiques, notamment les programmes de soutien à la consommation et aux territoires, et sur une posture de fermeté mesurée sur les dossiers souverains, en particulier les questions frontalières.

Face à lui, le Parti du peuple (People Party), héritier légal du mouvement réformiste Move Forward, dissous par la Cour constitutionnelle en 2024, cristallise les aspirations d’une jeunesse urbaine, connectée et largement acquise aux idéaux d’une démocratie libérale plus transparente. En tête des sondages, très populaire dans les grandes villes et parmi les classes moyennes éduquées, il demeure toutefois structurellement empêché d’accéder au pouvoir. Son renoncement à la réforme de la loi de lèse-majesté, pourtant au cœur de son identité initiale, illustre les lignes rouges que toute force politique doit intégrer pour espérer survivre dans le système.

Le troisième pôle, le Pheu Thai, longtemps dominant, apparaît aujourd’hui affaibli. Historiquement associé au clan Shinawatra, il a bâti sa puissance sur une combinaison de politiques redistributives et de loyautés rurales. Mais cette formule semble désormais épuisée. Les alliances controversées avec des partis proches de l’armée, l’affaiblissement de ses figures historiques et la transformation sociologique de l’électorat ont érodé sa crédibilité. Son déclin symbolise la fin progressive d’un cycle populiste fondé sur la redistribution des rentes étatiques.

Les verrous institutionnels du changement

Ces équilibres partisans s’inscrivent dans un cadre institutionnel où plusieurs acteurs non élus continuent de peser lourdement sur le jeu politique. L’armée, bien qu’elle n’aspire plus nécessairement à gouverner directement comme par le passé, demeure un acteur central. Elle conserve une influence déterminante sur les questions de sécurité, de budget et de politique étrangère, et se pose en garante ultime de ce qu’elle considère comme les fondements de l’État.

La monarchie, quant à elle, reste le pilier symbolique et politique autour duquel s’organise l’ensemble de l’architecture institutionnelle. Au-delà de son rôle cérémoniel, elle incarne une source de légitimité qui structure profondément les limites du débat public. La loi de lèse-majesté constitue, à cet égard, un marqueur puissant de ce qui peut ou ne peut pas être discuté ouvertement dans l’espace politique.

Enfin, la justice constitutionnelle s’est imposée comme un acteur clé du système. Par ses décisions successives de dissolution de partis et de disqualification de dirigeants élus, elle a démontré sa capacité à arbitrer, voire à redéfinir, les rapports de force politiques. Cette jurisprudence interventionniste contribue à instaurer un climat d’incertitude permanente, où chaque victoire électorale reste conditionnelle, soumise à une validation institutionnelle ultérieure.

L’ensemble de ces mécanismes produit une démocratie fonctionnelle mais conditionnelle : les élections déterminent qui peut gouverner, mais rarement ce qui peut être réformé. Le résultat est une succession de scrutins sans rupture majeure, mais riches d’enseignements sur l’état des relations entre société, partis politiques et institutions.

Une économie sous pression, un débat politique contraint

Le contexte économique renforce ces contraintes politiques. Longtemps considérée comme l’une des économies les plus dynamiques d’Asie du Sud-Est, la Thaïlande affiche désormais une croissance atone, autour de 2 %, nettement inférieure à celle de ses voisins régionaux. La dette des ménages atteint des niveaux préoccupants, limitant la capacité de relance par la consommation, tandis que l’investissement privé peine à repartir.

Le secteur touristique, pilier traditionnel de l’économie nationale, montre également des signes d’essoufflement. Après le rebond post-pandémique, les arrivées de visiteurs internationaux ont marqué le pas, pénalisées par un baht relativement fort, une concurrence régionale accrue et des inquiétudes sécuritaires liées aux tensions frontalières. Les épisodes climatiques extrêmes, notamment les inondations de 2025, ont rappelé la vulnérabilité des infrastructures et renforcé les doutes des investisseurs.

Face à ces défis, les programmes économiques des partis apparaissent largement consensuels et peu différenciés. Tous promettent la transition verte, la numérisation de l’économie et l’innovation technologique. Mais rares sont ceux qui proposent des réformes structurelles ambitieuses, qu’il s’agisse de la remise en cause des oligopoles, de la réforme fiscale ou de la réduction des inégalités régionales. La politique économique thaïlandaise semble ainsi prisonnière d’un conservatisme prudent, qui privilégie la préservation des rentes existantes à la prise de risques politiques.

Une société en mutation lente mais profonde

Les principales dynamiques de transformation se situent peut-être moins dans les partis que dans la société elle-même. La fracture générationnelle est l’un des traits saillants du paysage politique actuel. Une jeunesse urbaine, mondialisée et politisée remet en cause les hiérarchies traditionnelles, réclame davantage de transparence et s’informe massivement via les réseaux sociaux. À l’inverse, une Thaïlande rurale et périurbaine reste attachée à la stabilité, aux hiérarchies locales et aux réseaux clientélistes.

Toutefois, cette opposition binaire tend à s’estomper. Dans les provinces elles-mêmes, les systèmes de patronage traditionnels sont progressivement fragilisés par l’accès à l’éducation, la mobilité sociale et la circulation de l’information. Les grandes familles politiques locales, longtemps dominantes, doivent composer avec une nouvelle génération d’électeurs plus exigeants, moins enclins à voter par habitude ou par loyauté personnelle.

Ces évolutions sont lentes et souvent invisibles à court terme, mais elles s’accumulent. Elles expliquent en partie la résilience de la société civile thaïlandaise, capable de se mobiliser ponctuellement malgré les contraintes institutionnelles et les risques juridiques.

Une élection révélatrice plutôt que décisive

Dans ce contexte, les élections législatives de février 2026 ne devraient pas marquer une rupture politique majeure. Les scénarios possibles sont multiples, mais aucun ne promet de transformation radicale. Une reconduction du camp gouvernemental offrirait une stabilité relative à court terme, sans répondre aux tensions structurelles. Une percée du Parti du Peuple, même significative, se heurterait rapidement aux verrous institutionnels existants. Quant au Pheu Thai, son retour au pouvoir dépendrait de coalitions fragiles, au risque d’accentuer encore la défiance de son électorat.

Ces élections permettront en revanche de mesurer avec précision l’état des forces en présence, l’évolution des attentes sociales et la capacité du système à absorber les frustrations sans basculer dans une nouvelle crise ouverte. Elles constitueront moins un moment de rupture qu’un révélateur des ajustements en cours.

Dans un pays où la politique s’inscrit dans le temps long, chaque scrutin compte moins comme une fin que comme un jalon. La Thaïlande continue d’évoluer à son propre rythme, entre aspirations démocratiques et contraintes institutionnelles, dans une recherche permanente d’équilibre entre autorité, stabilité et souveraineté populaire. Pour l’observateur extérieur, la leçon est peut-être celle de la patience : derrière l’apparente immobilité du système, des transformations lentes mais réelles sont à l’œuvre, appelées à redéfinir, à terme, les contours du jeu politique thaïlandais.

Une élection sous influences régionales et internationales

Si les élections thaïlandaises de février 2026 sont avant tout structurées par des dynamiques internes, elles s’inscrivent aussi dans un environnement régional et international de plus en plus contraignant. La Thaïlande n’évolue pas en vase clos : sa trajectoire politique est étroitement liée aux recompositions en cours en Asie du Sud-Est continentale, aux tensions récurrentes avec ses voisins immédiats et aux rivalités stratégiques entre grandes puissances.

La relation avec le Cambodge constitue à cet égard un révélateur. Les tensions frontalières de 2025, ravivées autour de sites patrimoniaux sensibles et de zones frontalières contestées, ont rappelé combien ces différends restent mobilisables à des fins de politique intérieure, des deux côtés de la frontière. À Bangkok, une posture de fermeté face à Phnom Penh peut servir de levier électoral, en particulier dans un contexte de fragmentation politique et de compétition entre partis conservateurs. Sur ce sujet, les partis conservateurs et le Pheu Thai sont sur la même ligne. Le leader du People Party (réformateur) a également soutenu une ligne par rapport au Cambodge recommandant que les avions de combat Gripen, de fabrication suédoise, dont l’armée thaïlandaise dispose, soient utilisés contre les positions cambodgiennes.

Mais ces tensions ont aussi une portée régionale : elles fragilisent les chaînes économiques transfrontalières, accentuent les déplacements de population et mettent en lumière l’incapacité de l’Association des nations de l’Asie du Sud-Est (Asean) à prévenir ou contenir efficacement les crises entre États membres.

Cette relative impuissance de l’Asean ouvre un espace croissant aux puissances extérieures. La Chine y occupe désormais une place centrale. Premier partenaire commercial de la Thaïlande, acteur clé des infrastructures régionales et garant de facto de la stabilité des corridors continentaux reliant le sud de la Chine au golfe de Thaïlande, Pékin dispose de leviers économiques et politiques que ni Washington ni Bruxelles ne peuvent égaler à court terme. Pour Bangkok, le rapprochement avec la Chine relève moins d’un alignement idéologique que d’un pragmatisme stratégique : sécuriser les investissements, maintenir la croissance et s’assurer d’un environnement régional stable.

Les États-Unis, pour leur part, restent un allié militaire historique, mais leur influence apparaît de plus en plus sectorielle. La coopération de défense demeure robuste, notamment à travers les exercices conjoints et les ventes d’équipements, mais elle pèse moins sur les choix économiques et sociétaux du pays. Cette dissociation croissante entre sécurité et prospérité nourrit une diplomatie thaïlandaise d’équilibriste, cherchant à préserver l’alliance américaine tout en approfondissant des liens structurants avec la Chine.

Quant à l’Union européenne, elle occupe en Thaïlande un rôle principalement économique et normatif, articulé essentiellement pour le moment autour de la négociation de l’accord de libre-échange UE–Thaïlande. Son une influence politique et sécuritaire directe reste relativement limitée.

Dans ce contexte, les élections de 2026 auront aussi valeur de signal à l’extérieur. Elles diront jusqu’où la Thaïlande souhaite aller dans sa stratégie de balancement, si elle entend consolider son rôle de pivot en Asie du Sud-Est continentale, ou accepter une dépendance plus marquée à l’égard d’arbitrages venus d’ailleurs. Plus qu’un simple rendez-vous électoral, ce scrutin s’inscrit dans un moment charnière, à l’intersection de dynamiques locales, régionales et globales, qui redessinent progressivement la place du pays dans l’Asie du Sud-Est contemporaine ainsi que dans l’Asean.

The Conversation

Arnaud Leveau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Thaïlande : une démocratie à marée basse – https://theconversation.com/tha-lande-une-democratie-a-maree-basse-273490