Source: The Conversation – Canada – By Darryn DiFrancesco, Assistant Professor, School of Nursing, Faculty of Human and Health Sciences, University of Northern British Columbia
Following the recent shooting of Renee Good by an agent for Immigration and Customs Enforcement (ICE) in the United States, the Donald Trump administration’s latest narrative suggests that “deluded wine moms” are to blame for the violence in ICE-related demonstrations in Minneapolis and across the country.
This mother-blaming is nothing more than an old trick with a new spin.
Organized gangs of ‘wine moms’
Earlier this week, a Fox News columnist wrote that “organized gangs of wine moms” are using “antifa tactics” to “harass and impede” ICE activity. In the opinion piece, he claimed that “confusion” over the what constitutes civil disobedience is what “got 37-year-old Renee Good killed.”
Similarly, Vice-President J.D. Vance called Good a “deranged leftist” while a new acronym, AWFUL — Affluent White Female Urban Liberal — has appeared on social media.
In framing protesters like Good, a mother of three, as confused, aggressive and “delusional,” this narrative delegitimizes and pathologizes maternal activism. This strategy aims to divert blame from the U.S. government and its heavy-handed approach to immigration while also drawing on a centuries-old strategy of blaming mothers for social problems.
What makes a ‘wine mom?’
The term “wine mom” emerged over the last two decades as a cultural symbol of the contemporary white, suburban mother who turns to a nightly glass of wine (or two) to cope with the stresses of daily life.
The archetype goes back much further, reflected in literature, film and television characters, such as the wily Lucille Bluth of Arrested Development.
A clip from ‘Arrested Development’ featuring Lucille Bluth’s fondness for boozing.
Yet, this motif is less light-hearted than assumed: a recent systematic review reveals a strong link between maternal drinking and stress, especially for working mothers.
While it would be easy to view problematic drinking as another example of maternal failure, it is important not to. Here’s why.
Mother-blame in history
Throughout history, mothers have found themselves in the midst of what American sociologist Linda Blum calls a “mother-valor/mother-blame binary.”
When behaving in accordance with socially acceptable and desirable parameters — that is with warmth, femininity and selflessness — mothers are viewed as “good.” When mothers violate these norms, whether by choice, circumstance or by virtue of their race or class position, they’re “bad mothers.”
Mother-blame ultimately reflects the belief that mothers are solely responsible for their children’s behaviour and outcomes, along with the cultural tendency to blame them when things go wrong. Yet, as Blum points out, “mother-blame also serves as a metaphor for a range of political fears.”
Perhaps the most striking example of this is the suffrage movement, which represented a direct challenge to patriarchal notions that women belonged in the domestic sphere and lacked the intelligence to engage in political discourse.
These activists were framed as threatening to not only the establishment, but also to families and the moral fabric of society.
Ironically, despite the fact that women’s entry into politics led to increased spending and improved outcomes related to women, children, families and health care, scholars have found that mother-blaming was as common after the women’s movement as it was before.
Contemporary mother-blame
Beyond political matters, contemporary mother-blame is rampant in other domains.
Mothers have been blamed for a wide variety of their children’s psychological problems, including anxiety, depression and inherited trauma. In media and literature, mothers are often blamed for criminality and violence, reflecting the notion that “mothers make monsters.”
When children struggle in school, educators and administrators may blame the mother. Mothers risk being called “too passive” if they don’t advocate for their children or “too aggressive” when they do.
Similarly, the “crazy woman” or “hysterical mother” is a well-known trope in custody law, and mothers may be blamed even when their children are abused by others. Mass shootings? Mom’s failure. The list goes on.
By setting up mothering as a high-stakes endeavour, the cultural norm of mother-blame also serves to “divide and conquer.”
In my sociology research, I found that mothers on Facebook worked to align themselves with like-minded “superior” mothers, while distancing themselves from perceived “inferior” mothers. This feeds into the cultural norm of “combative mothering,” which pits mothers against each other.
An old trick with a new spin
The “wine mom” narrative builds on this historical pattern of mother-blame. It is meant to trivialize, delegitimize, divide and denigrate mothers who are, in fact, well-organized and motivated activists concerned for their communities.
While there are legitimate concerns around maternal drinking as a coping mechanism, the “wine mom” label has begun to represent something different. Mothers are reclaiming the title to expand their cause.
As @sara_wiles, promoting the activist group @redwineblueusastated on Instagram: “They meant to scare us back into the kitchen, but our actual response is, ‘Oh, I want to join!’”
We should acknowledge that rather than causing societal problems, mothers have a long history of trying to fix them, even if imperfectly. Mothers like Renee Good are no exception.
Darryn DiFrancesco does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – France (in French) – By Pascaline Thiollière, architecte (M’Arch), enseignante et chercheuse sur les ambiances et approches sensibles des espaces habités, Ecole d’architecture de Grenoble (ENSAG)
Une dispersion de cendres à Courtrai, en Belgique, dans le cimetière conçu par B. Secchi.Fourni par l’auteur
À bas bruit et hors de portée du marché du funéraire se développent des pratiques qui déplacent les morts et leur mémoire à l’extérieur des cimetières dans des espaces bien réels, au plus près des valeurs et des façons de vivre dont témoignaient les défunts de leur vivant.
Lorsque les espaces et les pratiques funéraires sont évoquées dans les médias ou dans le débat public français, c’est souvent aux approches des fêtes de la Toussaint, pour relater des évolutions en cours dans la gestion des funérailles et des cimetières, et pour mettre en lumière des services, objets, techniques ou technologies dites innovantes. Il était ces dernières années beaucoup question de l’écologisation des lieux et techniques funéraires (cimetière écologique, humusation/terramation, décarbonation des produits funéraires) et de la digitalisation du recueillement et de la mémoire (deadbots, gestion post-mortem des volontés et des données numériques, cimetières et mémoriaux virtuels, télétransmission des cérémonies). Mais discrètement, d’autres pratiques voient le jour.
Avec la crémation devenue majoritaire dans de nombreux territoires français, la dispersion des cendres dite « en pleine nature » se révèle très importante dans les souhaits et de plus en plus dans les faits. Pourtant, beaucoup méconnaissent le cadre légal et pratique de son application. Cet article dévoile les premiers éléments d’une enquête en cours sur ces pratiques discrètes qui témoignent d’une émancipation créative face à la tradition contraignante de la tombe et du cimetière.
Des cimetières de moins en moins fréquentés
Le cimetière paroissial du Moyen Âge qui plaçait la communauté des morts au plus près de l’église et de ses reliques, dans la promesse de son salut et de sa résurrection, était un espace multifonctionnel et central de la vie et de la ville.
Le cimetière de la modernité matérialiste et hygiéniste est déplacé dans les faubourgs, puis dans les périphéries de la ville et se marginalise petit à petit des fonctions urbaines. Il devient, comme le dit Foucault, « l’autre ville, où chaque famille possède sa noire demeure », puis s’efface dans l’étalement urbain du XXᵉ siècle.
À l’intérieur des murs d’enceinte qui deviennent souvent de simples clôtures, les aménagements pour gagner de la place se rationalisent, le mobilier d’un marché funéraire en voie d’industrialisation et de mondialisation se standardisent. Les morts y sont rangés pour des durées de concessions écourtées au fil des décennies, sous la pression d’une mortalité en hausse (génération des baby-boomers) et de la saturation de nombreux cimetières urbains.
Dans les enquêtes régulières sur « Les Français et les obsèques » du Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc), les Français montrent peu d’affection envers leurs cimetières qu’ils jugent trop souvent démesurés, froids et impersonnels. Alors qu’ils étaient encore 50 % en 2005, seulement un tiers des Français de plus de 40 ans continuent vingt ans plus tard à les fréquenter systématiquement à la Toussaint. Pour les Français de moins de 40 ans, ils sont encore moins souvent des lieux de sens et d’attachement.
Cette désaffection des cimetières, pour beaucoup synonymes d’enfermement tant matériel que mental, explique en partie l’essor de la crémation et de la dispersion des cendres. Les dimensions économiques et écologiques de ces options funéraires viennent renforcer cette tendance et s’exprime par la volonté de ne pas être un poids pour ses descendants (coût et soin des tombes) et/ou pour la planète (bilan carbone important de l’inhumation avec caveau et/ou monuments), et illustre la proposition de garder l’espace pour les vivants et le vivant.
La crémation gagne du terrain
La crémation était répandue en Europe avant sa christianisation et a même été conservée marginalement en périodes médiévales dans certaines cultures d’Europe du Nord. Elle se pratiquait sur des bûchers à foyer ouvert. Sa pratique, telle que nous la connaissons aujourd’hui en foyer fermé, a été rendue possible par la technique et l’essor du four industriel au XIXᵉ siècle, et par la plaidoirie des crématistes depuis la Révolution française jusqu’à la fin du XXᵉ siècle où la pratique va définitivement s’instituer.
Si les fragments calcinés étaient conservés communément dans des urnes, c’est avec l’apparition d’une autre technique industrielle dans le crématorium que la dispersion a pu être imaginée : la crémulation, c’est-à-dire la pulvérisation des fragments sortant du four, permettant d’obtenir une matière plus fine et moins volumineuse. Cette matière aseptisée par le feu et homogénéisée par le crémulateur peut alors rejoindre d’autres destinations que les urnes et le cimetière.
En 1976, un nouveau texte de loi insiste sur le fait que les cendres doivent être pulvérisées afin que des ossements ne puissent y subsister, effaçant ainsi ce qu’il restait de la forme d’un corps. Cette nouvelle matérialité peut alors se fondre discrètement dans nos lieux familiers, les morts se retrouvent inscrits dans nos paysages privilégiés, et leur souvenir cohabiter avec les activités récréatives et contemplatives qui prennent place dans les espaces naturels non aménagés.
Dispersions, disséminations
Alors que de nombreux Français pensent cette pratique interdite, son cadre légal et la notion de « pleine nature » ont été précisés en 2008 et en 2009. Ce cadre relativement souple permet de disperser les cendres en de nombreux espaces publics (sauf sur la voie publique) à distance des habitations et zones aménagées (parcs naturels, forêts, rivières, mers éloignées des côtes), plus difficilement dans des espaces privés avec la contrainte d’obtenir l’accord du propriétaire d’un droit d’accès perpétuel, ce qui peut poser des difficultés au moment des ventes de biens.
La « pleine nature » correspond aujourd’hui à une proportion d’un quart à un tiers des destinations des cendres des défunts crématisés. À travers un appel à témoignages anonymes en ligne ouvert dans le cadre d’une recherche en cours depuis 2023, une cinquantaine de micro-récits de dispersion ont été rassemblés et constituent un premier corpus pour appréhender ces pratiques discrètes et peu documentées. Ces récits inédits révèlent l’émergence de nouvelles manières de rendre hommage aux défunts et de donner du sens à la mort et à la vie dans des mondes contemporains en crise.
Le milieu du funéraire et de l’accompagnement du deuil se montre réservé face à cette pratique donnant lieu à des sépultures labiles en proie aux éléments, sans traces tangibles identifiant les défunts et sans garantie de se transmettre au fil des générations, parfois difficilement accessibles, isolant ces morts des autres morts.
Faisant écho de craintes parfois avérées de rendre les deuils plus difficiles, les professionnels doivent pourtant reconnaître que malgré ces nouvelles contraintes et en en connaissant les impacts, une grande majorité de ceux qui ont opté pour la dispersion des cendres de leurs proches reconduiraient le choix de la dispersion. Celui-ci procure en effet pour beaucoup le sentiment de satisfaction d’une promesse tenue, car ces destinations en pleine nature sont le souhait des vivants et se déroulent par là même souvent sans conflit au sein de l’entourage des défunts, dans une ambiance de sérénité, d’un chagrin joyeux, dans les plis de paysages et de territoires intimes aux défunts et à leurs proches.
De manière assez naturelle découlent de ces gestes et territoires de dispersion des prises pour imaginer des suites, des revisites, des retrouvailles sous forme de balades discrètement ritualisées, de pique-niques et baignades mémorielles, des façons de reconfigurer et d’entretenir les liens avec les défunts dans ces territoires familiers.
La diversité des lieux, des configurations sensibles et des éléments en jeu dans les dispersions renouvelle les possibles en termes de gestes et d’actes d’hommage envers les défunts, lors de la dispersion comme après, imbriquant la mémoire du mort dans des souvenirs de moments de vie partagés.
Avec la dispersion des cendres, le lieu de nos morts n’est plus l’espace autre, l’autre ville des noires demeures, mais l‘espace même qui accueille nos moments de vie, là où nos beaux souvenirs avec eux font gage d’éternité. La suite de l’enquête permettra d’affiner les contours et les potentialités de ces pratiques.
Pascaline Thiollière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – USA (2) – By Hélène Nguemgaing, Assistant Clinical Professor of Critical Resources & Sustainability Analytics, University of Maryland
Across Appalachia, rust-colored water seeps from abandoned coal mines, staining rocks orange and coating stream beds with metals. These acidic discharges, known as acid mine drainage, are among the region’s most persistent environmental problems. They disrupt aquatic life, corrode pipes and can contaminate drinking water for decades.
However, hidden in that orange drainage are valuable metals known as rare earth elements that are vital for many technologies the U.S. relies on, including smartphones, wind turbines and military jets. In fact, studies have found that the concentrations of rare earths in acid mine waste can be comparable to the amount in ores mined to extract rare earths.
Scientists estimate that more than 13,700 miles (22,000 kilometers) of U.S. streams, predominantly in Pennsylvania and West Virginia, are contaminated with acid mine discharge.
A closer look at acid mine drainage from abandoned mines in Pennsylvania. Pennsylvania Fish and Boat Commission.
We and our colleagues at West Virginia University have been working on ways to turn the acid waste in those bright orange creeks into a reliable domestic source for rare earths while also cleaning the water.
Experiments show extraction can work. If states can also sort out who owns that mine waste, the environmental cost of mining might help power a clean energy future.
Rare earths face a supply chain risk
Rare earth elements are a group of 17 metals, also classified as critical minerals, that are considered vital to the nation’s economy or security.
MP Materials’ Mountain Pass Rare Earth Mine and Processing Facility, in California near the Nevada border, is one of the few rare earth mines in the U.S. Tmy350/Wikimedia Commons, CC BY-SA
China controls about 70% of global rare earth production and nearly all refining capacity. This near monopoly gives the Chinese government the power to influence prices, export policies and access to rare earth elements. China has used that power in trade disputes as recently as 2025.
The United States, which currently imports about 80% of the rare earth elements it uses, sees China’s control over these critical minerals as a risk and has made locating domestic sources a national priority.
The U.S. Geological Survey has been mapping locations for potential rare earth mining, shown in pink. But it takes years to explore a locations and then get a mine up and running. USGS
Although the U.S. Geological Survey has been mapping potential locations for extracting rare earth elements, getting from exploration to production takes years. That’s why unconventional sources, like extracting rare earth elements from acid mine waste, are drawing interest.
Turning a mine waste problem into a solution
Acid mine drainage forms when sulfide minerals, such as pyrite, are exposed to air during mining. This creates sulfuric acid, which then dissolves heavy metals such as copper, lead and mercury from surrounding rock. The metals end up in groundwater and creeks, where iron in the mix gives the water an orange color.
Expensive treatment systems can neutralize the acid, with the dissolved metals settling into an orange sludge in treatment ponds.
For decades, that sludge was treated as hazardous waste and hauled to landfills. But scientists at West Virginia University and the National Energy Technology Laboratory have found that it contains concentrations of rare earth elements comparable to those found in mined ores. These elements are also easier to extract from acid mine waste because the acidic water has already released them from the surrounding rock.
Acid mine drainage flowing into Decker’s Creek in Morgantown, West Virginia, in 2024. Helene Nguemgaing
Experiments have shown how the metals can be extracted: Researchers collected sludge, separated out rare earth elements using water-safe chemistry, and then returned the cleaner water to nearby streams.
It is like mining without digging, turning something harmful into a useful resource. If scaled up, this process could lower cleanup costs, create local jobs and strengthen America’s supply of materials needed for renewable energy and high-tech manufacturing.
But there’s a problem: Who owns the recovered minerals?
The ownership question
Traditional mining law covers minerals underground, not those extracted from water naturally running off abandoned mine sites.
Nonprofit watershed groups that treat mine waste to clean up the water often receive public funding meant solely for environmental cleanup. If these groups start selling recovered rare earth elements, they could generate revenue for more stream cleanup projects, but they might also risk violating grant terms or nonprofit rules.
To better understand the policy challenges, we surveyed mine water treatment operators across Pennsylvania and West Virginia. The majority of treatment systems were under landowner agreements in which the operators had no permanent property rights. Most operators said “ownership uncertainty” was one of the biggest barriers to investment in the recovery of rare earth elements, projects that can cost millions of dollars.
Not surprisingly, water treatment operators who owned the land where treatment was taking place were much more likely to be interested in rare earth element extraction.
Map of acid mine drainage sites in West Virginia. Created by Helene Nguemgaing, based on data from West Virginia Department of Environmental Protection, West Virginia Office of GIS Coordination, and U.S. Geological Survey
West Virginia took steps in 2022 to boost rare earth recovery, innovation and cleanup of acid mine drainage. A new law gives ownership of recovered rare earth elements to whoever extracts them. So far, the law has not been applied to large-scale projects.
Across the border, Pennsylvania’s Environmental Good Samaritan Act protects volunteers who treat mine water from liability but says nothing about ownership.
Map of acid mine drainage sites in Pennsylvania. Created by Helene Nguemgaing, based on data from Pennsylvania Spatial Data Access
This difference matters. Clear rules like West Virginia’s provide greater certainty, while the lack of guidance in Pennsylvania can leave companies and nonprofits hesitant about undertaking expensive recovery projects. Among the treatment operators we surveyed, interest in rare earth element extraction was twice as high in West Virginia than in Pennsylvania.
The economics of waste to value
Recovering rare earth elements from mine water won’t replace conventional mining. The quantities available at drainage sites are far smaller than those produced by large mines, even though the concentration can be just as high, and the technology to extract them from mine waste is still developing.
Still, the use of mine waste offers a promising way to supplement the supply of rare earth elements with a domestic source and help offset environmental costs while cleaning up polluted streams.
Early studies suggest that recovering rare earth elements using technologies being developed today could be profitable, particularly when the projects also recover additional critical materials, such as cobalt and manganese, which are used in industrial processes and batteries. Extraction methods are improving, too, making the process safer, cleaner and cheaper.
Treating acid mine drainage and extracting its valuable rare earth elements offers a way to transform pollution into prosperity. Creating policies that clarify ownership, investing in research and supporting responsible recovery could ensure that Appalachian communities benefit from this new chapter, one in which cleanup and clean energy advance together.
The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.
One year into U.S. President Donald Trump’s second term, questions about his health and competence are as pervasive as the gilt sprawling through the Oval Office.
These questions grew even louder following his rambling speech this week at Davos, where he repeatedly referred to Greenland as Iceland, falsely claimed the United States gave the island back to Denmark during the Second World War and boasted that only recently, NATO leaders had been lauding his leadership (“They called me ‘daddy,’ right?”).
Do swollen ankles and whopping hand bruises signal other serious problems? Do other Davos-like distortions and ramblings — plus a tendency to fall asleep during meetings — reveal mental decline even more startling than Joe Biden’s in the final couple of years of his presidency?
This is not the first time in White House history that American citizens have had concerns about the health of their president — nor the first time that historians like me have raised questions.
The experiences of Trump’s predecessors remind us of the dangers inherent in the inevitable human frailty of the very powerful.
In other cases, the effect of physical ailments on competence was less clear — and therefore debatable. Franklin D. Roosevelt’s heart problems during the Second World War grew serious enough to contribute to his April 1945 death. Did they also compromise his mental capacities during the controversial Yalta Conference?
There have also been debates about the possible competence consequences of the behavioural tendencies and mental health conditions of several American presidents:
Questions and concerns about Trump’s physical and mental health, then, aren’t unique — even if the causes for concern are far more numerous than they were for previous presidents.
Numbers matter here. Out of a maximum 30 points, scores below 25 suggest mild to severe cognitive issues.
Of equal importance, the MoCA provides no insight into markers of mental competence, like reasoning and problem-solving. Well-established test batteries cover such ground (the Wechsler Adult Intelligence Scale is widely used), but Trump has not likely worked through any. (Neither, to be sure, have any predecessors — though none have raised the concerns so evident in 2026.)
Unofficial diagnoses of personality characteristics also fuel debate about Trump’s competence and mental health. The scale of the president’s ego is a prime example of concern.
Psychological issues?
On one hand, in the absence of intensive in-person assessment, psychiatrists are understandably reluctant to apply the label of “narcissistic personality disorder” (NPD) as defined by the American Psychiatric Association’s Diagnostic and Statistical Manual of Mental Disorders (DSM). On the other hand, many observers are also understandably struck by how Trump’s behaviour matches the DSM’s checklist of symptoms for the disorder.
More serious are his endless and false claims that he won the 2020 presidential election, that he has the right to torch constitutional norms like “due process” that are enabling ICE abuses in Minneapolis and elsewhere, and that he can disregard the need for congressional approval on policies like reducing cancer research and other health programs.
Psychiatrists also associate NPD with a sense of open-ended entitlement. Comic examples emerge: rebranding the (now) “Donald J. Trump and John F. Kennedy Center,” his lack of embarrassment in relishing the absurd FIFA Peace Prize or María Corina Machado’s surrender of her Nobel Peace Prize.
Brazenness
Trump’s willingness to trample upon rights within the U.S. and his apparent eagerness to disrupt and dismantle the building blocks of the post-Second World War international order are also possible signs of psychological problems.
The Trump family’s World Liberty Financial cryptocurrency enterprise “earned” more than $1 billion in 2025, after all.
Against the backdrop of the looming mid-term elections, Trump’s ever-compounding ego and appetites remain of burning concern — along with his overall physical health and mental competence. Other presidents faced similar questions even without the current storm of scandals and extremes.
Will Trump relish the distinction of leaving his predecessors in the dust on this front too?
In the past, Ronald W. Pruessen has received funding from the Social Sciences and Humanities Research Council of Canada.
À chaque élection présidentielle, des promesses sont faites, suscitant l’espoir des citoyens, avant qu’ils ne soient déçus. Or l’analyse des mandats présidentiels entre 1995 et 2022 montre que le respect (ou le non-respect) des promesses de campagne n’a aucun impact mesurable sur la popularité des présidents. La dynamique espoir-déception est systématique. Comment expliquer ce phénomène ?
Dans une démocratie représentative, on s’attend à ce que les citoyens évaluent leurs dirigeants au moins en partie au regard du degré de réalisation de leurs promesses électorales. Cette idée, au cœur de la théorie du mandat démocratique, suppose que les citoyens approuvent davantage les gouvernants qui tiennent parole. Ce mécanisme doit à la fois inciter les élus à respecter leurs engagements et assurer que les élections orientent réellement l’action publique.
Mais en France, il semble grippé : la cote des présidents suit une courbe descendante quasi mécanique, insensible à la mise en œuvre de leurs promesses de campagne. Notre analyse des mandats présidentiels entre 1995 et 2022, croisant données de popularité mensuelle et suivi de 921 promesses électorales, révèle que la réalisation des engagements ne produit aucun effet mesurable sur l’approbation publique.
Une popularité insensible aux promesses tenues
Les exécutifs se tiennent mieux à leur programme que beaucoup ne le pensent : le taux de réalisation (partielle ou complète) atteint près de 60 % en moyenne sur les cinq derniers mandats présidentiels. Emmanuel Macron, lors de son premier quinquennat, affiche un taux de réalisation supérieur à 70 %. François Hollande, Jacques Chirac (deuxième mandat) et Lionel Jospin (premier ministre en cohabitation) suivent de près. Nicolas Sarkozy affiche un taux de réalisation de 54 %, plus faible mais significatif, malgré une crise économique majeure. Jacques Chirac se démarque lors de son premier mandat par une proportion de promesses tenues comparativement faible (30 %). Ce faible taux reflète, d’une part, un désengagement rapide vis-à-vis de sa campagne sur la fracture sociale pour déployer une politique de rigueur budgétaire et, d’autre part, la période de cohabitation qui a fortement limité la capacité d’action du président.
Projet Partipol, Fourni par l’auteur
Ces bilans non négligeables ne se traduisent pas dans les sondages : nos analyses ne mettent en évidence aucun effet statistiquement significatif des promesses réalisées sur la popularité présidentielle. Les courbes de popularité font plutôt ressortir une dynamique bien connue : une phase de « lune de miel » postélectorale, suivie d’un déclin régulier, parfois ponctué d’un léger rebond en fin de mandat.
Ce phénomène, appelé « cost of ruling » (ou « coût de gouverner »), reflète une usure du pouvoir que ni les promesses tenues ni les réformes menées à bien ne parviennent à enrayer.
Projet Partipol, Executive Approval Project, Fourni par l’auteur
Les engagements les plus visibles – ceux qui marquent la campagne par leur degré d’ambition – ne sont pas les plus faciles à réaliser. Les promesses tenues, souvent d’ampleur moindre, passent souvent inaperçues, noyées dans le flot de l’actualité ou éclipsées par les polémiques.
La couverture médiatique accentue cette asymétrie. Les promesses rompues font la une, les promesses tenues n’attirent guère l’attention. Les conflits, les revers et les scandales sont plus vendeurs que le travail gouvernemental au long cours sur les promesses de campagne. Cette focalisation sur les échecs alimente une perception négative du pouvoir, même lorsque celui-ci agit conformément à ses engagements.
À cela s’ajoute la manière dont les citoyens interprètent l’action gouvernementale. Tous ne réagissent pas de la même façon à la réalisation d’une promesse. D’une part, les biais cognitifs jouent un rôle majeur : chacun lit l’actualité politique au prisme de ses préférences partisanes, de sa confiance dans les institutions ou de son humeur générale. Les soutiens de l’exécutif en place seront plus disposés à porter ses réalisations à son crédit.
D’autre part, les citoyens n’adhèrent pas tous à la même vision du mandat démocratique. Pour certains, l’élection donne mandat à l’exécutif pour tenir ses promesses ; pour d’autres, ces mesures peuvent rester intrinsèquement contestables, d’autant plus dans un système majoritaire où une partie des voix relève du vote « utile » ou de barrage plutôt que de l’adhésion.
Une promesse tenue suscitera donc souvent l’approbation des partisans, mais crispera les opposants. Ces réactions opposées annulent tout effet net sur la popularité.
Une hyperprésidentialisation contre-productive
Le cas français est particulièrement révélateur. La Ve République confère au président des pouvoirs beaucoup plus forts que dans d’autres régimes. Élu au suffrage universel direct, il concentre les attentes, incarne l’État, définit l’agenda et la ligne gouvernementale. Cette concentration du pouvoir est censée clarifier les responsabilités et lui donner la capacité de mettre en œuvre son programme. Mais elle se retourne contre lui en le rendant responsable de tout ce qui cristallise les insatisfactions et en démultipliant le cost of ruling.
Cette dynamique s’atténue en période de cohabitation, comme entre 1997 et 2002. Le président partage alors le pouvoir avec un premier ministre issu d’une autre majorité, ce qui brouille les responsabilités. Hors cohabitation, le président est seul en première ligne, cible de toutes les critiques et les insatisfactions et son capital politique s’épuise rapidement. En concentrant les attentes autant que les critiques, l’hyperprésidentialisation finit par miner la capacité d’action du président là où elle devait la renforcer.
Un mandat sous tension, un modèle aux abois ?
Cette déconnexion entre promesses et popularité met à mal le modèle du « mandat » démocratique. La présidentielle concentre des attentes immenses : les candidats sont incités à incarner des visions d’alternance très ambitieuses et à promettre des transformations profondes. Sur le papier, cette élection devrait leur donner la légitimité nécessaire pour mettre en œuvre ce programme une fois au pouvoir.
Mais en pratique, ce mandat est fragile. Le capital politique tiré de l’élection s’érode très vite une fois passée la « lune de miel », réduisant les marges de manœuvre de l’exécutif et limitant sa fenêtre pour imprimer sa marque. Cela incite à se précipiter pour faire passer le plus rapidement possible un maximum de réformes, au risque de sembler passer en force. Mais l’exécutif peine à convertir l’élection en capacité durable d’action : ses réalisations n’alimentent ni sa popularité ni le sentiment qu’ont les électeurs d’être représentés. Que les promesses soient tenues ou non, beaucoup ont le sentiment de ne pas avoir été entendus.
Projet Partipol, Fourni par l’auteur
Dans un paysage politique de plus en plus fragmenté et instable, il devient de plus en plus difficile de mettre en œuvre son programme (les promesses sont rarement réalisées au-delà de la deuxième année de mandat) et la frustration suscitée au regard des espoirs nourris par chaque élection présidentielle risque de se renforcer encore. Restaurer le lien entre élections, promesses et action publique suppose de sortir d’un modèle où le président est censé tout promettre, tout décider et tout assumer seul.
Il est temps de réfléchir à une forme de gouvernement plus collégial, où les responsabilités sont partagées et où un spectre plus inclusif de sensibilités peut s’exprimer. Une telle évolution permettrait non seulement de mieux répartir le crédit des accomplissements – les promesses tenues –, mais aussi le prix des défaites, dont l’inévitable coût de gouverner.
Isabelle Guinaudeau a reçu des financements de l’Agence nationale de la recherche (Projet ANR- 13-JSH1-0002-01, PARTIPOL, 2014-2018).
Emiliano Grossman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Aurélie Maurice, Maîtresse de conférences en Sciences de l’Éducation et de la Formation, Université Sorbonne Paris Nord
Se nourrir est un acte complexe, croisant psychologie, culture et physiologie. Dès lors, comment s’y prendre, en tant que parent ou éducateur, pour aider les enfants à former leur goût et élargir leur répertoire alimentaire ? La recherche donne quelques pistes pour mieux tenir compte de la place des émotions dans le rapport à la nourriture.
Les derniers états généraux d’octobre 2025 ont conduit à une proposition de loi d’expérimentation pour l’instauration d’un enseignement d’éducation à l’alimentation obligatoire à l’école.
Alors que l’éducation à l’alimentation s’est longtemps heurtée à des limites, notamment face aux inégalités sociales de santé, de nouvelles approches apparaissent : citons l’approche tridimensionnelle qui intègre les dimensions « nutritionnelle », « psycho-sensorielle et comportementale » et « socio-environnementale ». L’approche hédonique, elle, privilégie le plaisir alimentaire avec trois leviers d’actions : l’exposition sensorielle répétée aux aliments, les interactions sociales lors des prises alimentaires et les croyances sur les aliments.
Si ces démarches mettent en avant l’importance des émotions, comment, concrètement, les prendre en compte au quotidien, lors de repas ou de séances de découverte, que l’on soit parent, acteur ou actrice de l’éducation ?
Veiller au contexte des repas
S’alimenter est un acte complexe, car multidimensionnel : physiologie, sociabilité, identité culturelle et psychologie s’entremêlent. S’alimenter, c’est aussi ressentir toute une palette d’émotions : la joie, le dégoût, la peur… Celles-ci sont pour l’instant peu prises en compte globalement dans les séances d’éducation à l’alimentation. C’est le cas néanmoins dans l’éducation au goût, qui cherche à reconnecter les jeunes avec leurs sens.
Marie Jaunet, Sylvie Delaroche-Houot et moi-même avons mené une revue de la littérature scientifique afin d’explorer comment les émotions peuvent être mobilisées dans le champ de l’éducation à l’alimentation et quels en sont les bénéfices. Cette revue a été effectuée sur 30 articles publiés entre 2005 et 2022, dont 90 % en anglais, provenant principalement d’Amérique du Nord et d’Europe occidentale.
Cette revue montre que les émotions des jeunes sont bel et bien à prendre en compte, et ce, pour plusieurs raisons. Tout d’abord, il apparaît que la composition nutritionnelle des aliments a un impact sur ces émotions. Un repas suffisamment varié et correspondant bien aux besoins nutritionnels des enfants diminuerait les émotions négatives, comme la tristesse ou l’anxiété.
Ensuite, l’importance d’être attentif à ses cinq sens quand on se nourrit est soulignée, notamment, par des études sur l’alimentation consciente chez les enfants. Créer un environnement positif pendant les repas, c’est-à-dire faire du moment du repas un moment joyeux, ludique et apaisant, favorise une prise alimentaire diversifiée et en quantité suffisante de la part des enfants. Cette attention portée à la qualité de l’ambiance des repas est d’autant plus bénéfique qu’elle est travaillée tant à la maison qu’à l’école.
En obligeant les enfants à finir leurs assiettes, ou en se servant de l’alimentation comme d’une récompense ou d’un élément de chantage, certains parents peuvent favoriser le développement d’une « alimentation émotionnelle » chez leurs enfants. Cela peut conduire à un surpoids à moyen et long terme.
Favoriser l’empathie
Un groupe d’experts est arrivé à une classification des styles éducatifs parentaux sur l’alimentation qui en distingue trois types : coercitif (fondé sur la pression, les menaces et les récompenses), structuré (donnant des règles qui encadrent les prises alimentaires) et favorisant l’autonomie (donnant les clés à l’enfant pour qu’il fasse ses propres choix, dans un climat d’amour inconditionnel).
Ces trois grandes catégories conduisent à des états émotionnels très différents, allant de la peur à la joie, et à des pratiques alimentaires enfantines très contrastées (se cacher pour manger des aliments interdits, se restreindre de manière autonome).
Le repas familial peut être un moment propice au partage et à l’écoute des émotions de l’enfant. Aux États-Unis apparaît depuis plusieurs décennies un terme, « parent responsiveness », qui pourrait être traduit par « réactivité parentale », à savoir une attitude empathique des parents, apportant une réponse adaptée aux émotions exprimées par leurs enfants et aux besoins sous-jacents.
Plusieurs chercheurs ont proposé d’adapter ce concept à l’alimentation, et parlent de « responsive feeding » ou « réactivité alimentaire ». Il s’agit de soigner le temps du repas, d’en faire un moment pendant lequel l’enfant se sent à l’aise et en confiance. Le parent cherche à être attentif aux sensations de faim et de satiété de son enfant, à lui répondre rapidement, de façon appropriée, en fonction de l’émotion qu’il exprime et de son stade de développement.
Enfin, les articles étudiés dans la revue de littérature font état de plusieurs outils conçus pour aider les enfants à s’exprimer autour de l’alimentation et à nommer leurs émotions.
Cette revue montre qu’il faut prendre en compte les différentes dimensions de l’acte alimentaire, tel que l’environnement dans lequel l’aliment est consommé. Un climat bienveillant et joyeux apparaît plus propice aux nouvelles expériences gustatives, alors que, si l’enfant se sent contraint, voire angoissé, les conditions ne sont pas réunies pour qu’il découvre de nouveaux aliments ou accepte de manger des légumes, par exemple.
La politique publique des mille premiers jours de l’enfant recommande des activités conjointes parents/enfant, sources d’émotions positives dans lesquelles l’alimentation a toute sa place. Il apparaît donc que la formation tant des parents que des enseignants, des personnels du périscolaire et des autres professionnels éducateurs est essentielle pour développer la capacité d’autorégulation et d’ouverture des jeunes dans leur alimentation.
Aurélie Maurice a reçu des financements de l’ANR pour le projet ERMES qu’elle coordonne.
Source: The Conversation – in French – By Djamchid Assadi, Professeur associé au département « Digital Management », Burgundy School of Business
Longtemps, les milieux d’affaires et religieux ont été, les uns comme les autres, des piliers du système iranien. Mais dès les années 1940, le clergé se politise et prend de plus en plus d’importance. L’avènement de la République islamique en 1979 entérine et accélère nettement ce processus : la Mosquée prend alors le pas sur le Bazar, réduit à un rôle subalterne. La défection observée dernièrement du Bazar vis-à-vis du pouvoir s’explique par des éléments conjoncturels ; mais, structurellement, elle était en germe depuis des décennies.
Pourquoi un allié historique, longtemps pilier d’un régime autoritaire, s’en désiste-t-il et contribue-t-il à sa fragilisation, voire à sa chute ?
Depuis Tocqueville jusqu’aux travaux contemporains sur les « piliers du pouvoir », une constante traverse l’histoire politique moderne : la stabilité d’un régime dépend moins de l’adhésion diffuse des foules que de l’obéissance de ses corps intermédiaires organisés. Lorsque ces soutiens cessent d’obéir, le pouvoir entre dans une zone de vulnérabilité structurelle.
Ce mécanisme s’observe dans des contextes variés, comme la rupture des forces armées portugaises avec le régime de Caetano en 1974, le désengagement des élites franquistes après 1975 : le basculement ne procède pas d’une mobilisation populaire isolée, mais de la désolidarisation d’acteurs institutionnels jusque-là intégrés à l’ordre autoritaire.
Le Grand Bazar de Téhéran illustre précisément ce mécanisme. Sa fermeture lors du soulèvement de janvier 2026 ne constitue ni l’origine ni le moteur principal de la contestation, mais son symptôme institutionnel le plus lisible. Elle signale le retrait d’un acteur longtemps arrimé à la jurisprudence religieuse – moins par conviction que parce qu’elle offrait un cadre normatif stable à ses échanges économiques. Si le mouvement iranien est national, porté par des groupes sociaux, professionnels et générationnels multiples, chacun mû par des motifs distincts, le désistement du bazar conserve une singularité claire : celle d’un acteur qui cesse d’assurer sa fonction d’amortisseur institutionnel entre société et pouvoir.
Pour en saisir la portée, il faut revenir à la mutualité séculaire entre le Bazar et la Mosquée. Cette relation ne reposait ni sur une fusion idéologique ni sur une subordination politique, mais sur une complémentarité fonctionnelle : le religieux garantissait les normes et arbitrages assurant la prévisibilité des échanges ; le marchand finançait le clergé et garantissait son indépendance vis-à-vis du pouvoir central. Cette autonomie réciproque constituait l’un des fondements de la stabilité sociale iranienne.
La révolution islamique de 1979 rompt cet équilibre. En assujettissant la Mosquée pour monopoliser le sacré, le nouveau pouvoir transforme une institution autonome en instrument de règne. La relation cesse d’être horizontale et devient médiatisée par un État idéologique. La grève de janvier 2026 ne peut donc être réduite à une réaction conjoncturelle à la cherté de la vie – même si celle-ci joue un rôle déclencheur. Elle révèle une rupture plus profonde, inscrite dans la longue durée, née de la transformation du rapport entre religion, économie et pouvoir depuis 1979.
Le Bazar et la Mosquée : une relation ancienne, fonctionnelle et non fusionnelle
La relation séculaire entre le Bazar et la Mosquée repose sur une division fonctionnelle du travail social. Avant toute politisation du clergé, cette relation est avant tout professionnelle. La jurisprudence islamique chiite (fiqh) agit depuis toujours, surtout depuis la dynastie des Safavides (1501-1722), comme un véritable « code de commerce » : elle encadre les contrats, arbitre les litiges et garantit la sécurité des échanges (Lambton, 1969). La Mosquée fonctionne ainsi comme un tiers de confiance indépendant, extérieur à l’État, assurant la prévisibilité de l’ordre marchand.
Les travaux empiriques de Keshavarzian (2009) confirment que cette relation repose sur des réseaux horizontaux de confiance et de coordination sociale, produits en dehors des structures étatiques, et non sur une loyauté idéologique. L’islam chiite non politisé valorise historiquement l’activité marchande, faisant du commerce une pratique socialement légitime et moralement encadrée. Cette alliance économico-religieuse constitue un fait sociologique structurant de longue durée (Abrahamian, 1982), dans lequel la religion ne gouverne pas l’économie mais en stabilise les règles.
Cette mutualité s’exprime politiquement dès le XIXe siècle. Lors de la crise du tabac (1891–1892), Bazar et Mosquée s’unissent contre une concession accordée par le pouvoir. La révolte du tabac, déclenchée en 1891 sous le règne de Nasser al-Din Chah, était une protestation massive contre la concession accordée par le gouvernement iranien à un ressortissant britannique pour le monopole du tabac. Cette mesure, perçue comme une violation de l’intérêt national et une intrusion étrangère, a été fortement dénoncée par le clergé chiite et les intellectuels, marquant un tournant dans la mobilisation politique moderne de l’Iran. Cette opposition ciblée à l’arbitraire étatique – plutôt qu’un projet théocratique (Keddie, 1966) – a jeté les bases d’un mouvement nationaliste sans ambitions politiques religieuses qui changera de cap plus tard pour soutenir la Révolution iranienne de 1979.
Le même schéma se retrouve durant la Révolution constitutionnelle (1905–1911), lorsque les grands commerçants financent les bast (sit-in de protestation) et les hijrat (exils protestataires, consistant généralement à quitter une ville pour exercer une pression politique) afin de soutenir l’instauration d’une mashrouteh – un État constitutionnel limitant le pouvoir monarchique, non un État islamique (Afary, 1996).
La modernisation des années 1920–1930 ne rompt pas immédiatement cet équilibre. Reza Shah (fondateur de la monarchie Pahlavi, à la tête du pays de 1925 à 1941) transforme progressivement le droit commercial religieux en droit civil, en extrayant les principes juridiques modernes du fiqh sans rupture frontale avec les institutions religieuses (Banani, 1961). Les sphères demeurent distinctes : le Bazar conserve sa fonction économique, la Mosquée son rôle normatif et social.
C’est précisément cette architecture fonctionnelle, fondée sur la séparation des rôles et l’autonomie réciproque, qui commence à se fissurer à partir des années 1940, et plus encore dans les années 1960, lorsqu’une partie du clergé se politise et remet en cause sa fonction traditionnelle de médiation.
L’émergence du clergé radical et la politisation de la mosquée
La politisation de la Mosquée marque une rupture décisive dans l’histoire des relations entre religion, commerce et pouvoir en Iran. Elle met fin à la fonction du clergé comme tiers normatif indépendant et ouvre la voie à une instrumentalisation politique du religieux. Deux figures structurent ce basculement.
La première est Navab Safavi (1924–1956), fondateur des Fadaian·e Islam (« les Sacrifiés de l’islam » ou « les Fidèles prêts au sacrifice pour l’islam »). En prônant l’application coercitive de la charia et en légitimant l’assassinat politique, Navab Safai rompt avec le rôle historique du clergé chiite comme arbitre moral et juridique. Bien que marginal et rapidement réprimé, ce courant inaugure une conception militante et autoritaire du religieux, qui influencera durablement l’islamisme politique iranien (Rahnema, 1998).
La deuxième figure, l’ayatollah Ruhollah Khomeini, procède à une rupture structurelle. À partir de 1963, son opposition aux réformes de la « Révolution blanche » (un vaste programme de modernisation lancé par Mohammad Reza Chah, comprenant la réforme agraire, l’alphabétisation de masse, l’émancipation juridique des femmes, etc.) transforme la Mosquée en acteur politique central. Le clergé cesse alors d’être un garant des normes sociales et économiques ; il devient un instrument de mobilisation politique, puis, après 1979, un pilier constitutif de l’État idéologique.
Cette politisation rencontre un écho auprès d’une fraction du bazar dans un contexte de transformation rapide de l’économie iranienne. Durant les années 1960, la croissance atteint en moyenne 9 à 10 % par an, portée par la substitution des importations et l’industrialisation (Amuzegar, 1977). Ce processus marginalise les bazaris spécialisés dans le commerce extérieur, alimentant un mécontentement économique qui se mue en radicalisation politique partielle.
C’est dans ce contexte qu’émerge le Motalefeh (Parti de la coalition islamique), réseau de bazaris islamisés, qui joue un rôle clé dans la mobilisation révolutionnaire de 1978–1979 (Bakhash, 1984). Toutefois, cette alliance ne traduit pas un ralliement durable du bazar comme corps social. Le Motalefeh se transforme rapidement en élite intégrée à l’appareil d’État, utilisant son identité bazari pour administrer et contrôler le bazar plutôt que pour le représenter.
La politisation du religieux désorganise ainsi les réseaux traditionnels. La confiance horizontale fondée sur le fiqh est remplacée par une loyauté idéologique surveillée, médiatisée par l’État. En sortant la religion du domaine de la croyance volontaire et de la médiation sociale, le régime affaiblit sa capacité à structurer durablement les relations économiques, préparant les conditions du désistement ultérieur du bazar.
Les limites de l’État rentier clientéliste (1979–2026)
Le régime islamique issu de la révolution de 1979 opère une double transformation structurante. D’une part, il place le clergé et la mosquée sous l’autorité du velayat·e faqih – le principe de « tutelle du juriste‑théologien », qui confère au guide suprême un pouvoir politique et religieux supérieur à toutes les autres institutions ; d’autre part, il étatiste une large part du secteur privé, redistribuant entreprises, licences et monopoles d’import-export à ses fidèles. Les frères Asgaroladi incarnent ce capitalisme de connivence adossé à l’État révolutionnaire. Issus du bazar traditionnel, ils deviennent des hommes d’affaires ultra‑puissants grâce à leur proximité avec le régime, obtenant monopoles, licences et positions clés dans les fondations para‑étatiques – une illustration emblématique du capitalisme de connivence né après 1979.
Cette mutation rompt l’équilibre historique : la Mosquée perd son autonomie institutionnelle, tandis que le Bazar devient un bénéficiaire rentier dépendant de l’État. Tant que la rente pétrolière permet de financer ce clientélisme, le système fonctionne de manière précaire mais durable.
Toutefois, ce modèle ne repose jamais sur une représentation collective du Bazar. Le régime privilégie des relations personnelles et sélectives, substituant au profit marchand l’accès à des licences d’importation. Ce mécanisme devient fatal lorsque les sanctions internationales privent l’État de devises. Exclu des circuits financiers internationaux, le régime perd son principal levier de contrôle économique.
L’économie entre alors dans une spirale inflationniste : inflation supérieure à 42 %, effondrement du rial, chute rapide du pouvoir d’achat. Pour les bazaris, dont l’activité repose sur l’anticipation, cette instabilité rend le calcul économique impossible. Comme l’avait montré Hayek (1945), la désorganisation du système des prix détruit la rationalité des décisions économiques.
Cette crise s’accompagne d’une fragmentation institutionnelle entretenue : division des chambres de commerce, bureaucratisation du clergé, marginalisation des mosquées comme instances d’arbitrage. La rupture de janvier 2026 résulte ainsi d’une double faillite : celle d’un État rentier incapable de tenir ses promesses, et celle d’une Mosquée assujettie ayant cessé de jouer son rôle historique.
Le désistement des alliés stratégiques
Le cas iranien montre que le désistement d’un allié stratégique ne relève ni d’un sursaut moral ni d’une rupture idéologique soudaine, mais de l’effondrement progressif des mécanismes institutionnels qui rendaient l’obéissance rationnelle.
En janvier 2026, le Grand Bazar ne se retire pas seulement d’un État en crise économique. Il se désengage d’un ordre politique qui a détruit les conditions mêmes de la loyauté. En assujettissant la Mosquée, la République islamique a rompu la mutualité fonctionnelle entre religion et économie, privant le bazar des cadres normatifs stables indispensables à son activité.
Ce désistement ne traduit pas un rejet de la foi, mais le refus d’une religion devenue autoritaire, bureaucratisée et imprévisible. En neutralisant les corps intermédiaires qui assuraient la coordination sociale, l’État a remplacé la confiance horizontale par une loyauté contrainte, tolérée tant qu’elle restait matériellement soutenable.
Comme l’avait montré Raymond Aron, un régime autoritaire devient vulnérable lorsqu’il perd l’obéissance de ses soutiens structurants. Le désistement du Bazar révèle ainsi une fragilisation systémique. Lorsque l’État détruit simultanément la prévisibilité économique et les institutions sociales qui rendaient l’obéissance rationnelle, il ouvre une zone d’incertitude historique dont l’issue dépend moins de la rue que de la capacité – ou non – à reconstruire une alternative institutionnelle crédible.
Djamchid Assadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Dans le cadre de notre émission consacrée à la défense de la liberté académique, diffusée vendredi 23 janvier, nous publions cet article initialement paru dans le Quinzième jour, le quadrimestriel de l’Université de Liège. Édouard Delruelle y développe un plaidoyer en faveur de l’inscription de la liberté académique dans la Constitution belge comme une étape pour ouvrir un débat démocratique sur le sujet.
En septembre dernier, l’Université de Berkeley, temple historique de la liberté de pensée, a accepté de livrer à l’administration Trump une liste d’étudiants et de professeurs suspectés d’« antisémitisme » en raison de leur engagement en faveur de la cause palestinienne.
Dans cette liste figure la philosophe Judith Butler, docteure honoris causa de l’université de Liège. Qui aurait imaginé, il y a un an à peine, que les universités les plus performantes et les plus prestigieuses au monde seraient l’objet d’attaques aussi violentes de la part du pouvoir politique, et qu’elles céderaient si prestement à ses intimidations et injonctions ? Que des programmes de recherche essentiels pour l’avenir de l’humanité dans les domaines de la santé ou du climat seraient démantelés ? Que les chercheurs en sciences humaines et sociales devraient bannir de leur vocabulaire des termes tels que diversité, égalité, inclusion ?
En Belgique, des coupes et des inquiétudes
Pourtant, nous avions tort de penser que ces atteintes brutales à la liberté académique ne pouvaient avoir cours que dans les régimes autoritaires. Cela fait plusieurs années que l’Academic Freedom Index enregistre une dégradation de la liberté académique en Europe. Intrusion du management dans la gouvernance universitaire, culture de la « post-vérité » sur les réseaux sociaux, ciblage d’intellectuels critiques par l’extrême droite, stigmatisation d’un prétendu « wokisme » que propageraient les études de genre, décoloniales ou LGBTQIA+ : ces offensives ne sont pas neuves, et elles touchent aussi la Belgique.
Mais un coup d’accélérateur a indéniablement été donné en 2025, avec les coupes budgétaires dans la recherche décidées par le gouvernement de la Fédération Wallonie-Bruxelles, une réforme drastique des retraites des Académiques, avant d’autres mesures annoncées sur le précompte chercheur ou le statut de fonctionnaire. Les mouvements Stand Up for Science au niveau mondial, ou « Université en Colère » chez nous, témoignent de l’inquiétude de la communauté universitaire face aux menaces qui pèsent sur la liberté académique.
De nombreuses menaces
Ces menaces sont multiples. On peut schématiquement en identifier quatre :
les menaces politiques provenant de gouvernements et de mouvements politiques déterminés à contrôler idéologiquement la production et la diffusion des connaissances ;
celles que font peser sur la science la logique économique de marché – rentabilité, compétitivité, privatisation de la recherche, avec comme conséquences, entre autres, la précarisation grandissante des chercheurs et le découplage de l’excellence scientifique et de la liberté académique ;
l’emprise des technologies du numérique et leur l’impact sur la propriété intellectuelle, l’autonomie pédagogique, l’esprit critique ou la créativité (fake news, IA mobilisée à des fins de propagande, intrusion des réseaux sociaux dans les débats académiques, etc.) ;
la propagation d’un « sciento-populisme » au sein d’une opinion publique de plus en plus polarisée et critique à l’égard des élites (intellectuelles, judiciaires, journalistiques, etc.).
Ces menaces se conjuguent le plus souvent : la censure politique d’un Trump s’exerce par la pression économique, la Tech numérique délégitime la science auprès des internautes, les impératifs financiers justifient la mise au ban des savoirs critiques. Aucun domaine de recherche n’est épargné : les sciences humaines et sociales sont attaquées en raison de leur prétendue dangerosité idéologique ou de leur inutilité économique présumée mais les STEM (sciences, technologie, ingénierie, mathématiques) sont aussi menacées d’être instrumentalisées comme simples vecteurs de puissance géopolitique, comme c’est déjà le cas en Russie ou en Chine.
La recherche en plein « warscape »
La recherche scientifique évolue dorénavant dans un « warscape », c’est-à-dire un espace traversé par la violence politique, sociale et économique, et où les rapports de pouvoir et de savoir sont complètement reconfigurés. Trois modalités de ces rapports se dégagent :
la guerre contre la science menée par ceux qui veulent la destruction de l’autonomie des universités et de la libre recherche (en même temps que celle de la démocratie) ;
la guerre dans la science, du fait des fractures au sein de la communauté universitaire elle-même autour de questions controversées telles que le colonialisme, le conflit israélo-palestinien, le transgenrisme, etc. ;
la science face à la guerre, qui soulève la question des collaborations « à risques », notamment avec l’industrie de l’armement ou avec des partenaires internationaux potentiellement impliqués dans des violations du droit humanitaire – question très polarisante, comme l’a montré à l’ULiège la polémique autour de la chaire Thalès.
Une culture citoyenne
C’est dans cette perspective que la liberté académique, j’en suis convaincu, doit être défendue et protégée, non par corporatisme, mais parce qu’elle est la condition de tout développement scientifique comme de tout État de droit et de toute démocratie.
Telle est aussi la conclusion du remarquable rapport publié récemment par Sophie Balme pour France Universités, qui propose une “stratégie globale” de renforcement de la liberté académique en 65 propositions. Comment créer une véritable culture professionnelle, politique et surtout citoyenne autour de la liberté de recherche et d’enseignement ? Une culture citoyenne surtout, car l’une des raisons pour lesquelles Trump peut attaquer si brutalement les universités est l’hostilité d’une grande partie de l’opinion publique américaine à l’égard d’un monde universitaire jugé arrogant, coupé des réalités et entretenant un système de reproduction sociale financièrement inaccessible au plus grand nombre. Nous devons éviter de nous retrouver dans cette situation.
La première des 65 propositions de Sophie Balme est d’inscrire la liberté académique dans la Constitution française. Pourquoi pas aussi en Belgique, qui suivrait ainsi l’exemple de l’Italie ou de l’Allemagne (dont on sait quelles tragédies historiques ont été à l’origine de leurs constitutions d’après-guerre) ? Ouvrons le débat.
Ouvrir un débat démocratique
Certains constitutionnalistes objecteront que si la liberté académique ne figure pas formellement dans le texte constitutionnel, elle est néanmoins explicitement reconnue par la jurisprudence de la Cour constitutionnelle et de la Cour européenne des droits de l’Homme, et qu’elle est en outre consacrée par la Charte des droits fondamentaux de l’Union européenne, un texte qui est au sommet de la pyramide normative et d’application directe dans notre droit national. D’un point de vue juridique, ma proposition serait comme un coup d’épée dans l’eau. On répondra toutefois que presque toutes les libertés fondamentales sont dupliquées aux deux niveaux normatifs, européen et national, ce qui renforce leur effectivité juridique et leur portée symbolique.
Mais surtout, le processus politique de révision de la Constitution qu’il faudra parcourir serait l’occasion d’une large mobilisation du monde académique et, espérons-le, de la société civile, et d’un débat démocratique autour de la liberté de recherche et d’enseignement. Ce débat obligerait les partis politiques à se positionner et à en tirer les conséquences sur les plans programmatique et législatif. Et il représenterait une belle opportunité de solidarité et d’échange entre acteurs et actrices de la recherche au nord et au sud du pays.
Une liberté spécifique et complexe
Ce débat serait surtout l’occasion de s’interroger sur la spécificité et la complexité de la liberté académique. Spécificité par rapport à la liberté d’expression, dont jouit tout citoyen et qui l’autorise à dire ce qu’il veut (hors des atteintes à la loi), y compris des choses idiotes et insignifiantes – ce dont un grand nombre ne se prive pas. Tandis que la liberté académique est un outil au service d’une finalité qui dépasse son bénéficiaire : la recherche de la vérité sans contraintes (une belle définition du philosophe Paul Ricœur sa « Préface » à Conceptions de l’université de J. Drèze et J. Debelle. Une finalité qui nous impose des devoirs (à commencer par celui de nous soumettre au jugement de nos pairs).
Complexité ensuite de la liberté académique, qui est multidimensionnelle, comme en témoignent les cinq critères utilisés par l’Academic Freedom Index : la liberté de recherche et d’enseignement, la liberté de collaborer, d’échanger et de diffuser les données et les connaissances, l’autonomie institutionnelle des universités, l’intégrité du campus à l’égard des forces de l’ordre mais aussi des groupes militants violents et enfin la liberté d’expression académique et culturelle, y compris sur des questions politiques ou sociétales.
De vrais enjeux se posent quant aux limites de chacune de ces libertés, et aux tensions qui peuvent exister entre elles, en particulier entre la liberté académique individuelle et l’autonomie des universités. Car pour garantir celle-là, celles-ci ne doivent-elles pas s’astreindre à une certaine « réserve institutionnelle » (un terme plus approprié que « neutralité ») sur les questions politiques ? Je le crois ; mais cette « réserve » est-elle encore de mise face à des violations caractérisées du droit international et du droit humanitaire ? C’est toute la complexité du débat autour des collaborations avec les universités israéliennes…
Résistance, nuance, responsabilité
Comment faire de nos universités des espaces à la fois ouverts sur le monde et préservés de la violence qu’il engendre ? Des espaces de résistance à l’obscurantisme abyssal qui gangrène nos sociétés, de nuance contre les simplismes idéologiques, de responsabilité à l’égard des immenses défis environnementaux, sociaux, géopolitiques dont dépend l’avenir de l’humanité ? Ce qui arrive aujourd’hui au monde de la recherche doit faire réfléchir chacun d’entre nous sur son ethos académique, sur le mode de subjectivation qu’implique un exercice sans réserve mais responsable de la liberté académique. Mais cette réflexion doit aussi être collective, autour d’un objectif mobilisateur. C’est ce que je propose.
La liberté académique dans la Constitution, ce n’est donc pas figer dans le marbre une vérité révélée, mais au contraire ouvrir le débat sur une liberté essentielle mais menacée, qui regarde tant les acteurs de la recherche que les citoyens qui en sont les destinataires finaux. Ce n’est pas non plus cantonner le débat au niveau belge, mais créer l’opportunité d’un mouvement à l’échelon européen, afin que la recherche y préserve son autonomie à l’heure où, en Chine et aux États-Unis (et ailleurs), elle est désormais sous contrôle politique. Sophie Balme propose ici aussi des pistes d’action pour l’Union européenne, en termes d’investissements mais aussi d’outils concrets de mesure et de promotion de la liberté académique. Et bien sûr, nous devons continuer à manifester notre solidarité envers les chercheurs inquiétés ou opprimés partout dans le monde.
Pour atteindre ces objectifs, je suggère une double stratégie, par « en haut » et par « en bas ». D’un côté, un engagement des rectrices et des recteurs du nord et du sud (via le CREF – Conseil des rectrices et recteurs francophones – et le VLIR – Vlaamse interuniversitaire raad), en nouant aussi des alliances par-delà les frontières. L’ULiège pourrait être le moteur d’un tel engagement, par la voix de la rectrice Anne-Sophie Nyssen. De l’autre côté, une mobilisation de nous tous, acteurs et actrices de la recherche, envers le monde politique et la société civile – une mobilisation qui prendrait la forme de pétitions, de colloques, de forums, mais aussi de production de savoirs qui manquent cruellement dans le domaine francophone (Notons malgré tout l’Observatoire des atteintes à la liberté académique).
En tous cas, il est grand temps d’agir si nous ne voulons pas plier demain, à notre tour, devant les apprentis Trump qui pullulent autour de nous.
Édouard Delruelle a reçu des financements du FNRS (Belgique) et de l’Université de Liège
Source: The Conversation – in French – By Florent Lebon, Professeur des Universités en Neurosciences cognitives et comportementales, Université Claude Bernard Lyon 1
Les « actions cachées » engagent des régions cérébrales liées à la motricité alors qu’on reste immobile. Cette plasticité des neurones, qui renforce les liens entre le cerveau et les muscles, n’a pas encore livré tous ses secrets. Mais ces processus cognitifs pourraient, dans le futur, se révéler précieux pour optimiser des gestes sportifs ou encore favoriser la rééducation après une blessure.
En bout de piste, un sauteur en longueur se prépare pour son dernier essai. La médaille est en jeu. Avant de s’élancer, il répète mentalement sa course d’élan, les premières foulées, l’accélération, l’impulsion et la réception dans le sable. Il rouvre les yeux, et c’est parti !
Une jeune joueuse de volley-ball assiste à un match de son équipe préférée. Elle observe la posture des joueuses en attaque et en défense, la manière dont elles se déplacent. Elle comprend la tactique annoncée et s’attend à ce que son équipe marque. Elle apprend en observant !
L’être humain possède l’extraordinaire capacité d’imaginer ses propres mouvements, de comprendre les actions d’autrui par la simple observation, ou encore de communiquer et transmettre ses actions par l’écriture et la lecture.
Activation du cerveau sans bouger
Tous ces processus cognitifs engagent des régions cérébrales liées à la motricité, alors même que l’on ne bouge pas. Ils peuvent être identifiés sous le terme d’« actions cachées ». Même si on est immobile, certaines parties de notre cerveau, normalement actives pendant nos actions, le sont également pendant les actions cachées, telles que l’imagerie motrice, l’observation d’action ou encore le langage d’action.
L’imagerie motrice correspond au fait de se représenter mentalement, de façon consciente, un mouvement, sans l’exécuter physiquement. Les modalités basées sur les sens permettent de se représenter une action. Les deux principales sont le visuel (« se voir » en train de faire l’action) et le kinesthésique (« ressentir » les sensations associées au mouvement). L’observation d’action, elle, consiste à sélectionner les informations pertinentes d’une action en train de se réaliser, et d’en comprendre les intentions.
Enfin, dans ce contexte, le langage d’action fait référence à la lecture, silencieuse ou non, de verbes évoquant une action, tels que « serrer », « prendre », « sauter ». Ces verbes isolés peuvent être enrichis par un contexte (« je vois une orange sur la table, je la prends ») afin d’activer d’autant plus le système moteur lié à cette action.
Rappelons qu’une grande étape dans la compréhension des actions cachées a été la découverte des neurones miroirs. Une équipe italienne, menée par Rizzolatti, a enregistrée dans le cerveau de singes, l’activité de neurones qui déchargeaient non seulement lorsque le singe exécutait une action de préhension d’un objet, mais aussi lorsqu’il observait l’expérimentateur saisir cet objet – une découverte accidentelle mais révolutionnaire.
Les actions cachées activent ainsi un réseau complexe au sein du cerveau, montrant l’interaction entre plusieurs régions, telles que le cortex moteur primaire (de là où partent nos commandes motrices), le cortex occipital (là où sont traitées les informations visuelles) ou encore le cortex pariétal (là où sont traitées les informations sensorielles).
La majorité des personnes peuvent ainsi recréer mentalement leur dernier lieu de vacances au soleil, avec plus ou moins de détails, et s’imaginer courir sur la plage (pour exception, voir l’article sur l’aphantasie).
On dit alors que les processus cognitifs associés à nos actions sont incarnés dans notre cerveau (théories de la cognition incarnée). Il n’est pas nécessaire de bouger pour activer le réseau de la motricité. La simulation mentale nous permettrait de planifier nos propres actions, de comprendre les actions d’autrui, de juger les conséquences des actions ou encore de comprendre plus facilement un récit impliquant des actions.
Même si cette simulation n’est pas explicite (c’est-à-dire qu’on ne crée pas volontairement d’images dans notre tête, et on n’en est peut-être même pas conscient), elle optimiserait notre imagerie et la compréhension des actions (par l’observation et le langage).
Des actions cachées pour renforcer les liens entre cerveau et muscles
Ces différents types d’actions cachées peuvent être utilisées de manière très pratique pour apprendre un nouveau morceau de musique, optimiser son geste sportif ou encore récupérer à la suite d’une blessure ou d’une pathologie, sans risquer d’accident ni de fatigue.
Une des études pionnières est celle de Yue et Cole, en 1992. Par le simple fait d’imaginer des contractions de la main, tel un entraînement à raison de quatre séances par semaine pendant quatre semaines, les participants ont réussi à augmenter leur force de 22 %. La plasticité cérébrale rentre en jeu pour renforcer les réseaux neuronaux normalement impliqués dans l’action. Plus je répète mentalement, plus j’entraîne mon cerveau : je renforce les liens entre le cerveau et les muscles.
Des perspectives pour, demain, favoriser l’apprentissage ou la rééducation
Se représenter mentalement des mouvements peut également améliorer d’autres capacités, comportementale ou cognitive. Une récente étude montre qu’imaginer des actions simples (écrire, lancer, remplir une tasse, etc.) peut améliorer la performance à des tâches de compréhension du langage, en facilitation l’accès lexico-sémantique.
À l’heure actuelle, les chercheurs s’attachent à mieux comprendre les liens entre les différents types d’actions cachées et à optimiser leur utilisation. Dans des études encore en cours, ils testent, par exemple, la combinaison de ces actions cachées dans le but de favoriser d’autant plus l’apprentissage et la rééducation. Il est possible de combiner l’observation d’un adversaire au tennis et d’imaginer le coup approprié pour gagner le point. Ou bien il est envisageable de lire des verbes d’actions avant d’imaginer un mouvement de force pour en booster les effets.
L’enjeu est alors de trouver le bon dosage entre les différentes pratiques, pour éviter la fatigue mentale, tout en observant des effets positifs.
Il est à noter que ces différents types d’actions cachées restent distincts. Ils restent encore des zones d’ombre pour comprendre leur interaction potentielle et favoriser ainsi leur utilisation seule ou combinée.
Le cerveau a encore des choses à nous dévoiler.
Les projets « Interaction entre Langage et Imagerie motrice pour améliorer l’apprentissage moteur et la compréhension du langage » – LAMI – et « Explorer les marqueurs neuronaux et fonctionnels des actions cachées à travers le prisme de la phantasie » – COVACT – sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Florent Lebon a reçu des financements de l’agence nationale de la recherche.
Carol Madden-Lombardi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
En théorie, le montant de l’aide au développement versé à tel ou tel pays ne devrait pas dépendre de sa contribution aux chaînes de valeur mondiales. Dans les faits, pourtant, on observe que les pays donateurs ont tendance à privilégier, quand ils aident financièrement des pays pauvres, ceux qui sont utiles à leur propre production…
Pourquoi certains pays reçoivent-ils davantage d’aide au développement que d’autres alors que leurs besoins sont comparables ? Les chercheurs s’interrogent sur cette question depuis des décennies. Nous savons déjà que les motivations des donateurs ne sont pas uniquement altruistes : elles incluent des considérations diplomatiques ou commerciales par exemple.
Dans un article récent, nous montrons que les chaînes de valeur mondiales — ces réseaux internationaux où les biens sont produits en plusieurs étapes dans différents pays — créent de nouvelles interdépendances entre pays et influencent l’allocation de l’aide.
Aide au développement bien ordonnée…
Depuis les années 1990, la production mondiale s’est largement fragmentée : composants électroniques, pièces automobiles, produits agricoles transformés… une multitude d’étapes de production sont désormais dispersées entre plusieurs pays. Les échanges liés à cette organisation de la production mondiale en chaînes de valeur représentent environ 50 % du commerce mondial.
Notre analyse empirique montre que les pays donateurs accordent davantage d’aide aux pays qui fournissent des biens intermédiaires utilisés dans leur production destinée à l’exportation. Autrement dit, l’aide n’est pas uniquement destinée aux pays dont les besoins sont les plus importants : elle se dirige aussi vers ceux qui occupent des positions clés dans les chaînes de valeur mondiales.
Les exportations des pays récipiendaires de l’aide jouent un rôle particulièrement important dans les secteurs caractérisés par des biens intermédiaires différenciés, difficiles à substituer : équipements électriques et machines, transport et pièces automobiles, industrie agroalimentaire. Les pays produisant ce type de biens reçoivent davantage d’aide, toutes choses égales par ailleurs. Ce résultat complète d’autres recherches montrant que les réserves en pétrole des pays récipiendaires influencent également l’allocation de l’aide.
Le poids des entreprises des pays donateurs
Nous observons aussi une hétérogénéité importante entre pays donateurs déjà mise en avant dans d’autres travaux : les grands pays exportateurs (France, Allemagne, Japon, Royaume-Uni, États-Unis, notamment) semblent allouer l’aide de manière plus stratégique, tandis que les pays considérés traditionnellement comme plus « altruistes » (Pays-Bas, Danemark, Suède…) semblent moins sensibles au fait que le pays récipiendaire soit exportateur de biens intermédiaires spécifiques.
Calculs des auteurs. Ce graphique représente l’effet de la valeur ajoutée provenant des biens intermédiaires des pays récipiendaires (Foreign Value Added, FVA) sur le montant d’aide bilatérale pour chaque pays donateur (moyennes et intervalles de confiance à 95 %). Cliquer pour zoomer. Fourni par l’auteur
Pour comprendre ces résultats, nous proposons une explication théorique.
Le pays donateur, situé en aval de la chaîne de valeur, dépend d’un intrant produit dans un pays receveur, situé en amont. En transférant — sous forme d’aide — des ressources financières qui font l’objet de négociations, il incite le pays receveur à réduire ses tarifs douaniers d’importations de biens intermédiaires, ce qui diminue le coût final de son intrant produit et exporté vers le pays donateur.
L’aide agirait ainsi comme un levier discret de réduction des coûts de production pour les entreprises du pays donateur. L’influence des entreprises dans l’allocation de l’aide est également révélée ces dernières années par des enquêtes journalistiques.
Un processus qui creuse les inégalités entre pays pauvres
Ce travail montre que l’aide au développement apparaît, au moins en partie, comme un moyen permettant aux pays donateurs de garantir un accès à des biens intermédiaires stratégiques en soutenant les pays situés en amont des chaînes de production. Ce constat interroge la manière dont l’aide est allouée si l’on souhaite éviter que les pays les plus pauvres ne soient doublement exclus : des chaînes de valeur mondiales et des flux d’aide.
Nos résultats ont des implications politiques importantes.
Premièrement, le développement des chaînes de valeur mondiales peut exacerber la fragmentation de l’aide en concentrant les financements vers les pays déjà intégrés dans ces chaînes. Or, malgré plusieurs initiatives internationales comme la Déclaration de Paris sur l’efficacité de l’aide au développement adoptée par l’OCDE en 2005, cette fragmentation persiste. Une étude de la Banque mondiale montre que l’augmentation des engagements d’aide au développement en termes réels entre 2000 et 2019 s’est accompagnée d’une multiplication du nombre de donateurs et d’agences d’aide, rendant la coordination de l’allocation de l’aide plus complexe.
Deuxièmement, orienter prioritairement l’aide vers les pays liés aux chaînes de valeur mondiales peut nuire au développement des pays les moins avancés, dont l’intégration dans les réseaux de production mondiaux reste limitée. Or, l’intégration aux chaînes de valeur stimule la croissance : une étude de la Banque mondiale indique qu’une augmentation de 1 % de participation entraîne en moyenne plus de 1 % de hausse du revenu par habitant. Mais si l’aide se concentre sur les pays déjà bien intégrés, elle risque de creuser davantage l’écart entre les « gagnants » et les laissés-pour-compte de la mondialisation. Or, les déclarations récentes de l’administration américaine qui limiteraient l’aide au développement à 17 pays prioritaires choisis par les États-Unis (« excluant certains pays en proie à de graves crises humanitaires, tels que l’Afghanistan et le Yémen ») ne font que renforcer ces inquiétudes.
Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l’égide de La Fondation du Risque.
Jean-François Jacques et Julie Lochard ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.