Stone baby: the rare condition that produces a calcified foetus

Source: The Conversation – UK – By Adam Taylor, Professor of Anatomy, Lancaster University

Miridda/Shutterstock

For some women, pregnancy is a time of profound loss. Not all pregnancies progress as expected. One serious complication is ectopic pregnancy, a condition in which a fertilised egg implants somewhere other than the uterus.

The uterus is the only organ designed to stretch, supply blood and safely support a developing pregnancy. When implantation occurs elsewhere, the pregnancy cannot develop normally and poses significant risks to the mother.

In a very small number of cases, implantation occurs within the abdominal cavity. This is known as an abdominal pregnancy and means the embryo attaches to structures such as the bowel or abdominal lining rather than reproductive organs, often undetected.

There are rare reports of such pregnancies continuing into late gestation and, in extraordinary circumstances, a baby being born healthy. Far more often, however, the outcome is one of the strangest phenomena documented in medicine.

This outcome is known as a lithopaedion, a term derived from Greek that translates literally as “stone baby”. Fewer than 350 to 400 cases have been described in the medical literature, making it exceptionally rare.

In these cases, a woman usually experiences at least the early stages of pregnancy. Some reach full term and even go through labour; the body initiates the physical process of childbirth, but no baby is delivered. In some instances, particularly where access to healthcare is limited, a pregnancy may go entirely unnoticed.

The foetus in these cases has sadly died. After approximately three months of gestation, the foetal skeleton begins to ossify into bone. Ossification is the normal biological process by which soft cartilage turns into hardened bone. Once this has occurred, the foetal remains are too large and structurally complex for the body to break down and absorb.

During a typical pregnancy, the placenta plays a crucial role in regulating the exchange of nutrients and immune signals between mother and foetus. At the same time, the maternal immune system enters a state of immune tolerance: it is partially suppressed to prevent it from attacking the genetically distinct foetus. When the foetus is no longer viable, these protective mechanisms disappear. The immune system then recognises the foetal tissue as foreign and potentially dangerous.

To protect itself from infection or inflammation, the body may respond by calcifying the foetus. Calcification involves the gradual deposition of calcium salts around tissue, effectively isolating it. This process seals the foetus off from surrounding organs, preserving it in place and preventing further harm.

Calcification as a defensive response is not unique to pregnancy. The process of dystrophic calcification occurs when calcium deposits form in dead or damaged tissue. Calcium binds to phospholipids, which are fat-based molecules that make up the outer structure of cells and help hold cell membranes together, stabilising the area and limiting injury. A similar biological mechanism contributes to calcium build-up in blood vessels during atherosclerosis, a condition associated with heart disease.

Lithopaedion formation has also been observed in other species, including rabbits, dogs, cats and monkeys. One of the earliest recorded human cases dates back to 1582, involving a 68-year-old French woman who carried a lithopaedion for 28 years.

Another widely reported case describes a woman in China who carried one for over 60 years. Some lithopaedions have been reported to weigh more than two kilograms, roughly the weight of a full-term newborn. In one exceptionally rare case, a woman was found to have twin lithopaedions.

Symptomless cases

Some women carry a lithopaedion without symptoms for many years. Others develop complications caused by its presence in the abdomen. These include pelvic abscesses, which are collections of infected fluid, twisting or obstruction of the intestines that interfere with digestion, fistula formation – meaning abnormal connections between organs – and other abdominal symptoms such as pain or swelling.

Cases without symptoms are often discovered postmortem – after death during examination. When symptoms do occur, surgical removal is usually required. Because lithopaedions develop outside the uterus, they may attach to nearby organs such as the bowel or bladder.

Each case must therefore be carefully assessed. Surgery may be performed laparoscopically, using small incisions and a camera to minimise recovery time, or may require a more extensive open abdominal procedure.

Diagnosis almost always relies on medical imaging. This often occurs incidentally while investigating other symptoms. Calcified foetal bones can be identified using X-rays, ultrasound or CT scans. CT scans are particularly useful because they provide detailed cross-sectional images that clearly show both bone and surrounding soft tissue.

Lithopaedion cases are now exceptionally rare, likely even more so in modern medicine due to accurate pregnancy testing, early ultrasound scanning and routine antenatal care. Although these cases are medically unusual, they highlight both the vulnerability and resilience of the human body. Whether supporting new life or responding when pregnancy ends unexpectedly, the body works to protect the person carrying the pregnancy, sometimes in ways that continue to surprise medicine centuries later.


Strange Health is hosted by Katie Edwards and Dan Baumgardt. The executive producer is Gemma Ware, with video and sound editing for this episode by Sikander Khan. Artwork by Alice Mason.

In this episode, Dan and Katie talk about a social media clip from tonsilstonessss on TikTok.

Listen to Strange Health via any of the apps listed above, download it directly via our RSS feed or find out how else to listen here. A transcript is available via the Apple Podcasts or Spotify apps.

The Conversation

Adam Taylor does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Stone baby: the rare condition that produces a calcified foetus – https://theconversation.com/stone-baby-the-rare-condition-that-produces-a-calcified-foetus-274178

The cold war maps that can help us rethink today’s Arctic conflict

Source: The Conversation – UK – By James Cheshire, Professor of Geographic Information and Cartography, UCL

A US view of the cold war world, 1950, showing the fearsome power of the USSR. Cornell University – PJ Mode Collection of Persuasive Cartography.

The late 1940s and early 1950s were a golden age for polar mapmaking in the US. Major magazines such as Time, Life and Fortune commissioned a generation of famous cartographers – who had come of age in the second world war – to explain the new geopolitics to a mass audience that was highly engaged after the catastrophic global conflict they had just lived through.

Their maps were large, dramatic and designed to be spread across kitchen tables and classroom desks. And they also offered a very different perspective to the mainstream maps we have become accustomed to today.

I’ve spent the past four years unearthing maps from the late 1940s and early 1950s to research a book about a largely forgotten map library at my university, and I am always struck by how consequential they feel to the global arguments of their era. Not least because they invited debate from their readers who were asked to become global strategists by discussing the next moves in the game of geopolitics.

These maps didn’t just illustrate the world – they implored people to think about it differently. As the world enters a new period of international relations and global tensions, it’s worth considering the different perspectives maps can offer us.

With each new US foreign policy intervention – such as the US president’s current preoccupation with taking over Greenland – I have often wondered if these maps of global adversaries could have percolated into a young Trump’s mind. The world must have seemed a menacing place and it is shown on these maps as a series of threats and opportunities to be gamed, with the “Arctic arena” as a major venue.

A map showing the political alignments as they were in 1941
The World Divided is an iconic map showing the geoopolitical situation at the height of the second world war. It was created by Richard Edes Harrison and published by Fortune Magazine in August 1941.
Cornell University – PJ Mode Collection of Persuasive Cartography.

The consensus encouraged by the maps was that of alliances, most notably Nato, and US opinion tended to endorse what Henry Luce, the influential owner of Time and Life magazines, called the “American century” in which the US would abandon isolationism and take on a global role.

a map using the North Polar Azimuthal Equidisant Projection
Published in 1950, this map introduces the Azimuthal Equidistant Projection to Time Magazine’s readers.
Time Magazine

Whatever one thinks of that worldview, it was frequently framed in terms of collective responsibility rather than individual dominance. Luce argued that the “work” of shaping the future “cannot come out of the vision of any one man”.

As we can now see with Greenland, Trump has taken the geography of threats and opportunity shown on these influential maps but reached a very different conclusion: an “America first”, resulting from the vision of the US president himself.

Dawning of the ‘air age’

The skilful of the cartographers of the era played with a range of map projections that offered different perspectives of geopolitical arenas. The master of this was Richard Edes Harrison who is described by the historian Susan Schultern as “the person most responsible for sensitizing the public to geography in the 1940s. [The public] tore his maps out of magazines and snatched them off shelves and, in the process, endowed Harrison himself with the status of a minor celebrity.”

Edes Harrison adopted many projections in his work – but for maps of the Arctic, he alighted on the azimuthal equidistant projection. While this creates maps that distort the shapes of countries, it enables the correct distances to be shown from the centre point of the map.

The projection became widely used in the 1940s and 1950s (and was indeed adopted for the UN flag in 1946) because it proved effective at demonstrating the wonder of the burgeoning “air age” as commercial flights followed great circle routes over the Arctic.

World map centered on London 1945
The Air Age Map of The World, 1945 (centered on London).
The Library of Lost Maps

This contrasted with the roundabout routes that needed to be followed by ships and it also mapped the countries that bordered and occupied the Arctic with a much greater sense of proximity and threat.

Missiles and bombers were just as able to travel over the top of Earth as were holidaymakers – and this created a juxtaposition exploited by cartographers. Rand McNally, a renowned map publisher, for example, published a collection of maps entitled Air Age Map of the Global Crisis in 1949.

These set out “the growing line-up of countries and peoples behind the two rival ways of life competing for power in the 20th Century” – that is capitalism as embodied by the US and Soviet and Chinese communism.

Those who bought it were told: “Keep this map folder! It may have great historic significance a generation from now.”

Magazine insert from 1950s with a series of geopolitical maps.
This 1950s map published by Rand McNally was produced as part of a marketing campaign for Airwick air freshener, but also sought to inform the US public about the spread of communism.
Rand McNally

New world order

Donald Trump’s return to office has revived talk of a world moving beyond the assumptions of the postwar order — weakening alliances, acting unilaterally, treating territory as leverage. At the same time, maps remain one of the most trusted forms of evidence in public life.

A Mercator-shaped worldview, widely used by digital maps can distort reality – for example, making Greenland much larger than it is.

Cartographers have long known the strengths and limitations of Mercator, but Trump’s approach to foreign policy is a further reminder of the perspective we lose when we depend on the standardised views of Earth that digital maps encourage (some have also speculated that Mercator’s exaggeration of Greenland’s area heightens its real estate appeal to Trump).

Maps are powerful things and in times of crisis, or rapid change, we turn to them to help explain events and locate ourselves within them. But they can be just as much about arguments as they are facts – and Trump knows this.

The maps of the 1940s and 1950s were about a fresh (American) perspective to create a new world order. They instilled Trump’s generation with a sense of the geopolitical rivalries that tend to get washed out of generic digital maps that are most widely consumed today.

Nearly 80 years on, this order may be creaking – but the maps are still there to remind us of what’s at stake.

The Conversation

James Cheshire receives funding from the Economic and Social Research Council.

ref. The cold war maps that can help us rethink today’s Arctic conflict – https://theconversation.com/the-cold-war-maps-that-can-help-us-rethink-todays-arctic-conflict-274058

Why Heineken’s zero-alcohol London Underground campaign fell flat

Source: The Conversation – UK – By Jonatan Sodergren, Lecturer in Marketing, Bristol University Business School, University of Bristol

Brewing giant Heineken’s advertising campaign promoting its zero-alcohol beer on the London Underground forced its way into the public conversation. By temporarily altering signs and renaming stops to things like Oxf0.0rd Circus and Waterl0.0, the 0.0 brand placed itself inside one of the UK’s most recognisable public institutions.

The Heineken stunt reflects a wider return of offline brand “activations” – when marketers look for the type of presence that can’t be scrolled past in crowded digital environments. These campaigns, from Netflix’s “experiences” to promote the new season of Stranger Things to live events like Red Bull’s Flugtag, which turn stunts into shareable spectacles.

The Dutch brewer’s campaign was designed to mark dry January; but whether the visibility translated into impact is another matter.

The reasoning behind it was clear. London Underground is famous for its unwritten rules – stand on the right, avoid eye contact and under no circumstances strike up a conversation with a stranger. But Heineken 0.0 attempted to turn it into a hub for connection, using its temporary rebranding of the Bakerloo line to encourage commuters to rediscover real-world socialising. Without alcohol, of course.

As part of the promotion, Heineken was also handing out free 0% beer at Waterloo station over a couple of days in January. The company said it hoped the move would encourage Tube users to make small talk with a stranger after its own data showed 63% of passengers said they were “very unlikely” ever to do this.

Younger generations are drinking less alcohol than their predecessors, and zero-alcohol products are increasingly in the public eye. Campaigns like the Heineken one show how non-alcoholic drinks can be marketed in ways that grab attention and remain culturally relevant.

My research into zero-alcohol marketing focuses on how brands use visual and textual strategies to communicate responsibility and reshape social norms around drinking.

But from that perspective, the Heineken 0.0 campaign reveals some notable shortcomings.

1. Accessibility

Heineken 0.0’s temporary rebranding drew criticism from disability advocates. Campaign group Transport for All warned that altering station names and navigation signage could create confusion for passengers, particularly those with visual impairments, learning disabilities, neurodivergence or fatigue.

Transport for London (TfL), which runs London Underground, pointed out that the changes were limited to certain platform signs and and assessed to ensure they didn’t negatively affect services, staff or customers. But nonetheless, critics hit back that even subtle rebranding risks turning routine journeys into stressful or unsafe experiences for vulnerable commuters.

2. Station mix-up

Heineken 0.0’s campaign for dry January included an unfortunate error: some signs displayed stations out of sequence. While the rebranding was intended as a playful stunt, the mistake risked confusing passengers who rely on accurate station information. TfL told The Conversation it was a printing error and that the signage was corrected, but apologised to customers for any confusion.

3. Implicit assumptions

Although the aim was to promote alcohol-free socialising, the campaign could inadvertently reinforce the idea that beer – or alcohol more broadly – is a prerequisite for connection. By pairing interaction on the Tube with the act of drinking, even a zero-alcohol beer, the campaign relies on familiar cultural tropes that link social environments with alcohol.

For commuters already wary of public interaction, this may undercut the message of inclusive, alcohol-free connection. The campaign’s playful intent is clear, but its execution subtly leans on entrenched assumptions about alcohol and sociability. This limits its potential to challenge norms.

4. Out of place

Heineken said its campaign was “playful” and meant to encourage socialising, but it feels out of step with the reality of commuting. Alcohol has been banned on TfL services since 2008, and most passengers are simply on their way to or from work, focused on their phones, schedules or morning coffee. They aren’t generally thinking about a beer, even when it is alcohol-free.

The activation makes a bold visual and social statement, but it doesn’t fully fit the context. A promotion tied to everyday routines, like coffee or snacks, would have felt more natural in this environment. The stunt sparks conversation, but the setting remains a mismatch.

Campaigns of this type should focus on settings that are actually designed for social connection. For example, a pop-up at a music festival or airport lounge could offer zero-alcohol tastings alongside prompts (so called because they gently cue participation and spark interaction without requiring commitment).

Prompts could include trivia games, mini challenges or small plates of food. These could even be curated to reflect the destination and create a memorable pre-flight experience – paired with a celebratory clink of 0.0 glasses, of course.

These experiences make interaction effortless and enjoyable, reinforcing the idea that socialising doesn’t require alcohol. By embedding responsibility, relevance and context into both strategy and execution, zero-alcohol campaigns can get people talking, while also making zero-alcohol socialising feel aspirational.

There’s no doubt that Heineken 0.0’s London Underground stunt grabbed attention, but the criticisms reveal how it could have been stronger. Accessibility must be central, ensuring that the campaign doesn’t obstruct, exclude or make everyday travel more difficult. And precision matters too. After all, mistakes only reflect badly on the brand.

The Conversation

Jonatan Sodergren does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why Heineken’s zero-alcohol London Underground campaign fell flat – https://theconversation.com/why-heinekens-zero-alcohol-london-underground-campaign-fell-flat-273543

From Hamburg to Uganda: how an NGO learned to reinvent itself

Source: The Conversation – France (in French) – By Carolin Waldner, Assistant Professor of Sustainability Management, ESCP Business School

Development aid is often provided by large, international NGOs based in the Global North. These globally operating NGOs are under growing pressure to adapt the nature of their work – including administrative tasks – to the places where it occurs. However, this process of localisation is rarely straightforward. It’s not just about transferring responsibilities or adjusting ways of working to fit local contexts. It’s the contradictions within organisations that can distort or stall this process, which get left out.

Our article on Organization Studies takes a unique, long-term look at this question. We tracked the expansion of Viva con Agua (VCA) – a German NGO that launches and supports water, sanitation and hygiene (WASH) initiatives – over a 15-year period from its headquarters in Hamburg, Germany, to Uganda. Through 74 interviews, 272 hours of observation, and over 100 internal and public documents, we show how localising development work not only requires NGOs to reconsider what they do and how they do it, but also raises questions about organisational identity, such as “who are we?”, “what are our core values?” and “what distinguishes us from other NGOs?”.

From Hamburg to Kampala: a distinctive identity meets a new context

VCA emerged in the early 2000s from the creative and activist culture of Hamburg’s St. Pauli District. Its founding identity was shaped by inclusiveness, anti-racism, cultural openness, and civic engagement – expressed through partnerships with artists, football fans, and musicians. The most emblematic partnership is the one with football club FC St. Pauli, which is also known for its activist culture. When VCA started to work in Uganda in 2007, this energy helped the organisation build rapport and find local collaborators with similar values.

However, it soon became clear that cultural alignment wasn’t enough. For example, WASH infrastructure that worked in other countries didn’t always fit Ugandan realities. One early challenge involved latrines built by VCA for local communities in northern Uganda. Soon after building the latrines, staff realised that the facilities were not used by many villagers due to local norms and traditions – such as the fact that a father-in-law and his daughter-in-law are not allowed to share facilities.

Maybe replace “WASH” with “water, sanitation & hygiene” to avoid too many abbreviations?

When adapting programmes reveals deeper tensions

To improve local engagement, VCA developed culturally resonant initiatives such as Football4WASH and Dance4WASH, which are education-through-sport programmes, and other participatory formats. These efforts succeeded in creating more meaningful local traction. For example, a few weeks after VCA organised a Dance4WASH choreography with primary school pupils in a rural school north of Kampala, the school principal told us that during parent-teacher day, parents talked about the dance routine and performed the typical featured gestures (which reflected the World Health Organization’s handwashing guidelines. Children were showing the handwash dance to their parents, brothers, sisters, and other community members, and thus, the information spread.

However, these efforts also raised new questions: Who defines what VCA stands for? Where are decisions made? And how much autonomy can be given to the Ugandan team without losing organisational cohesion?

maybe add “localised” between “these” and “efforts” -> “these localised efforts” to make it clearer

In our study, we identified two entangled organisational tensions: the need to scale globally while adapting locally, called global–local paradox,and the need to evolve identity while maintaining continuity, called identity elasticity paradox.

What emerged was not just a series of dilemmas that could be resolved easily by organisational decisions, but a knotted dynamic of complex, interconnected, and irresolvable challenges. Addressing one tension – such as adapting projects to the Ugandan context – made the identity questions more urgent. This interplay, which we call an “asymmetric paradox knot”, meant that VCA’s efforts to adapt their business to local life were deeply intertwined with questions of internal legitimacy, leadership, and coherence. In a 2020 interview, a VCA founder highlighted the challenges he and his team faced due to the increasing VCA network, including local supporters in Kampala and elsewhere. He emphasised that the question of “who we are as an organisation?” is present in the NGO’s daily work and something they reflect on in strategy meetings. “It’s the same family,” he said, “with the stoned son and the rock ‘n’ roll daughter, but everything has a very similar DNA. And that’s what Viva con Agua does in the end, keeping it together. »

What allowed the organisation to move forward?

In our study, we identified two key “knotting mechanisms” that helped VCA manage tensions in practice. The first mechanism was stretching identity by integrating Ugandan staff into the NGO’s strategy and representation. For example, VCA actively supported local staff to build their own branch of VCA and gradually increased their responsibility for local WASH projects. Stretching identity also meant creating space for new ways of “being VCA” that aligned with core values and local context, such as a new collaboration with a social enterprise to provide affordable water filters from natural materials for rural communities – cross-subsidised by an artistic, “lifestyle” version of the same filters aimed at wealthier consumers. This project was one of the first initiatives of the Ugandan VCA staff that was independent of Western donations.

VCA also helped manage tensions by contextualising activities. This involved redesigning programme content and delivery methods to reflect local knowledge, norms and social rhythms. For instance, VCA members realised that some teachers they collaborated with for Football4WASH programmes kept the provided footballs, instead of giving them to the children to practise the hygiene exercises. So the local crew came up with a school competition: they showed the pupils and teachers specific Football4WASH drills and tricks, and only the best schools were rewarded. This way, they ensured that the teachers were committed to the idea, and led practice sessions with the children using the footballs.

Everyday practices

It is interesting to note that small, everyday practices reinforced VCA’s shift. For example, field visits were traditionally planned by the German team, which flew to 1-2 project sites and the local office in Kampala. In March 2019, the local crew organised the field trips for a German delegation for the first time. They rented a bus so that more project sites, all over the country, could be visited, and they invited various Ugandan artists, musicians, and dancers to join the trip with local and German VCA members. They had concerts and workshops along the way, raising awareness of the organisation and the programmes.

According to VCA representative interviewees, small shifts also encouraged more horizontal, trust-based communication. Ugandan staff voiced ideas and opinions more often, and challenged German team members in constructive ways.

In 2017, the Ugandan VCA team was formally registered as an independent chapter of the NGO. While the global organisation maintained support structures, decision-making authority increasingly shifted to local teams. Weekly calls between Hamburg and Kampala became not only coordination meetings, but spaces to continually renegotiate identity and alignment. One of the project coordinators from Germany explained in an interview that he talks to the local VCA crew in Kampala once a week to check in and “to evaluate how far their work is still based on the same basic ideas and principles as the work is in Germany”. These calls were aimed at empowering the local team to become creative and take responsibility, while also ensuring that they acted within the value system of VCA.

A broader insight for development actors

VCA’s experience is not offered as a blueprint, but as a diagnostic lens. It shows that one development organisation faced overlapping tensions that had to be navigated simultaneously. More specifically, we can see that the NGO’s localisation efforts could not be separated from identity work. Without deliberate efforts to manage internal contradictions, VCA’s well-intentioned initiatives may have continued to stall or backfire. As the aid sector continues to decentralise and evolve toward more hybrid models, our study provides a conceptual framework for how organisations can adapt without becoming fragmented.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. From Hamburg to Uganda: how an NGO learned to reinvent itself – https://theconversation.com/from-hamburg-to-uganda-how-an-ngo-learned-to-reinvent-itself-271886

Le vote RN est-il une affaire de générations ?

Source: The Conversation – in French – By Nonna Mayer, Directrice de recherche au CNRS/Centre d’études européennes, Sciences Po

Face à la montée de l’extrême droite et du conservatisme, observée tant aux États-Unis qu’en Europe, différentes théories ont été avancées. Certaines mettent le facteur générationnel au centre de l’analyse. Si cette focale apporte des clés de lecture utiles, elle révèle aussi des tendances contradictoires. Analyse.


Selon la thèse de la « déconsolidation démocratique », la montée de l’extrême droite et du conservatisme serait avant tout due aux millennials, les jeunes nés entre le début des années 1980 et la fin des années 1990, qui oscillent entre apathie politique et antipathie pour la démocratie. À l’inverse, selon la théorie du « cultural backlash » (ou « retour de bâton culturel »), ce seraient les générations les plus âgées qui, nostalgiques d’une époque révolue et critiques des valeurs post-matérialistes (libéralisation des mœurs, place accordée aux groupes minorisés), seraient les principales responsables de la montée de l’extrême droite, nourrie d’attitudes conservatrices et xénophobes.

Le cas de la France, avec l’essor spectaculaire du Rassemblement national (RN), qui a comptabilisé 41,4 % des voix au second tour de l’élection présidentielle de 2022, invite à remettre en question ces deux théories.

En s’appuyant sur l’enquête Youngelect (2022) et le baromètre annuel de la Commission nationale consultative des droits de l’homme ou CNCDH (depuis 1990), cet article révèle des dynamiques plus complexes.

La tolérance augmente, quelle que soit la génération. Les jeunes sont les plus progressistes et les plus en demande de démocratie. Pourtant, ils sont plus enclins à voter pour le RN. Comment comprendre ces tendances contradictoires ?

Une tolérance en hausse chez toutes les générations

Le baromètre de la CNCDH, qui mesure l’évolution de différentes attitudes culturelles dans le temps, atteste une hausse globale des positions progressistes concernant les opinions vis-à-vis des minorités sexuelles, raciales et religieuses, du rôle social des femmes et de la peine de mort. Il montre une tendance positive, quelle que soit la génération : si les cohortes les plus récentes sont plus tolérantes et libérales que celles qui les précèdent, les anciennes générations ne deviennent pas de plus en plus intolérantes et autoritaires, au contraire. Loin d’être hermétiques à l’évolution des mœurs, les valeurs des seniors se transforment avec la société.


Baromètres racisme CNCDH en face à face, Commission nationale consultative des droits de l’homme, « La lutte contre le racisme, l’antisémitisme et la xénophobie. Année 2023 », La documentation française., Fourni par l’auteur

Les données de l’enquête European Social Survey montrent une tendance similaire dans d’autres pays européens. Néanmoins, en menant des analyses permettant d’isoler l’effet propre de différents facteurs, on observe que la génération en tant que telle ne détermine pas l’ouverture à l’égard des minorités ethnoraciales et religieuses. D’autres dimensions, comme l’augmentation du niveau d’éducation, l’origine migratoire et la religion, sont davantage déterminantes.

Si les jeunes générations sont plus tolérantes, c’est moins dû à leur année de naissance que parce qu’elles présentent davantage de caractéristiques favorisant l’acceptation d’autrui, comme des niveaux de diplôme plus élevés, une moindre religiosité, une ascendance immigrée, etc. Concernant le rapport aux minorités sexuelles, les attitudes se révèlent également de plus en plus libérales. Chaque nouvelle cohorte est plus progressiste que la précédente ; et au fil des années, l’acceptation de l’homosexualité progresse même chez les seniors.

S’agissant de l’émancipation des femmes, l’évolution est aussi positive mais moins linéaire que pour l’homosexualité. Ce n’est pas les cohortes les plus récentes qui sont les plus ouvertes, mais les cohortes nées entre 1967 et 1976. De tels résultats suggèrent l’existence d’un retour de bâton chez les plus jeunes, et notamment parmi les jeunes hommes.

Rejet de l’autoritarisme et soutien à la démocratie

Au sujet de l’autoritarisme, mesuré à partir de l’opinion sur la peine de mort, l’effet générationnel est clair : entre 2004 et 2022, chaque nouvelle cohorte est davantage opposée à la peine capitale que la précédente. Et pour chaque génération, le rejet augmente de décennie en décennie. De même, le soutien à la démocratie représentative fait consensus, tant chez les personnes les plus jeunes que chez les plus âgées.


Nonna Mayer/Baromètre de la CNCDH sur le racisme, novembre 2023., Fourni par l’auteur

Certes les jeunes sont plus critiques à l’égard du fonctionnement de la démocratie, et davantage favorables à des modes de gouvernement alternatifs, plus technocratiques (gouvernement d’experts) ou participatifs (tirage au sort ou référendum populaire), mais pas dans leurs versions autoritaires – une différence générationnelle persiste même lorsque cette dimension est contrôlée par d’autres facteurs.

Tolérance, vote RN : un paradoxe générationnel ?

Comment ces attitudes culturelles et ce rapport à la démocratie se traduisent-ils dans les urnes, notamment au regard du vote RN ? Ce sont davantage les jeunes générations qui sont enclines à voter pour ce parti lors du premier tour de l’élection présidentielle de 2022. Plus la cohorte est âgée, plus la propension à voter pour Marine Le Pen plutôt que pour Emmanuel Macron diminue, à rebours de la thèse du « cultural backlash » chez les seniors. Mais la même dynamique s’observe avec le vote pour Jean-Luc Mélenchon. Les jeunes ont plus de chances que les générations plus âgées de voter pour le candidat de La France insoumise (LFI) que pour Emmanuel Macron.

Prendre le président sortant comme référence met en évidence que les jeunes privilégient tantôt le RN, tantôt LFI. Les logiques qui sous-tendent ces préférences ne sont toutefois pas les mêmes, un faible niveau d’éducation et le racisme sont déterminants dans le vote pour Marine Le Pen, le vote pour Jean-Luc Mélenchon étant à l’inverse davantage le fait de profils diplômés et tolérants. Néanmoins, les attitudes négatives envers la place sociale des femmes et l’homosexualité ou le fait de soutenir le rétablissement de la peine de mort n’augmentent pas la probabilité de voter pour Marine Le Pen plutôt que pour Emmanuel Macron. En outre, être favorable au tirage au sort, c’est-à-dire confier le pouvoir décisionnel à des citoyens ordinaires plutôt qu’aux élites dirigeantes, augmente la probabilité du vote RN.

Comment comprendre alors le paradoxe d’une jeunesse plus ouverte à l’égard des groupes minorisés et peu favorable aux alternatives autoritaires de gouvernement, mais encline à voter pour le RN ?

Premièrement, les cohortes, quelle que soit la génération, sont socialement et politiquement diverses : plusieurs variables doivent être prises en compte. De plus, selon le sociologue Vincent Tiberj, cela s’expliquerait par une politisation différenciée des valeurs selon les générations : chez les personnes plus âgées, les valeurs culturelles (sexisme, opinion sur l’homosexualité ou sur l’immigration) seraient moins politisées et orienteraient dès lors moins leur vote que chez les jeunes générations.

Ce paradoxe découle aussi possiblement des données mobilisées qui diffèrent au regard de la population sélectionnée : l’enquête de la CNCDH se fonde sur des échantillons représentatifs de la population adulte vivant en France (incluant les personnes immigrées étrangères), à l’inverse de l’enquête Youngelect qui cible uniquement des personnes inscrites sur les listes électorales.

Et si les jeunes votent davantage pour le RN, elles et ils se caractérisent avant tout par leur abstention, à l’inverse des personnes plus âgées qui se rendent massivement aux urnes. D’ailleurs, les analyses du vote « Macron », « Mélenchon » ou « Le Pen » ne tiennent pas compte de l’abstention (26 % au premier tour de l’élection présidentielle de 2022), accentuant l’impression trompeuse d’un vote massif pour l’extrême droite.

In fine, loin de se réduire à un vote générationnel, le vote RN séduit avant tout les segments les moins éduqués de l’électorat et les classes populaires. De surcroît, les écarts entre cohortes semblent s’estomper depuis les élections législatives anticipées de 2024. Ces dernières révèlent que le RN gagne en popularité auprès des seniors et des personnes retraitées jusqu’à présent hostiles à ce parti. Les municipales et la présidentielle à venir nous permettront de juger dans quelle mesure cette tendance se confirme, ou non.


Cet article est tiré de l’ouvrage French Democracy in Distress. Challenges and Opportunities in French Politics (Palgrave Macmillan, 2025), sous la direction d’Élodie Druez, Frédéric Gonthier, Camille Kelbel, Nonna Mayer, Felix-Christopher von Nostitz et Vincent Tiberj. Une conférence autour de cette publication est organisée à Sciences Po, le jeudi 29 janvier 2026, de 17 heures à 19 heures, 27 rue Saint-Guillaume, Paris (VIIᵉ).

The Conversation

Nonna Mayer est membre de la Commission nationale consultative des droits de l’Homme et coordonne son Baromètre annuel sur le racisme

Elodie Druez a reçu, en tant que chercheuse en postdoctorat, des financements de l’ANR, du FNRS (Fonds de la Recherche Scientifique belge), de l’ERC et de l’Institut Convergences Migrations (ICM). Elle membre de l’AFSP et de l’AFS.

Dans le cadre de ses postdoctorats, Mickaël Durand a reçu des financements de l’ANR, de l’Ined et du FNRS belge. Il a participé à l’enquête 2022 de la CNCDH sur l’hétérosexisme et les préjugés à l’égard des LGBTI. Il est membre du RT28 de l’Association française de sociologie.

ref. Le vote RN est-il une affaire de générations ? – https://theconversation.com/le-vote-rn-est-il-une-affaire-de-generations-272310

Qu’est-ce que l’intégrité scientifique aujourd’hui ?

Source: The Conversation – in French – By Catherine Guaspare, Sociologue, Ingénieure d’études, Centre national de la recherche scientifique (CNRS)

Dans un contexte où la production scientifique est soumise à des pressions multiples, où les théories pseudoscientifiques circulent sur les réseaux sociaux, l’intégrité scientifique apparaît plus que jamais comme l’un des piliers de la confiance dans la science. Nous vous proposons de découvrir les conclusions de l’ouvrage L’intégrité scientifique. Sociologie des bonnes pratiques, de Catherine Guaspare et Michel Dubois aux éditions PUF, en 2025.


L’intégrité scientifique est une priorité institutionnelle qui fait consensus. Par-delà la détection et le traitement des méconduites scientifiques, la plupart des organismes d’enseignement supérieur et de recherche partagent aujourd’hui un même objectif de promouvoir une culture des bonnes pratiques de recherche.

Il est tentant d’inscrire cette culture dans une perspective historique : la priorité accordée aujourd’hui à l’intégrité n’étant qu’un moment dans une histoire plus longue, celle des régulations qui s’exercent sur les conduites scientifiques. Montgomery et Oliver ont par exemple proposé de distinguer trois grandes périodes dans l’histoire de ces régulations : la période antérieure aux années 1970 caractérisée par l’autorégulation de la communauté scientifique, la période des années 1970-1990 caractérisée par l’importance accordée à la détection et la prévention des fraudes scientifiques et, depuis les années 1990 et la création de l’Office of Research Integrity, première agence fédérale américaine chargée de l’enquête et de la prévention des manquements à l’intégrité dans la recherche biomédicale financée sur fonds publics, la période de l’intégrité scientifique et de la promotion des bonnes pratiques.

Cette mise en récit historique de l’intégrité peut sans doute avoir une valeur heuristique, mais comme tous les grands récits, celui-ci se heurte aux faits. Elle laisse croire que la communauté scientifique, jusque dans les années 1970, aurait été capable de définir et de faire appliquer par elle-même les normes et les valeurs de la recherche. Pourtant, la régulation qui s’exerce par exemple sur la recherche biomédicale est très largement antérieure aux années 1970, puisqu’elle prend forme dès l’après-Seconde Guerre mondiale avec le Code de Nuremberg (1947), se renforce avec la Déclaration d’Helsinki (1964) et s’institutionnalise progressivement à travers les comités d’éthique et les dispositifs juridiques de protection des personnes.

Elle laisse ensuite penser que la détection des fraudes scientifiques comme la promotion des bonnes pratiques seraient autant de reculs pour l’autonomie de la communauté scientifique. Mais, à y regarder de plus près, les transformations institutionnelles – l’adoption de la charte nationale de déontologie des métiers de la recherche en 2015, la création de l’Office français de l’intégrité scientifique en 2017, l’entrée de l’intégrité dans la loi en 2020 –, sont le plus souvent portées par des représentants de la communauté scientifique. Et ce qui peut paraître, de loin, une injonction du politique faite au scientifique relève fréquemment de l’auto-saisine, directe ou indirecte, de la communauté scientifique. L’entrée en politique de l’intégrité scientifique démontre la capacité d’une partie limitée de la communauté scientifique à saisir des fenêtres d’opportunité politique. À l’évidence, pour la France, la période 2015-2017 a été l’une de ces fenêtres, où, à la faveur d’une affaire retentissante de méconduite scientifique au CNRS en 2015, du rapport porté par Pierre Corvol en 2016, de la lettre circulaire de Thierry Mandon en 2017, ces questions passent d’un débat professionnel à un objet de politique publique structuré.

Enfin, ce récit historique de l’intégrité semble suggérer qu’à la culture institutionnelle de détection des fraudes scientifiques, caractéristique des années 1970-1990, viendrait désormais se substituer une culture, plus positive, des bonnes pratiques et de la recherche responsable. Certes, l’innovation et la recherche responsables sont autant de mots-clés désormais incontournables pour les grandes institutions scientifiques, mais la question de la détection des méconduites demeure plus que jamais d’actualité, et ce d’autant qu’il s’est opéré ces dernières années un déplacement de la détection des fraudes scientifiques vers celle des pratiques discutables. La question de la qualification des méconduites scientifiques comme celle de leur mesure n’ont jamais été autant d’actualité.

Si le sociologue ne peut que gagner à ne pas s’improviser historien des sciences, il ne peut toutefois rester aveugle face aux grandes transformations des sciences et des techniques. En particulier, la communauté scientifique du XXIᵉ siècle est clairement différente de celle du siècle dernier. Dans son rapport 2021, l’Unesco rappelait qu’entre 2014 et 2018 le nombre de chercheurs a augmenté trois fois plus vite que la population mondiale, avec un total de plus de huit millions de chercheurs en équivalent temps plein à travers le monde.

Cette densification de la communauté scientifique n’est pas sans enjeu pour l’intégrité scientifique. Avec une communauté de plus en plus vaste, il faut non seulement être en mesure de parler d’une même voix, normaliser les guides et les chartes, mais s’assurer que cette voix soit entendue par tous. Même si l’institutionnalisation de l’intégrité est allée de pair avec une forme d’internationalisation, tous les pays ne sont pas en mesure de créer les structures et les rôles que nous avons eu l’occasion de décrire.

Par ailleurs, la croissance de la communauté scientifique s’accompagne mécaniquement d’une augmentation du volume des publications scientifiques qui met à mal les mécanismes traditionnels de contrôle. D’où d’ailleurs le développement d’alternatives au mécanisme de contrôle par les pairs. On a beaucoup parlé de la vague de publications liées à la crise de la Covid-19, mais la vague souterraine, peut-être moins perceptible pour le grand public, est plus structurelle : toujours selon les données de l’Unesco, entre 2015 et 2019, la production mondiale de publications scientifiques a augmenté de 21 %. Qui aujourd’hui est capable de garantir la fiabilité d’un tel volume de publications ?

Qui dit enfin accroissement du volume de la communauté scientifique, dit potentiellement densification des réseaux de collaborations internationales, à l’intérieur desquels les chercheurs comme les équipes de recherche sont autant d’associés rivaux. La multiplication des collaborations internationales suppose de pouvoir mutualiser les efforts et de s’assurer de la qualité de la contribution de chacun comme de sa reconnaissance. Nous avons eu l’occasion de souligner l’importance de considérer les sentiments de justice et d’injustice éprouvés par les scientifiques dans la survenue des méconduites scientifiques : une contribution ignorée, un compétiteur qui se voit récompensé tout en s’écartant des bonnes pratiques, des institutions scientifiques qui interdisent d’un côté ce qu’elles récompensent de l’autre, etc., autant de situations qui nourrissent ces sentiments.

« La recherche en danger », une discussion avec Stéphanie Balme/The Conversation France et Canalchat Grandialogue.

Par ailleurs, la multiplication des collaborations, dans un contexte où les ressources (financements, postes, distinctions, etc.) sont par principe contraintes, implique également des logiques de mise en concurrence qui peuvent être vécues comme autant d’incitations à prendre des raccourcis.

Outre la transformation démographique de la communauté scientifique, le sociologue des sciences ne peut ignorer l’évolution des modalités d’exercice du travail scientifique à l’ère numérique. La « datafication » de la science, à l’œuvre depuis la fin du XXᵉ siècle, correspond tout autant à l’augmentation du volume des données numériques de la recherche qu’à l’importance prise par les infrastructures technologiques indispensables pour leur traitement, leur stockage et leur diffusion. L’accessibilité et la diffusion rapide des données de la recherche, au nom de la science ouverte, ouvrent des perspectives inédites pour les collaborations scientifiques. Elles créent une redistribution des rôles et des expertises dans ces collaborations, avec un poids croissant accordé à l’ingénierie des données.

Mais, là encore, cette évolution technologique engendre des défis majeurs en termes d’intégrité scientifique. L’édition scientifique en ligne a vu naître un marché en ligne des revues prédatrices qui acceptent, moyennant paiement, des articles sans les évaluer réellement. Si les outils de l’intelligence artificielle s’ajoutent aux instruments traditionnels des équipes de recherche, des structures commerciales clandestines, les « paper mill » ou usines à papier, détournent ces outils numériques pour fabriquer et vendre des articles scientifiques frauduleux à des auteurs en quête de publications. Si l’immatérialité des données numériques permet une circulation accélérée des résultats de recherche, comme on a pu le voir durant la crise de la Covid-19, elle rend également possibles des manipulations de plus en plus sophistiquées. Ces transformations structurelles créent une demande inédite de vigilance à laquelle viennent répondre, chacun à leur manière, l’évaluation postpublication comme ceux que l’on appelle parfois les nouveaux détectives de la science et qui traquent en ligne les anomalies dans les articles publiés (images dupliquées, données incohérentes, plagiat) et ce faisant contribuent à la mise en lumière de fraudes ou de pratiques douteuses.




À lire aussi :
Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac


Plus fondamentalement, cette montée en puissance des données numériques de la recherche engendre des tensions inédites entre l’intégrité scientifique et l’éthique de la recherche. À l’occasion d’un entretien, un physicien, travaillant quotidiennement à partir des téraoctets de données générés par un accélérateur de particules, nous faisait remarquer, avec une pointe d’ironie, qu’il comprenait sans difficulté l’impératif institutionnel d’archiver, au nom de l’intégrité scientifique, l’intégralité de ses données sur des serveurs, mais que ce stockage systématique d’un volume toujours croissant de données entrait directement en contradiction avec l’éthique environnementale de la recherche prônée par ailleurs par son établissement. Intégrité scientifique ou éthique de la recherche ? Faut-il choisir ?

Éditions PUF, 2025.

On touche du doigt ici la diversité des dilemmes auxquels sont quotidiennement confrontés les scientifiques dans l’exercice de leurs activités. La science à l’ère numérique évolue dans un équilibre délicat entre l’intégrité scientifique et l’éthique de la recherche. Et l’un des enjeux actuels est sans doute de parvenir à maximiser les bénéfices des technologies numériques tout en minimisant leurs impacts négatifs. D’où la nécessité pour les institutions de recherche de promouvoir une culture de l’intégrité qui puisse dépasser la simple exigence de conformité aux bonnes pratiques, en intégrant les valeurs de responsabilité sociale auxquelles aspire, comme le montrent nos enquêtes, une part croissante de la communauté scientifique.


Le texte a été très légèrement remanié pour pouvoir être lu indépendamment du reste de l’ouvrage en accord avec les auteurs.

The Conversation

Catherine Guaspare et Michel Dubois sont les auteurs du livre L’intégrité scientifique dont cet article est tiré.

Michel Dubois a reçu des financements de l’Agence nationale de la recherche (ANR). Il est directeur de l’Office français de l’intégrité scientifique depuis septembre 2025.

ref. Qu’est-ce que l’intégrité scientifique aujourd’hui ? – https://theconversation.com/quest-ce-que-lintegrite-scientifique-aujourdhui-273594

Restaurer la confiance au niveau local : un enjeu économique et démocratique national

Source: The Conversation – in French – By Yann Algan, Doyen de l’Ecole d’Affaires Publiques et Professeur d’économie à Sciences Po , HEC Paris Business School

Le malaise français ne relève pas seulement de la défiance envers les politiques ou les institutions, mais d’une promesse trahie de l’économie, lorsque les efforts consentis n’améliorent plus les conditions de vie. Toutefois, la confiance n’a pas disparu, elle s’est relocalisée là où l’action publique est visible, incarnée et compréhensible.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».


La défiance est devenue l’un des traits dominants de la société française contemporaine. Les enquêtes d’opinion successives, notamment Fractures françaises 2025, décrivent une société pessimiste, inquiète quant à son avenir et profondément divisée. Mais cette défiance ne se manifeste pas de manière uniforme. Elle s’enracine dans des expériences concrètes, situées dans des territoires précis, là où se vivent au quotidien les transformations économiques et sociales. Dès lors, restaurer la confiance au niveau local ne relève pas seulement d’un impératif démocratique ou symbolique : c’est aussi un enjeu économique majeur à l’échelle nationale.

Le mouvement des « gilets jaunes », apparu à l’automne 2018, a joué à cet égard un rôle de révélateur. Parti d’une contestation fiscale liée à la hausse des taxes sur les carburants, il a rapidement mis au jour une crise plus profonde, mêlant conditions de vie, organisation territoriale et perte de confiance. Loin d’être un simple épisode conjoncturel, il a mis en lumière une réalité trop souvent sous-estimée par l’analyse macroéconomique : l’économie, tout comme la démocratie, est d’abord vécue localement, et c’est à ce niveau que se forgent l’adhésion ou le rejet des politiques publiques.




À lire aussi :
Malbouffe et désertification – quelles recettes pour repenser l’attractivité des centres-villes ?


Une crise de confiance enracinée dans les territoires

L’analyse développée dans les Origines du populisme (Seuil, 2019) montre que le mouvement des gilets jaunes ne peut être compris ni comme une simple révolte des « perdants » de la mondialisation, ni comme un phénomène idéologiquement homogène. Nos données révèlent un profil social et territorial précis : ouvriers, employés, retraités modestes, ménages situés sous le revenu médian, vivant majoritairement dans des villes petites ou intermédiaires, souvent en périphérie des grandes métropoles.

Le symbole du rond-point est à cet égard particulièrement éclairant. Il incarne à la fois la dépendance à la voiture, la dispersion de l’habitat, l’éloignement des services publics et la disparition progressive des lieux traditionnels de sociabilité. Dans ces territoires, la vie quotidienne repose sur des arbitrages contraints : temps de transport élevé, coûts fixes incompressibles, accès limité aux services essentiels. La contestation fiscale n’a fait que cristalliser un malaise déjà ancien.

Ce malaise s’accompagne d’un effondrement de la confiance, tant interpersonnelle qu’institutionnelle. Les soutiens les plus déterminés aux gilets jaunes se situent dans le quadrant combinant faible sentiment d’avoir « réussi sa vie » et faible confiance envers autrui. La défiance à l’égard des institutions est massive : près de huit sur dix déclarent ne pas faire confiance au gouvernement, et la méfiance s’étend à l’Union européenne et aux corps intermédiaires. Cette défiance généralisée explique en grande partie l’incapacité du mouvement à se transformer en projet politique structuré : la colère est collective, mais la confiance nécessaire à la construction de compromis fait défaut.

Quand l’économie ne tient plus sa promesse

L’un des enseignements centraux des Origines du populisme est que cette crise de confiance ne relève pas uniquement d’un choc économique ponctuel, mais d’une rupture de la promesse implicite de l’économie. Pendant plusieurs décennies, l’effort, le travail et la mobilité sociale constituaient un horizon partagé : s’adapter, travailler davantage, accepter les transformations devait permettre de vivre mieux et d’offrir à ses enfants des perspectives supérieures.

Or, dans de nombreux territoires, cette promesse s’est progressivement érodée. Une part importante des gilets jaunes a suivi le modèle dominant des décennies précédentes : accéder à la propriété en zone périurbaine pour des raisons de coût, organiser sa vie autour de la voiture, s’inscrire dans une trajectoire d’ascension sociale modeste mais réelle. Ce modèle s’est retourné contre eux, rendant la mobilité plus coûteuse, les services plus éloignés et les marges de manœuvre quotidiennes de plus en plus étroites.

La colère exprimée ne traduit donc pas un rejet abstrait de l’économie de marché ou de la mondialisation, mais un sentiment de promesse trahie. Lorsque les efforts consentis ne produisent plus d’amélioration tangible des conditions de vie, la confiance dans le système économique et dans ceux qui le gouvernent s’effondre. Ce mécanisme est renforcé par la concentration spatiale de la richesse. Voir la prospérité se concentrer dans quelques grandes métropoles, sans diffusion perceptible vers les territoires environnants, nourrit un sentiment d’injustice plus puissant encore que la baisse du revenu lui-même.

Cette dynamique éclaire la difficulté à conduire les grandes transitions contemporaines, en particulier la transition écologique. Demander des efforts supplémentaires à des populations qui ont déjà le sentiment de ne pas bénéficier des fruits de la croissance est politiquement et économiquement risqué. L’épisode des gilets jaunes l’a montré avec force : une mesure écologiquement justifiée et économiquement rationnelle peut devenir explosive lorsqu’elle heurte un quotidien déjà fragilisé.

De la crise territoriale à l’enjeu économique national

Ces constats rejoignent étroitement les analyses de la note « Territoires, bien-être et politiques publiques » du Conseil d’analyse économique (CAE). Ce dernier y montre que le mécontentement social s’explique moins par les seuls indicateurs économiques classiques que par un ensemble de facteurs liés à la qualité de la vie locale (accès aux services publics, commerces de proximité, lieux de sociabilité, conditions de mobilité).

Certaines politiques publiques ont privilégié l’efficacité économique globale – concentration de l’activité, métropolisation, spécialisation territoriale – sans toujours prendre en compte leurs effets sur le bien-être local. Or, lorsque les gains se concentrent spatialement et que les coûts d’ajustement pèsent ailleurs, la défiance s’installe.

Vie-publique, 2025.

À l’échelle nationale, cette fragmentation territoriale a un coût économique réel. Elle fragilise le consentement à l’impôt, complique la mise en œuvre des réformes et nourrit une instabilité sociale qui pèse sur l’investissement et la croissance. Une économie peut afficher de bonnes performances agrégées tout en devenant socialement et politiquement vulnérable.

La commune, dernier réservoir de confiance

Dans ce paysage de défiance généralisée, un fait mérite une attention particulière : la confiance accordée aux maires demeure élevée. Les enquêtes récentes du Cevipof menées avec Ipsos montrent que le maire reste la figure politique bénéficiant du plus haut niveau de confiance. Cette confiance repose moins sur la proximité affective que sur des critères simples et exigeants : honnêteté, capacité à tenir ses engagements, sens de l’intérêt général.

Ce constat est central pour la question économique. Il montre que la confiance n’a pas disparu ; elle s’est relocalisée. Là où l’action publique est visible, incarnée et compréhensible, le lien de confiance subsiste. Ce lien facilite la coordination des acteurs locaux, l’acceptation des projets d’aménagement et la mise en œuvre des transitions nécessaires.

Restaurer la confiance locale : une stratégie économique

S’appuyant sur ce diagnostic, le CAE plaide pour une réorientation des politiques territoriales autour d’un objectif central : le bien-être local, et non la seule performance économique agrégée. Cela implique de mieux intégrer des indicateurs de qualité de vie dans l’évaluation des politiques publiques, de renforcer les services de proximité et de considérer certains équipements – santé, mobilité, sociabilité – comme de véritables infrastructures de confiance.

Donner aux collectivités locales, et en particulier aux communes, les moyens d’agir est également essentiel. Sans visibilité financière ni capacité d’adaptation, les promesses locales risquent de se transformer en déceptions supplémentaires, alimentant à nouveau la défiance.

Restaurer la confiance au niveau local n’est ni un supplément d’âme ni une politique périphérique. Les gilets jaunes ont montré ce qui se produit lorsque le bien-être local se dégrade et que la promesse économique ne tient plus : la contestation devient la seule forme d’expression disponible. À l’inverse, une économie capable de s’appuyer sur des territoires vivants, dotés de services accessibles et d’institutions locales crédibles, est une économie plus résiliente, plus inclusive et plus durable. Investir dans la confiance locale, c’est créer les conditions sociales et politiques de la prospérité nationale.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».

The Conversation

Yann Algan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Restaurer la confiance au niveau local : un enjeu économique et démocratique national – https://theconversation.com/restaurer-la-confiance-au-niveau-local-un-enjeu-economique-et-democratique-national-273975

Illectronisme : les difficultés des jeunes face au numérique

Source: The Conversation – in French – By Jimmy Bordarie, Docteur, Maitre de conférences, Université de Tours

La vitesse à laquelle le numérique évolue soulève des questions éthiques. Mais disposons-nous des connaissances nécessaires pour les affronter ? Une partie non négligeable de la population, parmi laquelle un certain nombre de jeunes, se trouverait en situation d’illectronisme.


Moins d’un étudiant sur deux disposerait des compétences numériques attendues en fin de licence, selon une étude de l’Observatoire Pix, relayée fin 2025 par différents médias nationaux. Ces résultats mettent en avant ce qu’on peut appeler l’illectronisme chez les jeunes, loin du cliché des digital natives souvent associé à cette génération née à l’ère des réseaux sociaux.

Formé par la contraction d’illettrisme et d’électronique, l’illectronisme – certains auteurs parlent d’e-lettrisme – fait référence à l’état d’une personne qui ne maitrise pas les compétences nécessaires à l’utilisation et à la création des ressources numériques.




À lire aussi :
« L’envers des mots » : Illectronisme


Selon l’Insee, cela correspond à la situation dans laquelle une personne n’a pas utilisé Internet dans les trois derniers mois, soit par incapacité, soit pour des raisons matérielles ou ne possède pas les compétences numériques de base. L’illectronisme est parfois évoqué comme relevant de la fracture numérique informationnelle.

L’illectronisme : repérage et prévalence

Pour évaluer le niveau de connaissances dont on dispose sur le plan numérique, il faut considérer cinq domaines de compétences :

  • la recherche d’information en ligne (sur des produits, services ou la vérification des sources, etc.) ;

  • la communication électronique (envoyer ou recevoir des e-mails, etc.) ;

  • l’usage de logiciels (traitement de texte, etc.) ;

  • la protection de la vie privée en ligne (refuser les cookies, restreindre l’accès à sa position géographique, etc.) ;

  • la résolution de problèmes sur Internet (accéder à son compte bancaire par Internet, suivre des cours en ligne, etc.).

Certaines personnes maîtrisent une partie d’entre eux, d’autres n’en maîtrisent aucun. Pour repérer l’illectronisme, il faut différencier l’illectronisme total et l’illectronisme partiel.

Selon l’Insee, l’illectronisme total concerne environ 15,4 % des Français de plus de 15 ans, ce qui correspond à environ 8 millions de personnes. Cela concerne soit celles qui n’ont pas utilisé Internet dans les trois derniers mois (90,3 % des 8 millions), soit celles qui n’ont pas les compétences numériques de base – c’est-à-dire qu’elles obtiennent 0/2 dans au moins 4 des 5 domaines de compétences (10,7 % des 8 millions).

L’illectronisme partiel correspond aux personnes qui n’ont pas certaines compétences de base, ce qui concerne environ 30 % des personnes de plus de 15 ans. Notons par ailleurs que 20,5 % des internautes en général n’ont pas la compétence de base de protection de la vie privée, alors même que cette compétence concerne tout le monde, et ce dans une période où toute information est susceptible d’être monnayée, utilisée, voire détournée (« fake news », deepfakes, etc.).

L’âge, un facteur clé dans l’usage des technologies ?

Des facteurs sociodémographiques existent, à commencer par l’âge. Les personnes les plus âgées sont les plus touchées par l’illectronisme total (60 % des plus de 75 ans, contre 2 % des 15-24 ans). Pour autant, 19 % des 15-24 ans ont des compétences faibles.

D’autres variables ont une influence importante. Le niveau d’éducation par exemple peut être déterminant : les personnes sans diplôme ou titulaires d’un certificat d’études primaires ont 7 fois plus de risque d’être en situation d’illectronisme qu’une personne ayant un niveau bac+3 ou plus. Le niveau socio-économique également : les personnes vivant dans un foyer parmi les 20 % plus modestes ont 6,6 fois plus de risque d’être touchées par l’illectronisme qu’une personne vivant dans un ménage parmi les 20 % plus aisés.

« Illectronisme, cette inégalité face au numérique » (C dans l’air, avril 2023).

Lorsque l’on s’intéresse en particulier aux 15-24 ans, des données viennent relativiser le mythe du jeune qui maîtriserait le numérique. Si les jeunes n’ont jamais été aussi connectés, le baromètre de l’Observatoire Pix appelle à la vigilance.

À l’entrée à l’université, 40 % des étudiants sont en deçà du niveau attendu, et en sortie de licence, 52 % des étudiants ne maîtrisent pas les usages numériques nécessaires à leur poursuite d’études ou à leur insertion sur le marché du travail. Parmi les compétences soulevant des difficultés : vérifier la fiabilité d’une information en ligne ou connaître ses droits en matière de protection des données.

Quels freins à l’acquisition des compétences numériques ?

De nombreux freins, notamment psychologiques, pourraient expliquer ces constats. Sur le plan individuel, le fait de (ne pas) se sentir capable (Bandura parle de sentiment d’auto-efficacité) est un déterminant majeur. Cela influence la motivation à utiliser les outils numériques et la performance lors de leur usage et, plus globalement, la motivation scolaire.

En outre, l’anxiété vis-à-vis du numérique et le technostress (concept relatif au stress induit par le numérique) influencent également le rapport au numérique des adolescents, notamment en fonction du genre.

Sur le plan collectif, les représentations et les stéréotypes peuvent conduire à une stigmatisation de certains jeunes dits offline (utilisant pas ou peu les outils numériques). Ils peuvent générer une menace du stéréotype (c’est-à-dire une altération des performances lorsque l’on est victime d’un stéréotype en situation d’évaluation ou de jugement), influençant notamment les trajectoires en études d’informatique en fonction du genre.

Des enjeux juridiques et environnementaux à comprendre

Maîtriser les outils numériques, c’est aussi avoir conscience et connaissance des enjeux juridiques et environnementaux.

Sur le plan juridique, c’est comprendre par exemple les réglementations européennes ou les règles relatives au droit à la vie privée, au partage des informations en ligne et à la désinformation, au cyberharcèlement, au télétravail ou encore au droit à la déconnexion.

Sur le plan environnemental, c’est savoir que le numérique représente 4,4 % de l’empreinte carbone de la France, 11,3 % de la consommation électrique en 2022, avec une prévision, en l’état, d’une augmentation de 80 % à l’horizon 2050 selon l’ADEME ; que la consommation d’énergie des data centers a augmenté de 11 % en un an, et leur consommation d’eau pour le refroidissement des circuits a augmenté de 19 % entre 2022 et 2023. Notons par ailleurs que ces données sont antérieures à la démocratisation de l’usage des intelligences artificielles génératives.

La vitesse à laquelle le numérique évolue (le développement des intelligences artificielles génératives en étant une manifestation) soulève des questions éthiques. Nous avons tenté de répondre à certaines d’entre elles dans le Bon Usage du numérique. Comment s’en servir, pour soi et pour les autres (Ellipses, 2025). Il s’agit désormais pour chacun et chacune d’entre nous de prendre conscience de tous ces enjeux, de développer une littératie numérique, autrement dit de nous éduquer aux médias et au numérique.

Et si vous souhaitez faire un bilan de vos propres compétences, vous pouvez vous tester à l’aide de l’outil mis à disposition par Pix.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Illectronisme : les difficultés des jeunes face au numérique – https://theconversation.com/illectronisme-les-difficultes-des-jeunes-face-au-numerique-273606

En quoi les communs peuvent-ils répondre aux enjeux de la transition écologique ?

Source: The Conversation – in French – By Héloïse Calvier, Chargée d’accompagnement à l’innovation, Ademe (Agence de la transition écologique)

De nombreuses initiatives promeuvent aujourd’hui le retour des communs, c’est-à-dire des formes de gestion collective des ressources dont les communautés humaines ont besoin. Pertinente pour répondre à une multitude d’enjeux, cette approche, de par son caractère coopératif, innovant et transversal, apparaît particulièrement prometteuse pour accompagner la transition écologique.


La notion de « communs » revient depuis quelques années sur le devant de la scène, déclinée à des domaines aussi variés que les transports, la santé, l’éducation ou le numérique. Qu’est-ce que les communs ? On peut les définir comme des ressources matérielles (jardins partagés, boîte à livres…) ou immatérielles (Wikipédia, OpenStreetMap…) gérées collectivement par une communauté qui établit des règles de gouvernance dans le but de les préserver et de les pérenniser.

Leur théorisation est récente, mais le principe des communs est en réalité très ancien, beaucoup plus d’ailleurs que la construction juridique et politique, plus récente, de la propriété privée. L’exploitation et l’entretien des ressources, en particulier naturelles, ont très longtemps été organisés collectivement par les communautés humaines… jusqu’à ce que différents processus, dont la construction des États-nations et l’essor du commerce international, contribuent à démanteler ces communs.

Elinor Ostrom, lors de la remise du prix de la Banque de Suède en sciences économiques en 2009.
Holger Motzkau 2010, CC BY-SA

Ces dernières décennies, plusieurs facteurs ont entraîné leur regain :

  • D’une part, la prise de conscience, des effets néfastes de la privatisation des terres sur l’équilibre alimentaire des pays du Sud.

  • De l’autre, l’essor d’internet et de l’open source, mouvement qui s’oppose au modèle du logiciel propriétaire.

Les travaux d’Elinor Ostrom, qui a reçu en 2009 le Nobel d’économie pour ses travaux démontrant l’efficacité économique des communs, ont largement contribué à imposer le terme dans la sphère médiatique.




À lire aussi :
« L’envers des mots » : Biens communs


La collaboration plutôt que la concurrence

Aujourd’hui, l’idée des communs prend d’autant plus d’importance dans le contexte de la transition écologique. En effet, la prise de conscience d’un monde aux ressources finies implique de repenser leur gestion collective. Or, les communs sont particulièrement propices aux démarches d’intérêt général. Leur logique, fondée sur la coopération, va à rebours de celle, dominante, de la concurrence. Dans un cadre de ressources contraintes, une telle logique est précieuse.

C’est pourquoi de nombreux acteurs, pouvoirs publics comme acteurs privés, commencent à s’en emparer. En France, l’Agence de la transition écologique (Ademe) a déjà accompagné 50 projets de communs depuis quatre ans, à travers un appel à communs (AAC) inédit consacré à la sobriété et la résilience des territoires.

Les porteurs de projets (associations, entreprises, collectivités…) ayant bénéficié d’un soutien technique et financier dans ce cadre doivent ainsi respecter un certain nombre de critères en matière de coopération et de transparence.

Toutes les ressources produites doivent, par exemple, être encadrées par des licences ouvertes. Les porteurs doivent également s’inscrire dans une posture collaborative : s’organiser pour diffuser au maximum les ressources, intégrer les retours utilisateurs et se connecter aux communautés déjà formées dans le domaine.

Typologies des lauréats de l’appel à communs de l’Ademe.
Ademe 2025

D’autres acteurs participent à la transformation de l’action publique et se mobilisent sur les communs : la Fondation Macif, l’IGN, France Tiers-Lieux (partenaires de l’AAC de l’Ademe), l’Agence nationale de la cohésion des territoires (ANCT), le ministère de l’éducation nationale, la direction interministérielle du numérique (Dinum)…

Des enjeux transversaux

En favorisant les synergies entre acteurs, les communs apportent des réponses moins cloisonnées.

La 3e édition de l’Appel à communs de l’Ademe traite cinq thématiques sous forme de défis (alimentation et forêt, aménagement et bâtiment, mobilité et logistique, recyclage matière et numérique) qui peuvent être abordés de manière transversale.

Les dix défis de l’édition 2023 de l’appel à communs de l’Ademe.
Ademe 2025

Autre spécificité, les candidatures sont rendues publiques avant le dépôt et la sélection des projets, ce qui encourage les postulants à créer des synergies, voire des fusions de projets, des échanges de briques techniques. Les moyens humains et financiers nécessaires au développement des communs sont alors mutualisés, ce qui, à moyen et long terme, permet de réduire les dépenses et de multiplier les impacts.

Parmi les projets de communs que l’Ademe a accompagnés, on peut citer La rue commune. Cette méthode pour repenser les rues en tant que premier bien commun urbain prend en compte des enjeux de différentes natures selon cinq principes :

  • le lien social,

  • la priorité au piéton pour favoriser la santé et le bien-être,

  • la biodiversité,

  • le rafraîchissement urbain,

  • et la valorisation des eaux pluviales.

Un autre exemple, Le logement social paysan, entend promouvoir la réhabilitation des fermes pour en faire des logements sociaux paysans, en organisant la rencontre entre paysans et bailleurs sociaux. Ici se croisent les enjeux du bâtiment et ceux de l’agriculture.

Le potentiel des communs numériques

Un intérêt croissant est porté aujourd’hui aux communs numériques, qui constituent à la fois un outil très puissant pour croiser des données complexes et les mettre en commun au service de la transition.

Parmi les projets que l’Ademe a déjà soutenus, citons Pas de vacances pour la vacance, un outil de datavisualisation construit à partir de données publiques qui permet d’observer, à différentes échelles du territoire, la part de logements vacants. L’intérêt : permettre de les revaloriser dans une logique d’urbanisme circulaire et de mieux exploiter ce levier pour répondre aux besoins de logements.

Même principe pour le commun Diagnostic mobilité. Cet outil permet, par datavisualisation, un prédiagnostic pour les collectivités rurales des flux de déplacement majoritaires sur leur territoire, afin de les guider dans les choix de leur politique de transport.

Les communs constituent aujourd’hui un cadre d’action stratégique pour mobiliser l’intelligence collective, dans une logique d’innovation ouverte au service de la transition écologique, en décloisonnant les approches et en mutualisant les savoirs.




À lire aussi :
Aux sources de la démocratie : penser le « commun » avec Alcméon, Héraclite et Démocrite


The Conversation

Héloïse Calvier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. En quoi les communs peuvent-ils répondre aux enjeux de la transition écologique ? – https://theconversation.com/en-quoi-les-communs-peuvent-ils-repondre-aux-enjeux-de-la-transition-ecologique-262989

Voir le monde tel qu’il est : le message (réaliste) de Carney à Davos

Source: The Conversation – in French – By Wassim Tayssir, Doctorant en science politique, Université de Montréal

À Davos la semaine dernière, Mark Carney a marqué les esprits en livrant un diagnostic lucide sur l’état du système international. Le premier ministre canadien invite à repenser un ordre mondial qu’il juge dépassé, offrant ainsi une lecture réaliste des relations internationales contemporaines.


Salué pour son constat décomplexé sur la nouvelle donne internationale, le premier ministre appelle notamment à « cesser d’invoquer un ordre libéral fondé sur des règles » et à s’affranchir durablement de la « fiction » d’une hégémonie américaine bienveillante.

Ce manifeste de politique étrangère invite également au ralliement des « puissances moyennes », positionnant le Canada comme l’avant-poste d’un « arc de résistance » au trumpisme géopolitique. Le discours de Mark Carney a également résonné dans la sphère académique, en raison d’une articulation habile de plusieurs théories majeures de la discipline des Relations internationales.

Les approches libérales : une « fiction » géopolitique ?

En considérant qu’il fallait désormais « cesser d’invoquer l’ordre international fondé sur des règles », Carney remet en question une tradition clé du libéralisme en Relations internationales. Depuis le début du XXe siècle, les approches libérales ont cherché à créer un ordre pacifié et prévisible, du libéralisme wilsonien à l’après-Guerre froide avec l’« ordre libéral international » (Liberal International Order, LIO) théorisé par politologue américain John Ikenberry.

Ce concept désigne l’ensemble des structures idéologiques, normatives et institutionnelles mises en place par les États-Unis après 1945 : promotion de la démocratie, règles commerciales, alliances militaires comme l’OTAN, et gouvernance multilatérale via les organisations internationales.

Sans nier qu’il s’agissait d’un artefact destiné à pérenniser l’hégémonie américaine, Ikenberry note néanmoins que cet ordre international libéral a également bénéficié aux autres puissances du camp occidental, en garantissant les conditions sécuritaires et économiques de leur prospérité.




À lire aussi :
Mark Carney à Davos : virage à 180 degrés dans les relations avec les États-Unis


C’est le sens des propos de Mark Carney lorsqu’il affirme que « des pays comme le Canada ont prospéré grâce à l’ordre international libéral. Nous avons adhéré à ses institutions, vanté ses principes et profité de sa prévisibilité ».

Pour Carney cependant, « cette fiction était utile, mais partiellement fausse », car « les plus puissants y dérogeaient quand cela les arrangeait ». Les approches constructivistes l’avaient déjà souligné : derrière les bénéfices supposés mutuels se cachait souvent une relation de subordination à l’hégémon américain.

« Si les puissances hégémoniques renoncent même à faire semblant de respecter les règles pour défendre sans entrave leurs intérêts, les avantages du transactionnalisme deviennent difficiles à reproduire. Elles ne peuvent pas monnayer indéfiniment leurs relations », soulignait Carney.




À lire aussi :
« Carney a prononcé un discours courageux – parce que risqué », selon une spécialiste


Des effets supposément pacifiques à l’utilisation coercitive

Outre l’ordre international libéral, c’est également au regard de l’interdépendance économique que Mark Carney offre une lecture désenchantée. Ce dernier dénonce ainsi un système dans lequel « les grandes puissances agissent selon leurs intérêts en utilisant l’intégration économique comme une arme de coercition ».

Les débats sur les effets de l’interdépendance économique sont aussi vieux que la discipline des Relations internationales telle qu’elle émerge au début du XXe siècle. Dès 1910 en effet, l’écrivain et homme politique britannique Norman Angell soutient que cette l’interdépendance, en tant que vulnérabilité réciproque, rendrait la guerre irrationnelle.

Figure de proue du libéralisme de l’entre-deux-guerre, sa thèse sera sévèrement contestée à la veille de la Seconde Guerre mondiale. Dans un ouvrage publié en 1939, l’éminent historien britannique Edward Hallett Carr théorise cette critique, qualifiant le libéralisme d’utopisme. De cette confrontation intellectuelle naîtra le premier grand débat des Relations internationales.

Ces débats ont été relancés à l’époque contemporaine avec l’apparition d’une littérature qui met en lumière les effets asymétriques de l’interdépendance économique — certains acteurs étant plus vulnérables que d’autres — et son potentiel coercitif, notamment sous l’influence de pressions domestiques.

Le discours de Mark Carney : une leçon de réalisme ?

En invitant à voir le monde « tel qu’il est, sans attendre qu’il devienne celui que nous aimerions voir », Carney illustre la fracture fondamentale entre libéralisme et réalisme en Relations internationales. Le libéralisme conçoit le système global tel qu’il devrait être : pacifié, encadré par des normes contraignantes et porteur de valeurs libérales. Le réalisme, lui, adopte une approche plus pragmatique, agnostique, et se concentre sur les rapports de force et les enjeux immédiats.

Les approches réalistes reposent sur quelques principes fondamentaux : le système international est anarchique ; les États en constituent les unités de base ; et leur objectif principal est de maximiser leur intérêt, défini en termes de capacités matérielles. Partant du postulat que l’intérêt égoïste des États guide entièrement le système, le réalisme reste sceptique face à tout cadre normatif censé réguler les relations internationales.

Pour les réalistes, une configuration hégémonique appelle trois stratégies possibles pour les États « de second rang » tels que le Canada :

  • L’équilibrage (balancing) : s’associer avec d’autres États pour contrebalancer l’hégémon

  • Le bandwagoning : s’associer à l’hégémon pour bénéficier de sa protection

  • Le hedging : « se couvrir » en multipliant les partenariats avec d’autres puissances pour distribuer les risques.

Alors que la politique étrangère canadienne s’inscrivait jusqu’alors dans une logique de bandwagoning à l’égard de la puissance américaine, le discours de Mark Carney suggère une inflexion stratégique majeure, en faveur d’une stratégie de hedging.

« Les grandes puissances peuvent se permettre d’agir seules. La taille de leur marché, leur capacité militaire et leur pouvoir leur permettent d’imposer leurs conditions. Ce n’est pas le cas des puissances moyennes. Les alliés chercheront à se diversifier pour parer à l’incertitude. Ils auront recours à des mécanismes de protection. Ils multiplieront leurs options », clamait-il.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Réalisme et valeurs : antinomiques ?

Dans son discours, Mark Carney propose un « réalisme fondé sur des valeurs », une combinaison pouvant apparaître contradictoire en raison du matérialisme agnostique du réalisme.

Mais l’histoire de la discipline des Relations internationales montre que les considérations idéologiques et matérielles peuvent coexister. Le sociologue français Raymond Aron soulignait en effet que la politique étrangère intégrait, au-delà des déterminations matérielles, des considérations de valeurs, notamment idéologiques. Dans cette veine, le chercheur et diplomate français Jean-Baptiste Jangène Vilmer faisait le plaidoyer en 2023, pour un « réalisme libéral ».

Carney résume cette approche ainsi : « Nous ne comptons plus uniquement sur la force de nos valeurs, mais également sur la valeur de notre force ».

Reste désormais à voir si ce discours stratégique sera accompagné d’effets concrets dans la conduite de la politique étrangère canadienne.

La Conversation Canada

Wassim Tayssir ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Voir le monde tel qu’il est : le message (réaliste) de Carney à Davos – https://theconversation.com/voir-le-monde-tel-quil-est-le-message-realiste-de-carney-a-davos-274189