After a year of Trump, who are the winners and losers from US tariffs?

Source: The Conversation – UK – By Prachi Agarwal, Research Fellow in International Trade Policy, ODI Global

During the 2024 presidential campaign, Donald Trump promised to ease economic pressures on households and restore US economic strength. Central to that promise was the claim that tariffs would revive manufacturing and rebalance trade in America’s favour. Once in office, the second administration quickly made trade policy – especially tariffs – a central pillar of its economic agenda.

The introduction of a sweeping tariff regime on April 2, framed as “reciprocal tariffs”, became the signature economic intervention of the administration’s first year in power – and it appears we have not heard the last of it.

The tariffs were not a single event but a sequence of trade actions launched immediately after Trump’s inauguration. In January, the administration announced the “America first” trade policy. This prioritised reductions in the US trade deficit to revitalise domestic manufacturing and promised tougher economic relations with China. Sector and country-specific tariffs followed.

While Trump’s so-called “liberation day” in April set the stage as he announced a range of tariffs to levy against various countries with which the US was running a trade deficit, the implementation was delayed until August, creating prolonged uncertainty for firms and trading partners.

The tariff regime pursued three objectives: raising government revenue, reducing the US trade deficit, and compelling changes in China’s trade behaviour. But one year into Trump’s second term, has this strategy worked?

What worked

On revenue, the policy has delivered. Customs revenue rose sharply by US$287 billion (£213 billion), generating additional fiscal revenue outside the normal congressional appropriations process. In headline terms, the tariffs achieved what they were designed to do: they raised money – but mainly (96%) from American buyers.

Progress on the trade balance (exports minus imports) has been far less convincing. Despite a modest depreciation of the US dollar and stronger export growth during much of 2025, the total US trade balance (goods and services) fell by US$69 billion. While the deficit on the goods trade balance (without services) at times narrowed, there is no evidence that this will be a sustained trend.

Addressing the trade imbalance with China is at the core of the Trump’s tariff strategy. According to trade data from the US Department of Commerce, during the first ten months of 2025, US imports from China declined by 27% – the largest of all US trading partners bilateral decline observed. Tariffs on Chinese products were imposed immediately, without the transition periods granted to most other trading partners. On paper, this aligns with the administration’s objective of curbing Chinese market access.

But this contraction must be placed in context. US imports from China had already fallen by 19% between 2022 and 2024 amid rising geopolitical tensions and earlier trade restrictions. More importantly, China continues to post large global trade surpluses and has diversified both its export destinations and its product composition, reducing reliance on the US.

Rather than weakening China’s trade position, the tariff regime has accelerated supply-chain reconfiguration, as trade is now being trans-shipped through other countries before arriving in the US. Additionally, China has also increased trade with other countries that has replaced the reduction in US-China trade.


On January 20 2025, Donald Trump was sworn in as the 47th president of the United States. His first year in office has seen profound changes both in his own country and across the globe. In this series, The Conversation’s international affairs team aims to capture the mood after the first year of Trump’s second term.


As imports from China fell, US trade diversification intensified due to the uneven application of tariffs across countries. US imports from Vietnam increased by 40% and Taiwan by 61%, while imports from Mexico grew modestly by 5%. Imports from Canada declined, largely reflecting lower oil prices rather than tariff exposure. Overall, several economies increased their share of US imports, pointing to a reshuffling of suppliers rather than a reduction in US import dependence.

What did not work

The uneven rollout of the tariffs, coupled with limited data available through October 2025, complicates assessment of its impact. It is also possible that the January 2025 tariff announcements prompted US firms to bring forward imports ahead of the August implementation date, temporarily distorting trade patterns.

Nonetheless, the domestic price effects are clearer.

Evidence suggests tariff costs have largely been passed through to wholesale and retail prices, contributing to higher consumer prices of everyday goods rather than easing inflationary pressures.

Manufacturing output rose by a meagre 1% in 2025, a muted response given the scale of protection introduced. Industrial growth has also been held back by labour shortages caused by tighter immigration rules, even with strong trade protection in place.

Development impacts

Some of the significant unintended impacts of the tariff regime have been felt beyond the US. Analysis by London-based thinktank ODI Global highlights the extreme vulnerability of low- and middle-income countries caught in the crossfire with high export dependence, lack of other trade partners, and constrained fiscal space.

Combined with cuts to international aid, US higher tariffs could reduce export earnings for many of these countries by up to US$89 billion annually – about 0.7% of GDP on average. In effect, the cost of US protection has been pushed onto other countries.

Beyond this combined exposure of aid cuts and tariff increases, least developed countries (LDCs) face other economic risks. The tariffs were based on bilateral US trade deficits rather than the ability of partner countries to adapt to changes in US tariff policy. This design penalised economies that were highly dependent on the US market, and relied on labour-intensive manufacturing sectors such as clothing and footwear for employment and foreign exchange.

Women make up a large share of workforce in these sectors and have been hit harder than men by the tariff measures.
The tariff shocks transmitted quickly through reduced orders, factory closures, and unemployment, despite the absence of strategic intent to target these economies.

Looking ahead

This tariff experiment now rests in the hands of the US supreme court, with a ruling expected within days. If the reciprocal tariffs are overturned, other options remain available, including a flat 10% tariff on most countries. Under Section 122 of the 1974 Trade Act, tariffs against trade imbalances could be imposed, but only up to 15% and for a maximum of 150 days.

At the same time, the administration has signalled potential new tariffs linked to geopolitical disputes, such as Greenland. This raises the risk of widening trade conflicts.

One year on, China’s global trade position remains resilient and US trade balances show no sustained improvement. Instead, the costs of adjustment have been unevenly distributed across countries, sectors and households. In short, the tariffs may not have made America any greater, but have certainly created economic hardship for others.

The Conversation

Bernardo Arce Fernandez, ODI’s research officer, assisted with the research for this article.

Jodie Keane and Prachi Agarwal do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. After a year of Trump, who are the winners and losers from US tariffs? – https://theconversation.com/after-a-year-of-trump-who-are-the-winners-and-losers-from-us-tariffs-273925

Why AI has not led to mass unemployment

Source: The Conversation – UK – By Renaud Foucart, Senior Lecturer in Economics, Lancaster University Management School, Lancaster University

Lightspring/Shutterstock

People have become used to living with AI fairly quickly. ChatGPT is barely three years old, but has changed the way many of us communicate or deal with large amounts of information.

It has also led to serious concerns about jobs. For if machines become better than people at reading complex legal texts, or translating languages, or presenting arguments, won’t those old fashioned human employees become irrelevant? Surely mass unemployment is on the horizon?

Yet, when we look at the big numbers of the economy, this is not what’s happening.

Unemployment in the EU is at a historical low of around 6%, half the level of ten years ago. In the UK, it is even lower, at 5.1%, roughly the level of the booming early 2000s, and it is even lower again (4.4%) in the US.

The reason why there are still so many jobs is that while technology does make some human enterprise obsolete, it also creates new kinds of work to be done.

It’s happened before. In 1800 for example, around a third of British workers were farmers. Now the proportion working in agriculture is around 1%.

The automation of agriculture allowed the country to be a leader in the industrial revolution.

Or more recently, after the first ATM in the world was unveiled by Barclays in London in 1967, there were fears that staff at high street bank branches would disappear.

The opposite turned out to be the case. In the US, over the 30-year period of ATM growth, the number of bank tellers actually increased by 10%. ATMs made it cheaper to open bank branches (because they needed fewer tellers) and more communities gained access to financial services.

Only now, with a bank on every phone, is the number of high street bank staff in steep decline.

An imposition?

But yes, AI will take away some jobs. A third of Americans worry they will lose theirs to AI, and many of them will be right.

But since the industrial revolution, the world has seen a flow of innovations, sustaining an unprecedented exponential economic growth.

AI, like the computer, the internet, the railways, or electric appliances, is a slow revolution. It will gradually change habits, but in doing so, provide opportunities for new businesses to emerge.

And just as there has been no immediate AI boom when it comes to economic growth, there is no immediate shift in employment. What we see instead are largely firms using AI as an excuse for standard job cutting exercises. This then leads to a different question about how AI will change how meaningful our jobs are and how much money we earn.

With technology, it can go either way.

Bank tellers became more valuable with the arrival of ATMs because instead of just counting money, they could offer advice. And in 2016, Geoff Hinton, a major figure in the development of of AI, recommended that the world “should stop training radiologists” because robots were getting better than humans at analysing images.

Ten years later, demand for radiologists in the US is at a record high. Using AI to analyse images has made the job more valuable, not less, because radiologists can treat more patients (most of whom probably want to deal with a human)

So as a worker, what you want to find is a job where the machines make you more productive – not one where you become a servant to the machines.

Fist bump between human and robotic fists.
Working together.
Summit Art Creations/Shutterstock

Any inequality?

Another question raised by AI is whether it will reduce or increase the inequality between workers.

At first, many thought that allowing everyone to access an AI assistant with skills in processing information or clear communication would decrease earning inequality. But other recent research found the opposite, with highly skilled entrepreneurs gaining the most from having access to AI support.

One reason for this is that taking advice is itself a skill. In my own research with colleagues, we found that giving chess players top-quality advice does little to close the gap between the best and the worst – because lower-ability players were less likely to follow high-quality advice.

And perhaps that’s the biggest risk AI brings. That some people benefit from it much more than others.

In that situation, there might be one group which uses AI to manage their everyday lives, but find themselves stuck in low-productivity jobs with no prospect of a decent salary. And another smaller group of privileged, well-educated workers who thrive by controlling the machines and the wealth they create.

Every technological revolution in history has made the world richer, healthier and more comfortable. But transitions are always hard. What matters next is how societies can help everyone to be the boss of the machines – not their servants.

The Conversation

Renaud Foucart does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why AI has not led to mass unemployment – https://theconversation.com/why-ai-has-not-led-to-mass-unemployment-273405

Humanity’s oldest known cave art has been discovered in Sulawesi

Source: The Conversation – Global Perspectives – By Maxime Aubert, Professor of Archaeological Science, Griffith University

Supplied

When we think of the world’s oldest art, Europe usually comes to mind, with famous cave paintings in France and Spain often seen as evidence this was the birthplace of symbolic human culture. But new evidence from Indonesia dramatically reshapes this picture.

Our research, published today in the journal Nature, reveals people living in what is now eastern Indonesia were producing rock art significantly earlier than previously demonstrated.

These artists were not only among the world’s first image-makers, they were also likely part of the population that would eventually give rise to the ancestors of Indigenous Australians and Papuans.

A hand stencil from deep time

The discovery comes from limestone caves on the island of Sulawesi. Here, faint red hand stencils, created by blowing pigment over a hand pressed against the rock, are visible on cave walls beneath layers of mineral deposits.

By analysing very small amounts of uranium in the mineral layers, we could work out when those layers formed. Because the minerals formed on top of the paintings, they tell us the youngest possible age of the art underneath.

In some cases, when paintings were made on top of mineral layers, these can also show the oldest possible age of the images.

Faint outlines of a hand on a limestone rocky surface.
The oldest known rock art to date – 67,800-year-old hand stencils on the wall of a cave.
Supplied

One hand stencil was dated to at least 67,800 years ago, making it the oldest securely dated cave art ever found anywhere in the world.

This is at least 15,000 years older than the rock art we had previously dated in this region, and more than 30,000 years older than the oldest cave art found in France. It shows humans were making cave art images much earlier than we once believed.

Photograph of the dated hand stencils (a) and digital tracing (b); ka stands for ‘thousand years ago’.
Supplied

This hand stencil is also special because it belongs to a style only found in Sulawesi. The tips of the fingers were carefully reshaped to make them look pointed, as though they were animal claws.

Altering images of human hands in this manner may have had a symbolic meaning, possibly connected to this ancient society’s understanding of human-animal relations.

In earlier research in Sulawesi, we found images of human figures with bird heads and other animal features, dated to at least 48,000 years ago. Together, these discoveries suggest that early peoples in this region had complex ideas about humans, animals and identity far back in time.

A rocky surface with hand stencils surrounded by red pigment, fingers narrow.
Narrowed finger hand stencils in Leang Jarie, Maros, Sulawesi.
Adhi Agus Oktaviana

Not a one-off moment of creativity

The dating shows these caves were used for painting over an extraordinarily long period. Paintings were produced repeatedly, continuing until around the Last Glacial Maximum about 20,000 years ago – the peak of the most recent ice age.

After a long gap, the caves were painted again by Indonesia’s first farmers, the Austronesian-speaking peoples, who arrived in the region about 4,000 years ago and added new imagery over the much older ice age paintings.

This long sequence shows that symbolic expression was not a brief or isolated innovation. Instead, it was a durable cultural tradition maintained by generations of people living in Wallacea, the island zone separating mainland Asia from Australia and New Guinea.

A man in a dark cave using a special flashlight to reveal finger marks on a rocky wall.
Adhi Agus Oktaviana illuminating a hand stencil.
Max Aubert

What this tells us about the first Australians

The implications go well beyond art history.

Archaeological and genetic evidence suggests modern humans reached the ancient continent of Sahul, the combined landmass of Australia and New Guinea, by around 65,000 to 60,000 years ago.

Getting there required deliberate ocean crossings, representing the earliest known long-distance sea voyages undertaken by our species.

Researchers have proposed two main migration routes into Sahul. A northern route would have taken people from mainland Southeast Asia through Borneo and Sulawesi, before crossing onward to Papua and Australia. A southern route would have passed through Sumatra and Java, then across the Lesser Sunda Islands, including Timor, before reaching north-western Australia.

The proposed modern human migration routes to Australia/New Guinea; the northern route is delineated by the red arrows, and the southern route is delineated by the blue arrow. The red dots represent the areas with dated Pleistocene rock art.
Supplied

Until now, there has been a major gap in archaeological evidence along these pathways. The newly dated rock art from Sulawesi lies directly along the northern route, providing the oldest direct evidence of modern humans in this key migration corridor into Sahul.

In other words, the people who made these hand stencils in the caves of Sulawesi were very likely part of the population that would later cross the sea and become the ancestors of Indigenous Australians.

Rethinking where culture began

The findings add to a growing body of evidence showing that early human creativity did not emerge in a single place, nor was it confined to ice age Europe.

Instead, symbolic behaviour, including art, storytelling, and the marking of place and identity, was already well established in Southeast Asia as humans spread across the world.

A vibrant image of a man in a white hard hat perched on rocks in a cave with large artworks above him.
Shinatria Adhityatama working in the cave.
Supplied

This suggests that the first populations to reach Australia carried with them long-standing cultural traditions, including sophisticated forms of symbolic expression whose deeper roots most probably lie in Africa.

The discovery raises an obvious question. If such ancient art exists in Sulawesi, how much more remains to be found?

Large parts of Indonesia and neighbouring islands remain archaeologically unexplored. If our results are any guide, evidence for equally ancient, or even older, cultural traditions may still be waiting on cave walls across the region.

As we continue to search, one thing is already clear. The story of human creativity is far older, richer and more geographically diverse than we once imagined.


The research on early rock art in Sulawesi has been featured in a documentary film, Sulawesi l’île des premières images produced by ARTE and released in Europe today.

The Conversation

Maxime Aubert receives funding from the Australian Research Council, Google Arts & Culture and The National Geographic Society.

Adam Brumm receives funding from the Australian Research Council.

Adhi Oktaviana receives funding from The National Geographic Society.

Renaud Joannes-Boyau receives funding from the Australian Research Council.

ref. Humanity’s oldest known cave art has been discovered in Sulawesi – https://theconversation.com/humanitys-oldest-known-cave-art-has-been-discovered-in-sulawesi-273364

Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ?

Source: The Conversation – in French – By Fabrice Beline, Directeur de Recherche, Inrae

En matière de transition énergétique, les débats sur la production et la consommation électrique tendent à occuper le devant de la scène politico-médiatique et à occulter le rôle des bioénergies. Ces dernières font pourtant partie intégrante de la programmation énergétique du pays. Leur production peut avoir des impacts majeurs tant sur les modes de production agricole que sur nos habitudes alimentaires.


Dans les prospectives énergétiques telles que la stratégie nationale bas carbone (SNBC), les scénarios négaWatt ou encore ceux de l’Agence de la transition écologique Ademe… les bioénergies sont régulièrement présentées comme un levier incontournable de la transition, en complément de l’électrification du système énergétique.

Pour rappel, ces énergies, qui peuvent être de différentes natures (chaleur, électricité, carburant…), se distinguent des autres par leur provenance. Elles sont issues de gisements de biomasses tels que le bois, les végétaux et résidus associés, les déchets et les effluents organiques.

L’électrification met en scène de nombreuses controverses politiques et sociétales dans le débat public et médiatique. Par exemple : compétition entre renouvelable et nucléaire, arrêt des moteurs thermiques… À l’inverse, les discussions sur les bioénergies se cantonnent encore aux milieux scientifiques et académiques.

Pourtant, leur déploiement implique des évolutions importantes. Et ceci à la fois dans les modes de production agricole et les habitudes alimentaires, en tout cas si nous le voulons durable.

Il est donc essentiel que le sujet bénéficie d’une meilleure visibilité et d’une plus grande appropriation par la société pour que puissent naître des politiques publiques cohérentes.

Les bioénergies, levier de la transition énergétique

La transition énergétique, qui consiste à réduire drastiquement le recours aux énergies fossiles, est centrale dans la lutte contre le changement climatique. À l’horizon 2050, elle s’appuie sur deux piliers :

  • d’une part l’augmentation de la production d’électricité « bas carbone », associée à une forte électrification des usages, notamment pour la mobilité.

  • de l’autre, une hausse conséquente de la production de bioénergies pour compléter l’offre électrique, en particulier pour les usages difficilement « électrifiables » (par exemple dans l’industrie).

Actuellement, au niveau national, les bioénergies représentent de 150 à 170 térawattheures (TWh) par an, soit un peu plus de 10 % de l’énergie finale consommée. Ce chiffre concerne principalement la filière bois, à laquelle s’ajoutent les biocarburants et la filière biogaz. À l’horizon 2050, les prospectives énergétiques prévoient une consommation de plus de 300 de bioénergies, avec une forte croissance dans les secteurs du biométhane (injection du biogaz dans le réseau de gaz après épuration du biométhane) et, dans une moindre mesure, des biocarburants.

La programmation pluriannuelle de l’énergie n°3 (PPE3), qui est en cours de consultation, constitue la feuille de route de la France pour sa transition énergétique, avec des objectifs chiffrés. Pour la filière biométhane, la cible est fixée à 44 TWh/an dès l’horizon 2030 puis jusqu’à 80 TWh/an en 2035, contre une production actuelle de l’ordre de 12 TWh/an. Concernant les biocarburants, la PPE3 prévoit une légère augmentation pour atteindre 50 TWh/an en 2030-2035.




À lire aussi :
Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La nécessité d’une biomasse « durable »

L’optimisme quant à nos capacités à cultiver de manière durable les biomasses nécessaires à la production de ces bioénergies n’est cependant plus de mise.

Alors que la deuxième Stratégie nationale bas carbone (SNBC) tablait sur une production de 370 TWh/an de bioénergies en 2050, la nouvelle version SNBC 3 revoit ce chiffre à la baisse à 305 TWh/an. En mai 2025, le rapport des académies d’agriculture et des technologies réduisait ce chiffre à 250 TWh/an.

L’évolution à la baisse de ces chiffres met en lumière l’inadéquation entre les besoins de biomasse pour la transition énergétique, telle qu’elle est actuellement envisagée, et les capacités de production du système agricole actuel.

En novembre 2023, le Secrétariat général à la planification écologique lançait l’alerte, à travers cette formule relayée par le Monde :

« Il y a un problème de bouclage sur la biomasse. »

Ces questionnements ont donné lieu à des échanges entre le ministère de l’agriculture et de la souveraineté alimentaire et l’Inrae autour des enjeux agronomiques, techniques et économiques d’une mobilisation accrue des différents gisements de biomasse et de leur transformation en bioénergies. Ils ont confirmé les difficultés de faire correspondre les besoins pour la transition énergétique et la capacité de production.

Les flux de biomasse en France

Pour y voir plus clair sur les enjeux et les leviers disponibles, il convient d’analyser plus globalement les flux de biomasses agricoles à l’échelle nationale.

Environ 245 millions de tonnes de matière sèche (MtMS) sont produits chaque année pour des usages primaires (directs) et secondaires (indirects). Ces usages se répartissent comme suit :

  • Environ 100-110 MtMS sont mobilisés pour l’alimentation animale et finalement la production de denrées alimentaires telles que le lait, la viande, les œufs.

  • Quelque 70-80 MtMS/an retournent directement au sol (résidus de cultures, fourrages et prairies), auxquels s’ajoutent environ 30 MtMS/an de flux secondaires principalement issus de l’élevage sous forme d’effluents (lisier, fumier, digestat…).

  • Environ 50-55 MtMS/an sont utilisés directement pour la production de denrées alimentaires humaines (dont plus de la moitié est exportée).

  • Et 9 MtMS/an servent à la production d’énergie (biocarburant et biogaz) auxquels s’agrègent environ 9MtMS/an de flux secondaires provenant de l’élevage et de l’industrie agroalimentaire (lisier, fumier, biodéchets…).

Infographie des flux actuels de biomasse agricole (en MtMS).
SGPE 2024

À échéance 2050, les besoins supplémentaires en biomasses pour les bioénergies s’établissent entre 30 et 60 MtMS/an.

Les dilemmes pour répondre à ces besoins accrus

Tous les acteurs s’accordent sur le fait qu’il n’est pas concevable de rediriger des ressources utilisables – et actuellement utilisées pour l’alimentation humaine – vers des usages énergétiques.

Il apparaît dès lors tentant de rediriger la biomasse qui retourne actuellement au sol. Pourtant, ces flux de biomasse sont essentiels à la santé, qualité et à la fertilité des sols. Ils participent à la lutte contre le changement climatique à travers leur contribution au stockage (ou à la limitation du déstockage) de carbone dans les sols.

Une autre piste, pour répondre à ces besoins croissants, serait d’augmenter la production primaire de biomasse à travers le développement et la récolte de cultures intermédiaires appelées « cultures intermédiaires à vocation énergétique » (CIVE). Celles-ci sont cultivées entre deux cultures principales.

Toutefois, une telle production supplémentaire de biomasse implique l’utilisation de ressources supplémentaires (nutriments, eau, produits phytosanitaires). Elle tend aussi à accroître les risques de transferts de pollution vers la biosphère.

Mobiliser trop fortement ces leviers pourrait donc s’avérer contreproductif. Les alertes s’accumulent à ce sujet. Ces leviers sont donc à actionner avec parcimonie.

Une autre piste, conceptualisée dans plusieurs scénarios de transition, serait de rediriger une partie de la biomasse actuellement utilisée pour nourrir les animaux d’élevage vers la production énergétique.

Ceci impliquerait à la fois une diminution des cheptels et une extensification des élevages afin de préserver leurs services écosystémiques rendus, tout en minimisant leur consommation de biomasse. Cela répondrait à l’enjeu de réduction des émissions de gaz à effet de serre de l’agriculture et serait donc le plus cohérent pour affronter les enjeux écologiques.

Ce scénario requiert toutefois des changements d’envergure dans nos habitudes alimentaires, avec une réduction de notre consommation de produits animaux pour éviter une augmentation des importations.

Vers des politiques publiques coordonnées et cohérentes ?

Après deux ans de retard et de blocages dans les ministères, la stratégie nationale pour l’alimentation, la nutrition et le climat ne semble malheureusement pas à la hauteur de cette problématique. En témoigne l’absence d’objectif chiffré sur la réduction de la consommation de produits animaux, voire la disparition du terme de réduction dans les dernières versions.

De même, les lois récentes d’orientation agricole et Duplomb renforcent l’orientation productiviste de l’agriculture, tout en minimisant les enjeux de transition. Ceci va à l’encontre (au moins partiellement) des orientations nécessaires pour la transition énergétique et la SNBC 3, sans parler des antagonismes avec la stratégie nationale biodiversité.

La France ne manque donc pas de stratégies, mais d’une cohérence globale entre elles. C’est bien cela qui conduit à un découragement des responsables de l’élaboration et la mise en œuvre des politiques publiques et à une adhésion insuffisante des citoyens à ces stratégies.

Il y a donc urgence à développer une vision et des politiques publiques intersectorielles cohérentes et complémentaires englobant l’énergie, l’agriculture, l’environnement, l’alimentation et la santé.

The Conversation

Fabrice Beline a reçu des financements de l’Ademe (projet ABMC) et de GRDF (projet MethaEau).

ref. Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ? – https://theconversation.com/transition-energetique-developper-les-bioenergies-oui-mais-avec-quelles-biomasses-270811

Derrière le sans-abrisme, la face cachée du mal-logement

Source: The Conversation – in French – By Pascale Dietrich, Chargée de recherche, Ined (Institut national d’études démographiques)

Ce 22 janvier, une Nuit de la solidarité est organisée à Paris et dans d’autres villes françaises – une forme d’opération citoyenne de décompte des personnes dormant dans la rue. Celle-ci ne doit pas occulter ce que les travaux de recherche montrent depuis une quarantaine d’années : à la figure bien connue du sans-abri s’ajoutent d’autres formes moins visibles de précarité résidentielle et de mal-logement.


Aujourd’hui, de plus en plus de personnes sont exclues du logement ordinaire. Les derniers chiffres dont on dispose datent de 2012 et indiquent que le nombre de personnes sans domicile a augmenté de 50 % entre 2001 et 2012 : à cette date, 81 000 adultes, accompagnés de 31 000 enfants étaient sans domicile dans les agglomérations d’au moins 20 000 habitants de France hexagonale. L’enquête Sans Domicile menée par l’Insee en 2025 est en cours d’exploitation et permettra d’actualiser ces chiffres, mais tout laisse penser que la situation s’est encore dégradée, comme en témoignent nos observations de terrain.

D’après l’Insee, une personne est considérée comme sans domicile si elle a dormi la nuit précédente dans un lieu non prévu pour l’habitation (elle est alors « sans-abri »), ou si elle est prise en charge par un organisme fournissant « un hébergement gratuit ou à faible participation » (hôtel ou logement payé par une association, chambre ou dortoir dans un hébergement collectif, etc.). Ainsi, le sans-abrisme est-il la forme extrême du sans-domicilisme qui s’inscrit lui-même dans la myriade des formes du mal-logement.

Au-delà de ces personnes sans domicile, d’autres vivent dans des caravanes installées dans des campings, dans des squats, chez des tiers, des camions aménagés, des logements insalubres, etc., autant de situations résidentielles précaires qui échappent aux radars de la société et sont peu relayées dans les médias.

Ainsi, la Fondation pour le logement des défavorisés estime dans son rapport de 2025 que près de 4 millions de personnes sont touchées en France par toutes ces formes de mal-logement, la plupart des indicateurs de mal-logement s’étant dégradés.

« Crise du logement : Ces Français contraints de vivre au camping » – Reportage #Cdanslair, 31 janvier 2024.

À la figure bien connue du sans-abri dormant dans la rue s’ajoutent donc d’autres formes moins repérables de précarité résidentielle.

À l’approche de la Nuit de la solidarité organisée chaque année à Paris et dans d’autres villes françaises, il n’est pas inutile de rappeler ce que soulignent les travaux de recherche sur le sujet depuis une quarantaine d’années : le sans-abrisme n’est que la partie émergée de l’iceberg.

Si les opérations de décompte des personnes vivant dans des lieux non prévus pour l’habitation, et notamment la rue, sont importantes pour sensibiliser les citoyennes et citoyens, elles ne permettent d’obtenir que des estimations très approximatives du sans-abrisme et masquent une problématique plus vaste qui ne se réduit pas à ces situations extrêmes, comme on peut le lire dans ce rapport (pp. 42-52).

Les visages cachés de l’exclusion du logement

À la figure ancienne et un peu caricaturale du clochard – un homme seul, blanc, sans emploi et marginalisé – s’ajoutent d’autres visages : travailleurs et travailleuses précaires, femmes, parfois accompagnées d’enfants, personnes âgées percevant de petites retraites, personnes discriminées en raison de leur orientation sexuelle, étudiantes et étudiants, jeunes sortant de l’Aide sociale à l’enfance ou encore populations issues de l’immigration…

Ces différents types de personnes ont toujours été plus ou moins présentes parmi les populations en difficulté, mais l’augmentation générale de la précarité et la pénurie de logements accessibles les ont encore fragilisées. Plus de 2,7 millions de ménages étaient en attente d’un logement social en 2024. Dans le même temps, seulement 259 000 logements ont été mis en chantier en 2024, dont 82 000 logements sociaux financés.

Si certaines figures du sans-abrisme sont extrêmement visibles, comme les migrantes et migrants dont les campements sont régulièrement montrés dans les médias, d’autres formes d’exclusion sont plus discrètes.

C’est le cas par exemple des personnes en emploi, victimes de l’élargissement de la crise du logement, qui se replient vers les structures d’hébergement institutionnel faute de pouvoir se loger malgré leurs revenus réguliers.

En 2012, près d’un quart des sans-domicile occupaient un emploi. Ce phénomène fait peu de bruit alors même que ces personnes occupent souvent des métiers essentiels au fonctionnement de la société.

De même, les femmes sans domicile sont moins repérables dans l’espace public que leurs homologues masculins, car elles ne ressemblent pas à la figure classique du sans-domicile fixe (SDF). Quand elles y sont présentes, elles ne s’y installent pas et sont beaucoup plus mobiles par crainte d’y subir des violences : elles sont donc très largement sous-estimées dans les opérations de décompte.




À lire aussi :
Femmes SDF : de plus en plus nombreuses et pourtant invisibles


Les enquêtes « Sans domicile » montrent qu’entre 2001 et 2012, le nombre de femmes francophones sans domicile a augmenté de 45 %, passant de 17 150 en 2001 à 24 930 femmes en 2012.

Solutions court-termistes

Face à cette précarité résidentielle croissante, quelles solutions apportent les pouvoirs publics ?

L’augmentation du financement de l’hébergement d’urgence qui procure un abri temporaire dans des haltes de nuit ou à l’hôtel apporte certes une solution rapide aux sans-abri qui, du point de vue des édiles, nuisent à l’image des villes, mais ne résout en rien les problèmes de ces personnes.




À lire aussi :
Où dormir quand on n’a pas de domicile ?


Reléguant les plus précaires aux marges des villes ou dans des hébergements sans intimité où il est impossible de s’installer dans la durée, ces politiques court-termistes, focalisées sur l’urgence sociale, se doublent de formes de répression (expulsion, arrêtés anti-mendicité, mobiliers urbains inhospitaliers) qui contribuent à la précarisation et à l’invisibilisation des populations étiquetées comme « indésirables ».

L’augmentation massive des expulsions avec le concours de la force publique en 2024, l’hébergement des sans-domicile dans des hôtels de plus en plus éloignés des centres des agglomérations et peu accessibles en transports en commun, ou le déplacement des sans-abri de Paris pendant les Jeux olympiques de 2024 en témoignent.

Prises en charge discontinues

Des changements politiques profonds sont pourtant nécessaires pour résoudre la question de l’exclusion du logement en s’attaquant à ses causes structurelles. Une politique ambitieuse de production et de promotion du logement social à bas niveaux de loyers est indispensable pour permettre aux ménages modestes de se loger sans passer par le long parcours de l’hébergement institutionnel.

La prévention des expulsions doit également être favorisée, de même que la régulation des prix du marché immobilier.

Il est aussi nécessaire d’assurer une meilleure continuité de la prise en charge dans les diverses institutions d’aide. Les populations particulièrement fragiles, qui cumulent les difficultés, connaissent des séjours précoces en institutions, répétés et multiples, de l’aide sociale à l’enfance (en 2012, 23 % des utilisateurs des services d’aide aux sans-domicile nés en France avaient été placés dans leur enfance, alors que cette proportion était seulement de l’ordre de 2 % à 3 % dans la population générale) aux dispositifs d’insertion par le travail, en passant dans certains cas par l’hôpital psychiatrique, les cures de désintoxication ou la prison.

Or, ces prises en charge souvent discontinues n’apportent pas de solutions durables en termes de logement, d’emploi ou de santé. Elles alimentent par ailleurs un sentiment de rejet qui favorise le non-recours au droit : les personnes sont éligibles à des prestations sociales et à des aides mais ne les sollicitent pas ou plus.

Pour ces personnes les plus désocialisées, la politique du logement d’abord (« Housing first ») ou « Chez soi d’abord » en France), qui consiste à donner accès au logement sans condition et à proposer un accompagnement social et sanitaire, donne des résultats probants mais, faute de logements disponibles, elle n’est pas suffisamment mise en œuvre.

Appréhender le problème dans sa globalité

Il faut enfin s’attaquer aux politiques migratoires qui produisent le sans-domicilisme. Les politiques publiques en matière d’accueil des étrangers étant de plus en plus restrictives et les dispositifs spécifiques saturés, migrantes et migrants se retrouvent sans solution de logement. La part d’étrangers parmi la population sans-domicile a ainsi fortement augmenté, passant de 38 % en 2001 à 53 % en 2012.

Résoudre la question de l’exclusion liée au logement en France comme dans de nombreux pays passe autant par des réformes de la politique du logement que par des actions dans le secteur social, de l’emploi et de la politique migratoire. Le sans-domicilisme est un révélateur des inégalités sociales croissantes dans la société et des processus d’exclusion qui la traversent. Trouver une solution à ce problème majeur, nécessite plus que jamais de l’appréhender dans sa globalité, sans se limiter à ses symptômes les plus visibles.


Pascale Dietrich-Ragon et Marie Loison-Leruste ont codirigé l’ouvrage la Face cachée du mal-logement. Enquête en marge du logement ordinaire, paru aux éditions de l’Ined en septembre 2025.

The Conversation

Marie Loison-Leruste est membre de l’association Au Tambour!.

Pascale Dietrich ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Derrière le sans-abrisme, la face cachée du mal-logement – https://theconversation.com/derriere-le-sans-abrisme-la-face-cachee-du-mal-logement-273852

Sergueï Karaganov est-il vraiment l’architecte de la politique étrangère du Kremlin ?

Source: The Conversation – in French – By Maxime Daniélou, Doctorant en études slaves et chargé de cours à l’université Paris-Nanterre, Université Paris Nanterre

Le 7 juin 2024, avant la séance plénière du Forum économique international de Saint-Pétersbourg, dont il est le modérateur, Sergueï Karaganov discute avec Vladimir Poutine.
Kirill Morozov/Roscongress, site officiel de la présidence russe

Spécialiste reconnu des relations internationales depuis plusieurs décennies, fondateur de think tanks influents et d’une grande revue consacrée aux affaires diplomatiques, Sergueï Karaganov s’est dernièrement fait remarquer par des propos plus que musclés, promettant notamment à ceux qui s’opposeraient à la Russie, à commencer par les pays de l’Union européenne, une destruction totale. On aurait toutefois tort de voir en lui l’un des artisans de la politique étrangère de Moscou : il s’agit plutôt d’un habile « entrepreneur idéologique », qui sert le pouvoir en lui proposant un habillage conceptuel et en lançant des messages destinés à raffermir, dans l’opinion occidentale, l’idée selon laquelle le Kremlin est déterminé à aller, le cas échéant, jusqu’à la guerre nucléaire.


Les prises de position de l’universitaire russe Sergueï Karaganov font l’objet d’une attention croissante dans l’espace médiatique français et international depuis le début de l’invasion de l’Ukraine par la Russie en février 2022. Récemment, des articles et des émissions télévisées lui ont attribué une influence déterminante sur la politique étrangère russe, allant jusqu’à le qualifier de « nouvel architecte de la politique étrangère du Kremlin » ou de « cerveau géopolitique de Vladimir Poutine », le plus souvent sans autre justification que sa proximité supposée avec le président russe.

Cette situation rappelle un phénomène déjà observé avec le philosophe ultranationaliste Alexandre Douguine, lui-aussi régulièrement présenté comme le « cerveau de Poutine » depuis le début des années 2000, en dépit des démentis répétés de plusieurs chercheurs spécialistes de la Russie.

Dans le cas de Douguine comme dans celui de Karaganov, attribuer une telle influence sur le chef du Kremlin sans fondement empirique solide contribue à obscurcir la compréhension des dynamiques à l’œuvre dans le processus de prise de décision en matière de politique étrangère dans la Russie contemporaine. Ces exagérations offrent par ailleurs une exposition médiatique bienvenue à ces entrepreneurs idéologiques. Si ni l’un ni l’autre n’ont jamais confirmé le rôle qui leur est parfois prêté au sommet de l’État, ils profitent de la visibilité et de l’autorité symbolique que cette image leur confère dans une logique de promotion personnelle et de diffusion de leurs idées, en Russie comme à l’étranger.

Afin de dépasser les interprétations excessives, il est nécessaire de s’interroger sur la place réelle qu’occupe Sergueï Karaganov dans l’environnement politique et idéologique russe. Revenir sur son parcours, ses réseaux et les idées qu’il défend permet de relativiser l’idée d’une influence directe sur les décisions du Kremlin, et de mieux comprendre les raisons de sa soudaine surexposition médiatique.

Un réseau puissant en formation dès la chute de l’URSS

En janvier 1992, moins d’un mois après la chute de l’URSS, Sergueï Karaganov (né en 1952), expert des États-Unis au sein de l’Académie des sciences soviétique, fonde l’un des premiers think tanks russes indépendants, le Conseil pour la politique étrangère et de défense (SVOP selon le sigle russe). En raison de la faiblesse des institutions qui caractérise la décennie 1990 en Russie, le SVOP, qui réunit hommes d’affaires, diplomates et militaires, parvient à exercer une influence certaine sur la politique nationale et permet à son directeur de se doter d’un réseau puissant.

Les dynamiques de centralisation et de renforcement de l’État, ainsi que le renouvellement des élites qui accompagne l’arrivée de Vladimir Poutine à la présidence en 2000, entraînent le déclin irréversible du SVOP et obligent Karaganov à se renouveler. En 2002, il fonde l’influente revue de politique étrangère Russia in Global Affairs, avant d’être nommé à la tête de la faculté de politique internationale de la Haute École d’économie, l’une des plus prestigieuses universités du pays, quatre ans plus tard.

Son implication dans la création du club de discussion Valdaï en 2004, qui s’impose progressivement comme un des principaux think tanks de l’ère Poutine, lui permet de se garantir un canal de communication avec l’administration présidentielle, institution centrale de la Russie poutinienne, qui est la seule à même de pouvoir faire circuler ses idées jusqu’au sommet de l’État.

Un entrepreneur idéologique

La politologue Marlène Laruelle, qui a récemment publié un ouvrage sur la construction idéologique de l’État russe, souligne que cette dernière est en constante évolution et repose sur un corpus dont la production est le plus souvent externe à l’État. Elle propose la notion d’« entrepreneur idéologique » pour désigner les acteurs situés en dehors des institutions étatiques qui entrent en concurrence pour capter l’attention de l’administration présidentielle et du gouvernement, afin d’accéder aux ressources et à la reconnaissance qui y sont associées.

Sergueï Karaganov s’inscrit pleinement dans cette catégorie, puisqu’il utilise son réseau et les organisations qu’il a fondées pour développer puis promouvoir ses idées et récits auprès des décideurs russes, dans l’espoir d’en tirer des bénéfices symboliques et matériels.

Capture d’écran de la page d’accueil du site Internet de Sergueï Karaganov.
karaganov.ru

Depuis le début des années 2010, Karaganov a ainsi réussi à s’imposer comme l’un des principaux fournisseurs conceptuels du « tournant russe vers l’Asie ». Plusieurs notions qu’il a développées, comme la « Grande Eurasie » ou, plus récemment, « la Majorité mondiale », ont été intégrées dans le discours officiel, aidant les dirigeants à justifier et à promouvoir la réorientation stratégique et économique de la Russie vers la Chine et ses autres partenaires non-occidentaux.

Rien ne permet en revanche de lui attribuer une quelconque influence sur la définition de l’agenda ni sur les choix concrets de politique étrangère : en la matière, le processus de prise de décision semble cloisonné au président et à son entourage le plus proche, dont Karaganov ne fait assurément pas partie.

Pourquoi toute cette attention aujourd’hui et quelle utilité pour le Kremlin ?

Tout au long de sa carrière, Sergueï Karaganov a bénéficié d’une exposition médiatique en adéquation avec son statut d’expert reconnu en relations internationales. Depuis le début de la guerre en Ukraine, cette exposition a toutefois changé d’échelle, élargissant nettement son audience. Karaganov a su tirer parti du contexte de radicalisation de l’espace public, dans lequel les experts sont incités à afficher leur soutien à la guerre, voire à surenchérir par rapport à la ligne officielle, afin de se distinguer et d’augmenter leur visibilité.

À partir de l’été 2023, il s’est illustré par ses appels répétés en faveur d’une baisse du seuil d’emploi de l’arme atomique et de « frappes nucléaires limitées » contre plusieurs capitales européennes. Ces prises de position, très controversées, y compris au sein de la communauté académique russe, l’ont propulsé au premier plan du débat public. Elles ont très probablement pesé dans sa désignation comme modérateur de la séance plénière du Forum économique international de Saint-Pétersbourg, le 7 juin 2024.

Cette position hautement symbolique lui a permis de dialoguer avec Vladimir Poutine en direct devant les caméras du monde entier. Lors de cet échange, le président russe a déclaré lire les textes de Karaganov, ce qui a alimenté les spéculations quant à l’influence de ce dernier sur la politique étrangère du pays. Cet épisode a également accru ses sollicitations par les médias, jusqu’à son intervention en direct sur la première chaîne de télévision russe, le 5 décembre dernier, largement reprise et traduite à l’étranger pour ses déclarations particulièrement belliqueuses envers l’Europe.

Du point de vue du Kremlin, Karaganov constitue une voix radicale supplémentaire permettant de durcir le discours sans impliquer directement le sommet de l’État. Il joue ainsi le rôle d’un épouvantail utile, à l’image de l’ancien président Dmitri Medvedev, dont les déclarations provocatrices s’inscrivent dans une stratégie de guerre psychologique contre l’Occident. Cette délégation du discours le plus extrême permet au pouvoir de préserver une posture officielle apparaissant comme ouverte à la négociation, tout en laissant circuler des messages plus agressifs par des canaux indirects.

Ainsi, invité du podcast de Tucker Carlson au mois de janvier 2026 dans un contexte de tensions inédites dans les relations transatlantiques dont le Kremlin entend profiter, Sergueï Karaganov a pu s’adresser à l’Amérique trumpiste par l’un de ses canaux favoris. Espérant sans doute être entendu jusque dans le Bureau ovale, il est allé toujours plus loin dans la surenchère, rappelant que « l’Europe est la source de tous les maux » et qu’elle serait « rayée de la carte de l’humanité » en cas d’assassinat de Vladimir Poutine…

The Conversation

Maxime Daniélou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sergueï Karaganov est-il vraiment l’architecte de la politique étrangère du Kremlin ? – https://theconversation.com/sergue-karaganov-est-il-vraiment-larchitecte-de-la-politique-etrangere-du-kremlin-272486

Comment le djihadisme s’est métamorphosé

Source: The Conversation – in French – By Myriam Benraad, Chercheure spécialiste de l’Irak, professeure en relations internationales, enseignante sur le Moyen-Orient, Institut catholique de Paris (ICP)

Idéologie doublée d’une militance globale, le djihadisme a connu un recul après la débâcle de l’organisation État islamique sur le théâtre syro-irakien, dont les combattants ne sont pas parvenus à se réimposer, Al-Qaida ayant aussi perdu de son écho. Le monde est témoin d’un épuisement du phénomène et d’une mise en déroute de ses structures, en Europe et en France par exemple, terres vers lesquelles un terrorisme de masse a cessé de s’exporter. Mais n’est-il pas plus judicieux d’évoquer une « métamorphose » du djihad, au sens de la modification progressive et inachevée de ses formes et de sa nature ? Dans son nouvel ouvrage Jihad : la métamorphose d’une menace, la politiste et professeure en relations internationales Myriam Benraad sonde un ensemble d’idées reçues sur cette mouvance hétéroclite.


Les plus méfiants rétorqueront que des développements dramatiques comme l’attentat de la plage de Bondi à caractère antisémite en décembre 2025, la chute de Kaboul aux mains des talibans en 2021, le changement de régime en Syrie en décembre 2024 à la faveur de djihadistes endurcis, ou encore l’expansion de cette mouvance dans les États du Sahel, l’assassinat de Samuel Paty en 2020 et celui de Dominique Bernard trois ans plus tard démontrent que le djihadisme reste un système de pensée actif et meurtrier. L’affirmation n’est pas dénuée de fondement.

Mais évoquer un épuisement ne revient pas à conclure à la déchéance définitive des idées et des hommes. Comme mouvement et dispositif, le djihadisme s’inscrit dans la durée. À plusieurs reprises, il a surmonté ses revers et l’élimination de ses chefs. Une survivance illustrée en 2023 lorsque, dans le contexte de la relance des hostilités au Proche-Orient après les attaques du Hamas en Israël le 7 octobre, a ressurgi une « Lettre à l’Amérique » signée par Oussama Ben Laden en 2001 en justification des attentats du 11 septembre et incitant les musulmans à « venger le peuple palestinien » contre les États-Unis, Israël et leurs alliés.

Il y a, d’une part, une dégradation manifeste des groupes et de leur commandement, de leur cause et de leurs capacités. On peut juger, d’autre part, qu’une actualité géopolitique extrêmement lourde, de la pandémie de Covid-19 à la guerre en Ukraine et à la conflagration dans la bande de Gaza, a contribué à reléguer la menace au second plan.

Le traitement médiatique n’a plus rien à voir avec la frénésie informationnelle qui avait marqué la période antérieure. Quoique le traumatisme suscité par des vagues d’attaques sanglantes n’ait jamais complètement guéri, le temps a commencé à faire son œuvre, lentement. Peu de citoyens craignent une répétition des actions qui ont meurtri la France en 2015 et 2016. Aucun Français ne s’attend plus à la commission d’une attaque comparable à celle du Bataclan.

Mais comme le suggère l’idée de métamorphose, se transformer ne signifie pas avoir disparu. Le djihad, abordé comme un acte guerrier violent, n’est certes plus aussi puissant qu’auparavant et a vu son potentiel d’enrôlement s’amoindrir. Il n’y a pas eu non plus d’internationalisation djihadiste de la question palestinienne et pas de nouveaux flots de militants à destination du Moyen-Orient depuis la dernière guerre israélo-palestinienne.

Au même moment, le djihadisme est opérationnel sur d’autres terrains. Même minoritaire, il agit dans des pays comme la Syrie, la Libye, le Yémen, où les guerres civiles ont laissé de lourdes séquelles et continuent de procurer aux djihadistes des espaces pour sévir. Dans nos sociétés, des profils d’individus vulnérables aux idées de cette mouvance sont identifiés et mis hors d’état de nuire régulièrement. Enfin, du fait de leur promesse d’endurance et de rétribution, les djihadistes clament haut et fort leur détermination à survivre et continuer de frapper.

Rappelons que le djihad n’est pas réductible à la guerre, en dépit de la violence qui demeure la principale expression du djihadisme contemporain. Au-delà des stéréotypes et clichés, il est impératif de se saisir de la pluralité des significations de ce mot et d’opérer une distinction claire entre ses interprétations théologiques et manifestations historiques, d’un côté, et ses acceptions idéologiques récentes, de l’autre. En effet, le djihad n’est pas le djihadisme malgré la confusion fréquemment opérée entre ces deux termes.

Nier la lourdeur de leurs connotations négatives n’est pas non plus la meilleure des manières de dépasser les préjugés courants, ni d’apporter des éléments de réponse sur un sujet qui reste d’actualité même s’il n’occupe plus les grands titres.

Si l’on excepte le poids de certaines dérives médiatiques et politiques, le djihad est un objet pluri­dimensionnel. La mouvance djihadiste initialement constituée par des Sayyid Qutb, Abdallah Azzam et Oussama Ben Laden n’en a pas épuisé toutes les formes et les structures, et encore moins l’influence. Or ce caractère hétéroclite est difficilement démontrable dans un contexte trop souvent marqué par les polémiques et controverses, notamment en France où les tueries de l’année 2015 continuent de résonner au niveau sociétal.

Dix ans plus tard, les commémorations des attentats du 13 novembre ont montré en quoi la mémoire traumatique de l’ultraviolence est omniprésente et combien le besoin d’une justice restaurative importe pour les victimes, directes ou indirectes. On perçoit bien à cet égard la nécessité d’un retour aux sources, arabes et médiévales, en vue de lever le voile sur les zones d’ombre persistantes. Certes, l’approche belliqueuse du djihad élaborée par les djihadistes sied à leurs convictions, mais elle fausse en large part le sens de l’islam.

Cet extrait est issu de Jihad. La métamorphose d’une menace, de Myriam Benraad, qui vient de paraître aux éditions Le Cavalier bleu.

Dans de nombreux commentaires, on observe aussi que l’Histoire est la grande absente. Les djihadistes ont imposé leur lecture idéologique des circonstances d’expansion de cette religion, qu’ils assimilent à une conquête militaire. En réalité, cette expansion a été plus dispersée dans le temps, pluriforme et multifactorielle. Elle est également plus riche que les descriptions qui en sont faites ici et là. Les bouleversements des dernières décennies ne sauraient occulter que l’islam a accouché d’une civilisation qui était autrefois majestueuse et orientée vers le progrès.

Les djihadistes sont d’ailleurs loin d’être unis dans la vision qu’ils entretiennent de ce passé et des moyens de le restituer. Le « califat » un temps revendiqué par l’État islamique procédait d’une réinvention de la tradition islamique et s’est symptomatiquement vu rejeté par une majorité de musulmans. Cette logique de fragmentation du champ djihadiste a cours, dans les faits, depuis les années 1990 et les djihads afghan, algérien, bosniaque et tchétchène. Puis les clivages entre mouvements se sont renforcés avec les guerres d’Irak, de Libye et de Syrie, pour ne citer que ces crises.

Un socle partagé n’en définit pas moins le djihadisme, pétri de mythes et d’un puissant imaginaire. Depuis le 11 septembre 2001, une majorité de militants s’est ainsi ralliée à la notion d’une croisade supposément conduite par l’Occident et ses alliés contre l’islam et ses fidèles, croisade à laquelle devrait répondre un djihad globalisé. Cette représentation binaire et manichéenne explique l’intolérance absolue des djihadistes et leur rejet de toute différence, y compris religieuse parmi leurs coreligionnaires qu’ils prétendent représenter et défendre.

Quelles sont au fond les causes du djihadisme ? Prétendre apporter une réponse linéaire et exclusive relève du leurre car il n’existe aucun système d’interprétation fixe. À l’identique, les parcours des djihadistes pris individuellement rendent compte de l’absence d’un profil-type, tandis que radicalisation et déradicalisation se doivent d’être examinées à la lumière d’expériences tangibles. Pour l’heure, le djihadisme poursuit sa métamorphose, moins délétère que par le passé, mais le chemin sera long, dans le monde musulman comme dans nos sociétés, avant de prétendre l’avoir vaincu.

The Conversation

Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment le djihadisme s’est métamorphosé – https://theconversation.com/comment-le-djihadisme-sest-metamorphose-272978

Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ?

Source: The Conversation – in French – By Coralie Thieulin, Enseignant chercheur en physique à l’ECE, docteure en biophysique, ECE Paris

Au cœur de l’hiver, la quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, qui n’endommage pas l’environnement, qui soit confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.


Avoir chaud en hiver tout en limitant son impact environnemental peut sembler un défi. Chercher à avoir des vêtements nous protégeant au mieux du froid est certes un levier efficace pour réduire sa consommation d’énergie, comme le montrent des initiatives telles que le mouvement Slow Heat et d’autres expérimentations récentes.

Toutefois, cette démarche se heurte à une contradiction de taille : le secteur textile reste parmi les plus polluants au monde, avec des émissions de gaz à effet de serre importantes et une contribution notable aux microplastiques marins.

Alors, quelles matières tiennent vraiment chaud tout en respectant davantage l’environnement ? Si les fibres naturelles sont souvent mises en avant pour leur bonne isolation et leur fin de vie plus respectueuse de l’environnement, leur impact réel dépend largement de la manière dont elles sont produites et utilisées. Pour y voir plus clair, commençons par comprendre ce qui fait qu’un textile tient chaud.

La fabrication du textile tout aussi importante que la fibre

La capacité d’un textile à tenir chaud dépend moins de la fibre utilisée que de l’air qu’elle parvient à enfermer. En restant immobile dans de minuscules espaces au cœur du tissu, cet air limite les échanges de chaleur, un peu comme dans une couette ou un double vitrage. Plus un tissu est épais, duveteux ou poreux, plus il limite les échanges de chaleur.

Cette capacité dépend beaucoup de la structure des fibres et de la manière dont le textile est fabriqué. Les fibres frisées ou ondulées comme la laine de mouton créent des poches où l’air reste piégé. D’autres fibres comme l’alpaga (un camélidé des Andes proche du lama) ou le duvet synthétique sont partiellement creuses, augmentant encore la capacité isolante. De même, les tricots et mailles, plus lâches, isolent mieux que les tissages serrés. Ainsi, la chaleur d’un vêtement dépend autant de sa construction que de sa matière.

Des alpagas juvéniles à Nuñoa, au Chili.
Des alpagas juvéniles à Nuñoa, au Chili.
Elwinlhq/Wikimedia, CC BY

C’est sur ces mêmes principes physiques que reposent les fibres synthétiques. En effet, le polyester, l’acrylique, le polaire imitent en partie la laine par leur structure volumineuse et leur capacité à emprisonner de l’air, soit grâce à des fibres frisées, soit grâce à des fibres creuses ou texturées.

Ainsi, ces textiles offrent une bonne isolation thermique, sont légers et sèchent rapidement, ce qui les rend très populaires pour le sport et l’outdoor. En revanche, leur faible respirabilité intrinsèque et leur capacité limitée à absorber l’humidité peuvent favoriser la transpiration et la sensation d’humidité lors d’efforts prolongés. D’autre part, contrairement aux fibres naturelles, ces matériaux sont inflammables, un aspect souvent négligé, mais qui constitue un enjeu réel de sécurité.

Elles ont également un coût environnemental élevé. Issues du pétrole, non biodégradables et fortement consommatrices d’énergie, ces fibres libèrent à chaque lavage des microfibres plastiques dans l’eau, contribuant à la pollution marine. On estime qu’entre 16 % et 35 % des microplastiques marins proviennent de ces textiles, soit de 200 000 à 500 000 tonnes par an. Ces impacts surpassent largement ceux des fibres naturelles, ce qui constitue un vrai défi pour une mode plus durable.

Les bénéfices de la laine de mouton mérinos et de l’alpaga

Face à ces limites, les fibres naturelles apparaissent donc souvent comme des alternatives intéressantes, à commencer par la laine de mouton, longtemps considérée comme une référence en matière d’isolation thermique.

La laine possède en effet une structure complexe et écailleuse : chaque fibre est frisée et forme de multiples micro-poches d’air, réduisant ainsi la perte de chaleur corporelle. Même lorsqu’elle absorbe un peu d’humidité, l’air reste piégé dans sa structure, ce qui lui permet de continuer à isoler efficacement. Cette organisation particulière explique aussi pourquoi la laine est respirante et capable de réguler l’humidité sans donner une sensation de froid. Cependant, ces mêmes fibres peuvent parfois provoquer une sensation de « grattage » pour certaines personnes : plus les fibres sont épaisses, plus elles stimulent les récepteurs de la peau et provoquent des picotements. Il s’agit d’un phénomène purement sensoriel, et non d’une allergie.

Fibre de laine mérinos au microscope.
CSIRO, CC BY

Parmi les différents types de laines, la laine de mouton mérinos, issue d’une race d’ovin originaire d’Espagne se distingue par la finesse de ses fibres, nettement plus fines que celles de la laine classique (de 11 à 24 microns pour le mérinos et de 25 à 40 microns pour la laine classique) . Cette caractéristique réduit fortement les sensations d’irritation au contact de la peau et améliore le confort.

Elle favorise également la formation de nombreuses micro-poches d’air isolantes, tout en maintenant une excellente respirabilité. Ces qualités expliquent son usage croissant dans les sous-couches et vêtements techniques, aussi bien pour le sport que pour le quotidien.

Pour autant, la laine n’est pas exempte d’impact environnemental. Bien qu’elle soit renouvelable et biodégradable, son élevage contribue aux émissions de gaz à effet de serre, principalement via le méthane produit par les moutons et la gestion des pâturages. On estime qu’entre 15 et 35 kg de CO₂ équivalent sont émis pour produire 1 kg de laine brute, et qu’environ 10 000 litres d’eau sont nécessaires, selon le mode d’élevage. Le bien-être animal et les pratiques agricoles, comme le mulesing ou l’intensification des pâturages, jouent également un rôle déterminant dans l’empreinte globale de cette fibre.

D’autres fibres animales, comme l’alpaga, suscitent un intérêt croissant en raison de propriétés thermiques comparables, voire supérieures, associées à un meilleur confort. Les fibres d’alpaga sont en effet partiellement creuses, ce qui leur permet de piéger efficacement l’air et de limiter les pertes de chaleur, tout en restant légères. Contrairement à certaines laines plus grossières, elles ne grattent pas, ce qui les rend agréables à porter directement sur la peau.

Elles sont également plus longues et plus fines que la laine classique, avec une bonne capacité de régulation de l’humidité et un séchage plus rapide. Ces caractéristiques expliquent l’essor de l’alpaga dans les vêtements techniques comme dans les pièces haut de gamme, des sous-couches aux manteaux. Sur le plan environnemental, l’alpaga présente aussi certains avantages. En effet, l’élevage d’alpagas exerce généralement une pression moindre sur les écosystèmes : animaux plus légers, consommation alimentaire plus faible, émissions de méthane réduites et dégradation limitée des sols comparativement à l’élevage ovin. Là encore, la durabilité dépend largement du respect de systèmes extensifs et adaptés aux milieux locaux.

Le succès des fibres synthétiques

Malgré les nombreux atouts de ces textiles naturels, les fibres synthétiques restent donc très utilisées, notamment pour leurs performances techniques. Mais leur succès est aussi lié à des facteurs économiques et pratiques : elles sont généralement moins coûteuses, très abondantes dans le commerce, et faciles à transformer en vêtements de masse. Ces aspects rendent le synthétique accessible et pratique pour une large partie des consommateurs, ce qui explique en partie sa prédominance dans l’industrie textile, indépendamment des préférences individuelles.

Polaire, duvet synthétique ou fibres techniques offrent une isolation thermique efficace, tout en étant légères et rapides à sécher, des qualités particulièrement recherchées dans les vêtements de sport et d’outdoor. La conductivité thermique est une mesure de la capacité d’un matériau à conduire la chaleur : plus cette valeur est faible, moins la chaleur passe facilement à travers le matériau, ce qui signifie une meilleure capacité à retenir la chaleur dans un textile donné.

Des mesures de conductivité thermique montrent par exemple que certains isolants synthétiques comme la polaire présentent des valeurs très basses (0,035-0,05 watt par mètre-kelvin (W/m·K)), indiquant une excellente capacité à retenir la chaleur. Pour comparaison, la laine, lorsqu’elle est compacte ou densifiée, peut atteindre 0,16 W/m·K, mais dans les textiles isolants volumineux, elle reste faible (0,033–0,045 W/m·K).

Toutefois, l’origine fossile, la non-biodégradabilité, la libération de microplastiques et un recyclage encore très limité font des textiles synthétiques des matériaux à fort impact environnemental.

Le pull en laine qui gratte, un préjugé qui colle à la peau

À l’inverse, si les fibres naturelles sont parfois boudées, ce n’est pas toujours pour des raisons environnementales, mais souvent pour des questions de confort. Une personne ayant déjà porté un vêtement en fibres naturelles qui lui a paru inconfortable ou irritant peut développer un rejet global de ces fibres, au profit du synthétique, même lorsque des alternatives plus douces existent.

Or, des solutions sont disponibles : privilégier des fibres fines comme la laine mérinos, l’alpaga ou le cachemire, recourir à des traitements mécaniques ou enzymatiques pour adoucir les fibres, ou encore combiner différentes fibres naturelles. Le choix doit aussi tenir compte de l’usage du vêtement et de son contact direct avec la peau.

En pratique, choisir un textile chaud et moins polluant relève donc d’un compromis, qui dépend autant de la matière que de l’usage. Une sous-couche portée à même la peau bénéficiera de fibres fines et respirantes, comme la laine mérinos, tandis qu’une couche intermédiaire privilégiera l’isolation et un vêtement extérieur la protection contre l’humidité et le vent.

Enfin, plutôt que de rechercher une matière « parfaite », il est essentiel de raisonner en cycle de vie. Sa durabilité (combien de temps il est porté), sa réparabilité, la fréquence et la manière de le laver, ainsi que sa fin de vie (recyclage, réutilisation, compostage pour les fibres naturelles) influencent largement son impact environnemental total. Un vêtement bien entretenu et durable peut avoir un impact bien moindre qu’un textile « écologique », mais rapidement jeté.

Au final, les matières textiles les plus chaudes et les moins polluantes sont majoritairement naturelles, mais aucune n’est totalement exempte d’impact. La laine mérinos et l’alpaga offrent aujourd’hui un compromis intéressant entre chaleur, confort et fin de vie environnementale. Le rejet des fibres naturelles pour des raisons de grattage mérite d’être nuancé : la qualité et la finesse des fibres font toute la différence. Mieux informer sur ces aspects pourrait encourager des choix plus durables. En textile comme ailleurs, le meilleur choix reste souvent celui que l’on garde longtemps.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ? – https://theconversation.com/quel-textile-choisir-pour-avoir-chaud-tout-en-limitant-limpact-environnemental-273602

L’ennui n’est pas seulement acceptable chez les enfants, il est bénéfique

Source: The Conversation – in French – By Margaret Murray, Associate Professor of Public Communication and Culture Studies, University of Michigan-Dearborn

Chez l’enfant, l’ennui encourage l’autonomie. Idzard Schiphof/Unsplash, CC BY-NC

L’ennui est souvent perçu comme un mal à éviter à tout prix chez les enfants. Pourtant, loin d’être inutile, il joue un rôle clé dans leur développement, en favorisant l’autonomie, la créativité et l’apprentissage de la gestion du temps.


L’ennui fait partie intégrante de la vie, à travers les époques et partout dans le monde. Et pour cause : il remplit une fonction utile, en poussant les individus à se fixer de nouveaux objectifs et à relever de nouveaux défis.

Je suis professeure et je travaille sur les questions de communication et de culture. J’écris actuellement un livre sur la parentalité contemporaine, et j’ai constaté que de nombreux parents cherchent à éviter à leurs enfants l’expérience de l’ennui. Ils peuvent le percevoir comme une émotion négative qu’ils ne souhaitent pas voir leurs enfants traverser. Ou bien ils les orientent vers des activités qu’ils jugent plus productives.

Les raisons qui poussent les parents à vouloir éviter l’ennui à leurs enfants sont multiples. Beaucoup de parents sont très pris par leur travail et par les préoccupations financières ; les contraintes liées à la garde des enfants et de la gestion du quotidien pèsent lourdement sur eux. Proposer un jeu, un programme télévisé ou une activité créative à la maison permet souvent de gagner un peu de tranquillité : les parents peuvent ainsi travailler sans être interrompus ou préparer le dîner sans entendre leurs enfants se plaindre de s’ennuyer.

À cela s’ajoute parfois une forte attente de réussite. Certains parents ressentent une pression pour que leurs enfants excellent, qu’il s’agisse d’intégrer un établissement sélectif, de briller dans le sport ou de devenir de très bons musiciens.

Les parents peuvent aussi ressentir une forte pression autour de la réussite de leurs enfants, qu’il s’agisse d’intégrer un établissement sélectif, de réussir dans le sport ou d’exceller dans la pratique musicale.

Quant aux enfants, ils consacrent aujourd’hui moins de temps à jouer librement dehors et davantage à des activités organisées qu’il y a quelques décennies. La généralisation des écrans a par ailleurs rendu l’évitement de l’ennui plus facile que jamais.

Pendant la pandémie, beaucoup de parents ont ainsi eu recours aux écrans pour occuper leurs enfants pendant leurs heures de travail. Plus récemment, certains disent ressentir une pression sociale les poussant à utiliser les écrans pour que leurs enfants restent calmes dans les lieux publics.

En somme, si les parents ont de multiples raisons de vouloir tenir l’ennui à distance, il vaut la peine de s’interroger sur ce que l’ennui peut aussi apporter avant de chercher à l’éliminer complètement.

Les bienfaits de l’ennui

Même s’il est désagréable sur le moment, l’ennui est un atout pour le développement personnel. Il agit comme un signal indiquant qu’un changement est nécessaire, qu’il s’agisse de modifier son environnement, son activité ou les personnes qui nous entourent. Les psychologues ont montré que l’expérience de l’ennui peut favoriser l’émergence de nouveaux objectifs et encourager l’exploration de nouvelles activités.

Professeur à Harvard spécialisé dans le leadership public et associatif, Arthur Brooks, a montré que l’ennui est indispensable au temps de réflexion. Ces moments de creux ouvrent un espace pour se poser les grandes questions de l’existence et donner du sens à ce que l’on vit. Des enfants rarement confrontés à l’ennui peuvent devenir des adultes qui peinent à y faire face. L’ennui agit aussi comme un stimulant pour le cerveau, en nourrissant la curiosité naturelle des enfants et en favorisant leur créativité.

Apprendre à composer avec l’ennui et, plus largement, avec les émotions négatives, constitue une compétence essentielle dans la vie. Lorsque les enfants apprennent à gérer leur temps par eux-mêmes, cela peut les aider à développer leurs fonctions exécutives, c’est-à-dire la capacité à se fixer des objectifs et à élaborer des plans.

Les bénéfices de l’ennui se comprennent aussi du point de vue de l’évolution. L’ennui est extrêmement répandu : il touche tous les âges, tous les genres et toutes les cultures, et les adolescents y sont particulièrement sujets. Or la sélection naturelle tend à favoriser les traits qui confèrent un avantage. Si l’ennui est aussi universel, il est peu probable qu’il persiste sans offrir, d’une manière ou d’une autre, des bénéfices.

Mieux vaut pour les parents éviter de considérer l’ennui comme une difficulté qu’ils doivent résoudre eux-mêmes pour leurs enfants. Les psychologues ont en effet observé que les étudiants dont les parents s’impliquent de manière excessive présentent davantage de symptômes dépressifs.

D’autres recherches indiquent également que les jeunes enfants à qui l’on donnait des écrans pour les apaiser se révèlent, plus tard, moins capables de réguler leurs émotions.

L’ennui est inconfortable

La tolérance à l’ennui est une compétence que beaucoup d’enfants rechignent à acquérir ou n’ont tout simplement pas l’occasion de développer. Et même chez les adultes, nombreux sont ceux qui préféreraient s’infliger une décharge électrique plutôt que de rester livrés à l’ennui.

Apprendre à faire avec l’ennui demande de l’entraînement. Il est préférable de commencer par de courtes périodes, puis d’allonger progressivement ces moments de temps non structuré. Parmi les conseils aux parents figurent celui d’encourager les enfants à sortir, celui de leur proposer un nouveau jeu ou une recette à tester, ou tout simplement celui de se reposer. Laisser une place à l’ennui implique aussi d’accepter qu’il y ait des moments où, concrètement, il ne se passe rien de particulier.

Les plus jeunes peuvent avoir besoin qu’on leur donne des idées sur ce qu’ils peuvent faire lorsqu’ils s’ennuient. Les parents n’ont pas à jouer avec eux à chaque fois que l’ennui surgit, mais proposer quelques pistes peut être utile. Pour les tout-petits, cinq minutes d’ennui constituent déjà un bon début.

Pour les enfants plus âgés, les encourager à trouver eux-mêmes comment faire face à l’ennui est particulièrement valorisant. Il est important de leur rappeler que cela fait partie de la vie, même si c’est parfois désagréable à vivre.

Avec le temps, ça devient plus facile

Les enfants ont une grande capacité d’adaptation. À force d’être confrontés à de petits moments d’ennui, les enfants se lassent moins vite par la suite. Les études montrent d’ailleurs que le fait d’expérimenter régulièrement l’ennui rend la vie globalement moins monotone.

Renoncer à l’idée qu’il faut sans cesse divertir les enfants peut aussi contribuer à alléger la charge mentale des parents. Aux États-Unis, environ 41 % d’entre eux déclaraient en 2024 être « tellement stressés qu’ils n’arrivent plus à fonctionner », et 48 % disaient que « la plupart des jours, leur niveau de stress est totalement écrasant », selon un rapport du médecin-chef des États-Unis.

Donc, la prochaine fois qu’un enfant se plaint en disant « Je m’ennuie », inutile de culpabiliser ou de s’énerver. L’ennui est une composante saine de la vie : il encourage l’autonomie, pousse à découvrir de nouveaux centres d’intérêt et à relever de nouveaux défis.

Faire comprendre aux enfants que ce n’est pas seulement tolérable mais bénéfique les aide à mieux l’accepter.

The Conversation

Margaret Murray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’ennui n’est pas seulement acceptable chez les enfants, il est bénéfique – https://theconversation.com/lennui-nest-pas-seulement-acceptable-chez-les-enfants-il-est-benefique-273755

Du technocapitalisme aux Venture Capitals : la grande transformation des industries de défense

Source: The Conversation – in French – By Nicolas Minvielle, Spécialiste du design et de l’innovation, Audencia

La valeur de l’industrie de défense est en train de muter vers le monde du logiciel. Le monde d’hier est donc bien caduc. Imperial War Museums

Alors que le contexte géopolitique change en profondeur, de nouvelles entreprises émergent dans le monde de la défense. Après des décennies dominées par la puissance d’entreprises industrielles à l’ancienne, les start-up du logiciel deviennent des actrices clés. Retour sur une mutation en cours et décryptage des nouveaux enjeux qu’elle pose.


Dans le contexte de la guerre en Ukraine où l’« autonomie stratégique » devient un problème concret apparaît, à côté du traditionnel « complexe militaro-industriel »), un nouveau modèle que l’on pourrait décrire comme étant un complexe technocapitaliste. Un écosystème où start-up, fonds de capital-risque, fonds souverains, initiatives européennes et philanthropes techno-nationalistes investissent massivement dans la défense et la sécurité.

Non pas pour remplacer d’un coup la base industrielle et technologique de défense (BITD) – et ce malgré les annonces tonitruantes de certains de ces acteurs –, mais pour en modifier progressivement l’architecture, les acteurs et les temporalités.

Le dernier souper est servi

Le modèle qui domine encore aujourd’hui a pris forme dans les années 1990, avec la grande consolidation de l’industrie américaine de défense sous l’administration Clinton. Durant cette période, la base industrielle de défense américaine a connu une consolidation d’une ampleur inédite. Surnommé le last supper, ce moment d’accélération des fusions a donné naissance aux cinq géants qui dominent encore largement la défense américaine – Lockheed Martin, Boeing, Northrop Grumman, Raytheon et General Dynamics. Quelques grands maîtres d’œuvre – ces fameux Big Five – se partagent ainsi depuis l’essentiel des grands programmes : avions de combat, frégates, satellites, systèmes de commandement intégrés.




À lire aussi :
Réarmement : l’indispensable coopétition entre petites, moyennes et grandes entreprises de la défense


Leur logique est celle de la commande publique lourde : des besoins définis par l’État, des appels d’offres longs, des cycles de développement qui se comptent en décennies, une forte intégration verticale, une relation quasi organique avec les ministères de la Défense. Ce modèle assure une certaine visibilité budgétaire et une capacité à gérer des systèmes d’une complexité extrême. Il produit aussi une grande inertie tant sur le plan technologique que procédural.

L’arrivée du monde du logiciel

Depuis une dizaine d’années, ce paysage est bousculé par des acteurs qui viennent, pour l’essentiel, du monde du logiciel : Anduril, Palantir, Helsing, Shield AI, et en France des entreprises comme Command AI. Leur point de départ n’est pas une plateforme matérielle (un avion, un navire, un char), mais le logiciel : fusion de données, IA, capteurs distribués, systèmes autonomes, couches de command & control.

Leurs méthodes de travail et de production, héritées de la tech consistent en itérations rapides, tests fréquents, déploiements progressifs, adaptation au retour du terrain plutôt qu’exécution d’un cahier des charges figé. Aux États-Unis, des dispositifs comme les Other Transaction Authority (OTA) ont été créés pour faciliter cette collaboration avec des acteurs non traditionnels, ce qui permet d’en contourner certaines lourdeurs réglementaires.

Traverser la « vallée de la mort »

Au sein de ces organisations, on sait prototyper plus vite, expérimenter plus tôt, et ce qu’elles que soient leurs origines géographiques. Mais le cœur du problème reste entier : beaucoup de ces start-up valident un démonstrateur… puis butent sur la « vallée de la mort » entre prototypes financés en mode agile et programmes pérennes inscrits en loi de finances. L’appareil budgétaire, taillé pour les grands industriels historiques, peine à absorber des solutions issues de ce nouveau monde.

En Europe, on tente d’importer cet esprit à travers des marchés d’innovation, des programmes d’expérimentation accélérée, des dispositifs dual-use. Mais la culture d’acquisition reste largement calibrée pour les grands programmes industriels, plutôt que pour des produits logiciels qui changent de version plusieurs fois par an.

La défense devient une classe d’actifs

Parallèlement à cette rupture technologique, c’est la structure du financement de la défense qui se transforme. La sécurité n’est plus seulement affaire de budgets ministériels ; elle devient aussi un segment identifié du capital-risque. Aux côtés des commandes publiques et des investissements des grands groupes se constitue un nouvel écosystème d’investisseurs composé :

  • des fonds privés spécialisés dans la défense, la sécurité et les technologies dites « civilisationnelles » (IA, autonomie, cyber, spatial, résilience d’infrastructures) ;

  • des fonds souverains et publics qui cherchent à orienter l’innovation vers des priorités de souveraineté ;

  • des dispositifs européens (fonds de fonds, véhicules dédiés) qui tentent de structurer un marché encore fragmenté ;

  • des philanthropes techno-nationalistes qui investissent par conviction politique ou civilisationnelle autant que pour le rendement (Peter Thiel par exemple).

Tous partagent la conviction que certaines technologiesIA militaire, lutte anti-drones, robotique autonome, surveillance avancée, sécurité spatiale – vont devenir structurantes, et que la valeur se créera très en amont, bien avant les grands contrats publics. Le schéma de l’industriel finançant la R&D sur fonds propres pour vendre ensuite un produit à marge encadrée recule. Le risque est socialisé dans le capital : les VC, les fonds souverains, les programmes européens prennent le risque initial, en misant sur l’hypothèse qu’un jour, une partie de la commande publique basculera vers ces nouvelles solutions.

Ce mouvement ne remplace pas le financement traditionnel par les États ; il l’encercle, le complète et le pousse à se réorganiser. Ministères de la Défense, Union européenne, Otan tentent désormais de co-concevoir des instruments (fonds, equity facilities, fonds d’innovation) pour ne pas laisser au seul capital privé le soin de définir, par ses paris, l’architecture future de la BITD.

Un dialogue nécessaire entre deux modèles

On l’aura compris, dans ce nouvel environnement, deux grandes logiques industrielles cohabitent. Du côté des industriels historiques, la chaîne de valeur part de l’expression de besoin : l’État formalise une exigence (un avion de combat, un système de défense antiaérienne, une frégate de nouvelle génération), lance un appel d’offres, sélectionne un industriel, et s’engage sur des décennies. La robustesse, la certification, l’intégration dans des architectures complexes sont centrales. Les marges sont encadrées, le risque est partagé, mais le tempo reste celui du temps long.

Les start-up de défense, à l’inverse, développent des produits avant que le besoin ne soit formalisé. Elles financent le développement puis se tournent vers les États en disant, en substance : « voilà ce que nous savons déjà faire, regardez si vous pouvez vous en passer ».

Cette asymétrie se voit dans la façon dont on conçoit les systèmes. Là où les grands industriels ont longtemps construit d’abord la plateforme matérielle, puis ajouté des couches logicielles au fil du temps, les nouveaux entrants adoptent une logique software first.

Un nouveau rapport de forces

Le cas d’Anduril est emblématique. Au cœur de sa stratégie se trouve un système d’exploitation tactique, conçu pour connecter capteurs, drones, effecteurs et flux de données. À partir de cette brique logicielle, l’entreprise déploie ensuite ses propres drones, capteurs, systèmes d’armes, en gardant la maîtrise de l’architecture logicielle qui fait la jonction. Le tout étant principalement focalisé sur La clientèle militaire.

Cette inversion du rapport de force – la valeur se loge dans le logiciel, la plateforme matérielle devient, jusqu’à un certain point, substituable – rend très concrète la question de la souveraineté : qui contrôle la brique logicielle qui orchestre l’ensemble ? Qui décide du rythme des mises à jour ? Où se situent les dépendances critiques ?

Elle rebat aussi les cartes du Hi–Low mix : comment articuler des systèmes lourds, rares et coûteux (avion de combat, frégate) avec des objets plus simples, distribués, produits en masse (drones, capteurs, effecteurs low cost). Les nouveaux acteurs occupent volontiers ce bas et ce milieu du spectre, la « masse agile » ; les industriels historiques doivent, eux, apprendre à descendre vers des produits plus modulaires, plus rapides, tout en continuant à garantir l’excellence sur les systèmes de très haute complexité.

Des horizons temporels différents

La rencontre entre capital-risque et défense met aussi au jour une tension structurante : celle des horizons temporels. Le Venture Capital (VC, ou capital-risque) raisonne en cycles de cinq à sept ans, avec l’idée que l’entreprise doit, soit atteindre une taille critique, soit être rachetée, soit entrer en bourse. Les ministères de la défense, eux, raisonnent sur vingt ou trente ans, voire davantage.

Ce décalage pose des questions très concrètes. Que se passe-t-il si un acteur clé de l’IA tactique ou du contre-drone, devenu indispensable sur le terrain, se retrouve fragilisé par la conjoncture financière, ou racheté par un acteur étranger ? Comment garantir la continuité d’une capacité opérationnelle dont la brique critique est portée par une entreprise structurée selon les logiques de la tech ?

Trois idées structurantes

À l’inverse, la défense ne peut plus ignorer le rythme d’innovation propre au logiciel. Attendre dix ans pour figer une architecture revient souvent à se condamner à déployer des systèmes déjà dépassés. D’où la montée en puissance de trois idées structurantes :

  • Le dual-use : privilégier les technologies qui ont, par construction, des débouchés civils et militaires (cyber, spatial, IA, robotique, résilience d’infrastructures). Cela élargit la base industrielle, répartit le risque et évite de concentrer des capacités critiques sur des marchés de niche.

  • Le « software-defined, hardware-enabled » : concevoir des systèmes où le cœur de valeur est dans l’algorithme (détection, fusion de capteurs, décision), et où le matériel – drone, capteur, effecteur – peut évoluer plus librement.

  • La modularisation et les architectures ouvertes : prévoir dès la conception des points d’insertion réguliers pour de nouvelles briques logicielles, de nouveaux capteurs, sans devoir réinventer tout le système.

Ces leviers ne font pas disparaître la tension entre temps court financier et temps long doctrinal, mais ils la rendent plus gérable. L’État peut, en théorie, remplacer une brique sans casser l’ensemble. Et le capital peut se concentrer sur des modules identifiables plutôt que sur des mégaprogrammes monolithiques.

BFM, 2025.

Jungle et zoo ou concilier l’inconciliable

On décrit parfois la situation actuelle comme la rencontre d’un « zoo » – celui des grands programmes, très régulés, très documentés, pensés pour durer – et d’une « jungle » peuplée d’insurgés technologiques, financés par les VC, en constante exploration.

Les nouveaux acteurs occupent des niches, souvent à la périphérie des grands programmes, mais avec un fort potentiel de diffusion. Pour l’instant, une grande partie d’entre eux reste dépendante de tremplins publics (contrats d’étude, expérimentations, appels à projets). Le marché réel, celui des grands volumes, demeure largement capté par les industriels historiques.

Dans le même temps, et le point est clé, les investisseurs privés se concentrent progressivement sur des profils plus mûrs : des entreprises qui ont déjà fait la preuve de leur solidité technique, de leur capacité à dialoguer avec les armées, de leur compréhension des contraintes réglementaires. On s’éloigne du fantasme de la start-up de défense sortie de nulle part pour se rapprocher d’acteurs hybrides, où se mêlent les cultures tech, industrielle et stratégique. Dit autrement, malgré le marketing ambiant, les investisseurs préfèrent accélérer des sociétés ayant une forme de maturité plutôt qu’une forme de risque extrême à tout va.

Quelles réponses européennes ?

Pour l’Europe, l’enjeu n’est pas de choisir entre la jungle et le zoo, ni de rêver à une table rase. Il est d’apprendre à articuler ces deux univers :

  • en assumant plus clairement une politique industrielle de défense, qui fixe des priorités et des lignes rouges ;

  • en construisant des passerelles institutionnelles et financières entre fonds souverains, VC et industriels historiques ;

  • en pensant la souveraineté non seulement en termes de plates-formes matérielles, mais aussi en termes d’architectures logicielles, de données, de standards.

Le « complexe technocapitaliste » ne supprime pas le complexe militaro-industriel. Il le met à l’épreuve, l’oblige à se transformer et offre, si l’on sait le canaliser, de nouveaux leviers pour renforcer une souveraineté européenne qui ne peut plus se contenter de dépendre des choix technologiques et politiques des autres.

The Conversation

Nicolas Minvielle est membre du comité d’orientation de La Fabrique de la Cité, et du collectif Making Tomorrow

Marie Roussie travaille au sein de Alt-a et est membre du Collectif Making Tomorrow.

ref. Du technocapitalisme aux Venture Capitals : la grande transformation des industries de défense – https://theconversation.com/du-technocapitalisme-aux-venture-capitals-la-grande-transformation-des-industries-de-defense-273707