L’aide au développement sert aussi à sécuriser les chaînes d’approvisionnement des pays riches

Source: The Conversation – in French – By Basak Bayramoglu, Directrice de recherche, Inrae

En théorie, le montant de l’aide au développement versé à tel ou tel pays ne devrait pas dépendre de sa contribution aux chaînes de valeur mondiales. Dans les faits, pourtant, on observe que les pays donateurs ont tendance à privilégier, quand ils aident financièrement des pays pauvres, ceux qui sont utiles à leur propre production…


Pourquoi certains pays reçoivent-ils davantage d’aide au développement que d’autres alors que leurs besoins sont comparables ? Les chercheurs s’interrogent sur cette question depuis des décennies. Nous savons déjà que les motivations des donateurs ne sont pas uniquement altruistes : elles incluent des considérations diplomatiques ou commerciales par exemple.

Dans un article récent, nous montrons que les chaînes de valeur mondiales — ces réseaux internationaux où les biens sont produits en plusieurs étapes dans différents pays — créent de nouvelles interdépendances entre pays et influencent l’allocation de l’aide.

Aide au développement bien ordonnée…

Depuis les années 1990, la production mondiale s’est largement fragmentée : composants électroniques, pièces automobiles, produits agricoles transformés… une multitude d’étapes de production sont désormais dispersées entre plusieurs pays. Les échanges liés à cette organisation de la production mondiale en chaînes de valeur représentent environ 50 % du commerce mondial.

Notre analyse empirique montre que les pays donateurs accordent davantage d’aide aux pays qui fournissent des biens intermédiaires utilisés dans leur production destinée à l’exportation. Autrement dit, l’aide n’est pas uniquement destinée aux pays dont les besoins sont les plus importants : elle se dirige aussi vers ceux qui occupent des positions clés dans les chaînes de valeur mondiales.

Les exportations des pays récipiendaires de l’aide jouent un rôle particulièrement important dans les secteurs caractérisés par des biens intermédiaires différenciés, difficiles à substituer : équipements électriques et machines, transport et pièces automobiles, industrie agroalimentaire. Les pays produisant ce type de biens reçoivent davantage d’aide, toutes choses égales par ailleurs. Ce résultat complète d’autres recherches montrant que les réserves en pétrole des pays récipiendaires influencent également l’allocation de l’aide.

Le poids des entreprises des pays donateurs

Nous observons aussi une hétérogénéité importante entre pays donateurs déjà mise en avant dans d’autres travaux : les grands pays exportateurs (France, Allemagne, Japon, Royaume-Uni, États-Unis, notamment) semblent allouer l’aide de manière plus stratégique, tandis que les pays considérés traditionnellement comme plus « altruistes » (Pays-Bas, Danemark, Suède…) semblent moins sensibles au fait que le pays récipiendaire soit exportateur de biens intermédiaires spécifiques.

Calculs des auteurs. Ce graphique représente l’effet de la valeur ajoutée provenant des biens intermédiaires des pays récipiendaires (Foreign Value Added, FVA) sur le montant d’aide bilatérale pour chaque pays donateur (moyennes et intervalles de confiance à 95 %). Cliquer pour zoomer.
Fourni par l’auteur

Pour comprendre ces résultats, nous proposons une explication théorique.

Le pays donateur, situé en aval de la chaîne de valeur, dépend d’un intrant produit dans un pays receveur, situé en amont. En transférant — sous forme d’aide — des ressources financières qui font l’objet de négociations, il incite le pays receveur à réduire ses tarifs douaniers d’importations de biens intermédiaires, ce qui diminue le coût final de son intrant produit et exporté vers le pays donateur.

L’aide agirait ainsi comme un levier discret de réduction des coûts de production pour les entreprises du pays donateur. L’influence des entreprises dans l’allocation de l’aide est également révélée ces dernières années par des enquêtes journalistiques.

Un processus qui creuse les inégalités entre pays pauvres

Ce travail montre que l’aide au développement apparaît, au moins en partie, comme un moyen permettant aux pays donateurs de garantir un accès à des biens intermédiaires stratégiques en soutenant les pays situés en amont des chaînes de production. Ce constat interroge la manière dont l’aide est allouée si l’on souhaite éviter que les pays les plus pauvres ne soient doublement exclus : des chaînes de valeur mondiales et des flux d’aide.

Nos résultats ont des implications politiques importantes.

Premièrement, le développement des chaînes de valeur mondiales peut exacerber la fragmentation de l’aide en concentrant les financements vers les pays déjà intégrés dans ces chaînes. Or, malgré plusieurs initiatives internationales comme la Déclaration de Paris sur l’efficacité de l’aide au développement adoptée par l’OCDE en 2005, cette fragmentation persiste. Une étude de la Banque mondiale montre que l’augmentation des engagements d’aide au développement en termes réels entre 2000 et 2019 s’est accompagnée d’une multiplication du nombre de donateurs et d’agences d’aide, rendant la coordination de l’allocation de l’aide plus complexe.

Deuxièmement, orienter prioritairement l’aide vers les pays liés aux chaînes de valeur mondiales peut nuire au développement des pays les moins avancés, dont l’intégration dans les réseaux de production mondiaux reste limitée. Or, l’intégration aux chaînes de valeur stimule la croissance : une étude de la Banque mondiale indique qu’une augmentation de 1 % de participation entraîne en moyenne plus de 1 % de hausse du revenu par habitant. Mais si l’aide se concentre sur les pays déjà bien intégrés, elle risque de creuser davantage l’écart entre les « gagnants » et les laissés-pour-compte de la mondialisation. Or, les déclarations récentes de l’administration américaine qui limiteraient l’aide au développement à 17 pays prioritaires choisis par les États-Unis (« excluant certains pays en proie à de graves crises humanitaires, tels que l’Afghanistan et le Yémen ») ne font que renforcer ces inquiétudes.

The Conversation

Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l’égide de La Fondation du Risque.

Jean-François Jacques et Julie Lochard ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. L’aide au développement sert aussi à sécuriser les chaînes d’approvisionnement des pays riches – https://theconversation.com/laide-au-developpement-sert-aussi-a-securiser-les-chaines-dapprovisionnement-des-pays-riches-272391

Comment dépolluer les friches industrielles face à la défiance des habitants ?

Source: The Conversation – in French – By Cecile Bazart, Maîtresse de conférences, Université de Montpellier

Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.


Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.

Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).

Rue des vignerons à Vincennes (Val-de-Marne), l’usine Pathé fabrique en 1902 des supports et émulsions chimiques pour le cinéma et la photographie. Elle deviendra plus tard l’usine Kodak.

Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.

Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.

Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.

Dépolluer : une étape indispensable mais complexe

Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.

Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.

À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.

Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.




À lire aussi :
En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes


Le stigmate, angle mort de la reconversion

Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.

C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.

Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.

Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.

Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.




À lire aussi :
Comment redonner une nouvelle vie aux friches industrielles en ville ?


Un décalage entre gestion technique et perceptions

Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.

Plusieurs mécanismes expliquent ce décalage.

  • Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.

  • La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.

  • Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.

Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.

Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.

Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.




À lire aussi :
Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite


The Conversation

L’enquête détaillée dans l’article a été financée par l’Université de Montpellier.

Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l’ADEME et la Région Pays de la Loire (2014-2017).

ref. Comment dépolluer les friches industrielles face à la défiance des habitants ? – https://theconversation.com/comment-depolluer-les-friches-industrielles-face-a-la-defiance-des-habitants-273723

En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes

Source: The Conversation – in French – By Sonia Henry, Chercheuse, Université de Lorraine

Le tabouret bleu (_Noccaea caerulescens_) est une plante capable d’extraire du zinc, du cadmium et du nickel des sols. Madeleine Dugois, CC BY-NC-SA

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.


À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.

Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.

Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.

De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.

C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).

Les vertus de la phytoremédiation

Commençons par expliquer ce que l’on entend par « phytoremédiation ».

Mécanismes d’absorption des métaux lourds par les plantes grâce à la phytoremédiation.
Bieby Voijant Tangahu et al, CC BY

Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).

Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.

Le miscanthus géant aide la dégradation de certains hydrocarbures dans les sols.
geograph.org.uk, CC BY-NC-SA

Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.

Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.

L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles




À lire aussi :
La phytoremédiation : quand les plantes dépolluent les sols


La friche d’Uckange, laboratoire à ciel ouvert

Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.

Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.

L’usine d’Uckange et son quatrième haut fourneau sont désormais un monument historique qui peut être visité par le grand public.
Benjism89, CC BY-NC-SA

Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.

Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.

Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.

Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.




À lire aussi :
Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt


Associer plantes d’extraction et de dégradation

Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).

L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.

Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :

  • la diminution des teneurs en contaminants,

  • l’amélioration de la qualité agronomique,

  • et l’augmentation de la biodiversité microbienne.

La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.

Les premiers résultats seront publiés dans les prochains mois.

Bénéfices collatéraux de la phytoremédiation

Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.

Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.

Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.

En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.

The Conversation

Sonia Henry a reçu des financements de la Communauté d’Agglomération du Val de Fensch et de l’Institut Carnot Icéel

ref. En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes – https://theconversation.com/en-moselle-on-depollue-les-sols-dune-friche-siderurgique-grace-aux-plantes-235345

L’eau invisible des chaînes de valeur mondialisées

Source: The Conversation – in French – By Simon Porcher, Professeur, Université Paris Dauphine – PSL

C’est le maillon caché de la mondialisation : quand on échange des biens et des services, on transfère aussi de l’eau douce d’un pays à l’autre. Pourtant, la gestion de l’eau reste locale, quand sa consommation est devenue mondiale. Des solutions émergent.


L’eau douce, pourtant indispensable à toute activité humaine, reste souvent absente des débats sur la mondialisation, comme si sa disponibilité allait de soi. Pourtant, sans eau, il n’y a ni alimentation, ni industrie, ni énergie, ni numérique. Nos vies, même dématérialisées, reposent sur l’utilisation de l’eau, qui refroidit, nettoie, chauffe. L’eau est l’intrant invisible de notre économie. Un chiffre résume son importance : 88 % de l’eau prélevée dans le monde sert à produire des biens ou des services.

L’eau circule déjà d’un continent à l’autre, non pas dans des canalisations, mais à travers les chaînes de valeur mondialisées, dans les produits alimentaires ou les habits que nous consommons et dans toutes nos infrastructures. Cette « eau virtuelle » irrigue la mondialisation, mais reste largement ignorée des décisions économiques et politiques. Résultat : l’eau est mobilisée comme si elle était une ressource infinie, au service d’une économie qui privilégie la performance immédiate au détriment des écosystèmes et des populations.

Les flux d’eau cachés dans notre assiette

Le concept d’eau virtuelle, inventé au début des années 1990 par le géographe Tony Allan, permet de mesurer l’eau incorporée dans les produits que nous consommons. Par exemple, il faut 15 000 litres d’eau pour produire un kilogramme de bœuf, 4 000 litres pour un kilo de pistaches et 1 000 litres pour un kilo de maïs.

Chaque petit déjeuner devient un voyage autour du monde : le café du matin vient de Colombie ou du Brésil, arrosé par les pluies tropicales ; le carré de chocolat noir qui l’accompagne est fabriqué à partir de cacao équatorien ; l’avocat du Pérou vient d’un champ irrigué. Seuls le blé et le sel de la baguette de pain, et la poule qui a pondu l’œuf viennent de France. Nos choix alimentaires connectent les bassins d’eau du monde entier, souvent à notre insu.




À lire aussi :
L’eau, la grande oubliée du label bio ?


Afin de mesurer le volume ainsi utilisé indirectement, Arjen Hoekstra a élaboré en 2002 le concept d’empreinte eau. Celle-ci correspond au volume total d’eau utilisé pour produire les biens et les services que nous consommons. Elle peut être calculée pour un pays ou pour un consommateur. Par exemple, l’empreinte eau d’un Français est supérieure à 4 000 litres par jour. 90 % de cette quantité proviennent de notre alimentation.

L’eau dans les chaînes de valeur mondialisées

Cette approche par l’assiette, et plus généralement par le produit final, révèle les transferts massifs d’eau entre pays, souvent invisibles dans les échanges commerciaux. L’industrie textile illustre parfaitement cette réalité. De la culture du coton à la teinture et au lavage, chaque vêtement consomme des milliers de litres d’eau. Les fleuves Amou-Daria et Syr-Daria, qui prennent leur source au Tadjikistan et au Kirghizistan, ont été détournés par les pays en aval pour irriguer du coton. Cette irrigation massive a réduit leur flux au point d’assécher la mer d’Aral. Là-bas, la baisse de la quantité d’eau entraîne des problèmes sanitaires et de dégradation des conditions d’existence. Les procédés industriels génèrent des rejets polluants, mal traités, contaminant rivières, sols et nappes. Les pays producteurs de textile paient le prix écologique de nos vêtements à bas coût.

Cet exemple illustre un problème plus large. La mondialisation des flux d’eau virtuelle révèle un vide institutionnel majeur. L’économie est globale, mais la gestion de l’eau reste locale. Cette disjonction favorise le dumping hydrique et environnemental. Les règles du commerce mondial invisibilisent les impacts réels sur les populations et les écosystèmes. Les chaînes de production éclatées permettent aux entreprises de profiter des ressources des pays fragiles, sans compensations ni reconnaissance des impacts sociaux et écologiques.

Des inégalités accentuées

L’exploitation intensive de l’eau n’est pas seulement un problème environnemental ; c’est un enjeu social et politique. Les populations des pays producteurs subissent la raréfaction de l’eau, la pollution des nappes et les risques sanitaires. Les inégalités s’accentuent : ce sont les plus vulnérables qui supportent les coûts, et les plus riches qui récoltent les bénéfices.

Au-delà de l’opposition entre le Nord et le Sud, c’est la domination des logiques de marché qui pose problème. Les multinationales choisissent leurs sites de production selon le coût de l’eau et la faiblesse des normes, renforçant un modèle où la ressource devient une variable d’ajustement économique plutôt qu’un bien commun. Les États, souvent dépassés, adoptent ces normes pour rester compétitifs, laissant peu de place à des alternatives locales ou écologiques.

Vers une reconnaissance de l’eau comme une ressource commune globale

La gouvernance de l’eau demeure aujourd’hui largement fragmentée à l’échelle mondiale. Contrairement au changement climatique, qui bénéficie d’un cadre multilatéral de référence malgré ses limites, l’eau n’est pas reconnue comme une ressource commune globale dotée de règles et de normes contraignantes pour les acteurs économiques. Cette situation limite la capacité de régulation des usages et des impacts. En l’absence d’un étiquetage systématique de l’empreinte eau des produits, la consommation d’eau liée aux biens et aux services échangés reste en grande partie invisibles. Alors même que l’empreinte eau d’un produit peut varier fortement selon les systèmes de production et les intrants mobilisés, cette invisibilité contribue à une faible responsabilisation de l’ensemble des acteurs. Dans un contexte de dépassement des limites planétaires relatives à l’eau, la disponibilité et la transparence des informations relatives à l’empreinte eau des produits et des services constituent un enjeu central de gouvernance.

Par ailleurs, les usages de l’eau reflètent de fortes inégalités géographiques : les pays industrialisés concentrent une part importante des consommations d’eau indirectes à travers les importations de produits agricoles et industriels, tandis que les pressions hydriques se manifestent principalement dans les pays producteurs. Dans ce contexte, les politiques commerciales et de coopération internationale sont des leviers potentiels de régulation indirecte des impacts hydriques. La jurisprudence de l’Organisation Mondiale du Commerce a reconnu la possibilité pour un État de restreindre l’accès à son marché sur la base de procédés et de méthodes de production. Demain peut-être prendra-t-on en compte les impacts environnementaux localisés, tels que le stress hydrique, dans la régulation des échanges internationaux.

France 24 – 2024.

Internaliser la contrainte ?

Du côté des entreprises, la prise en compte des risques hydriques progresse mais demeure hétérogène. Elle repose largement sur des démarches volontaires, souvent intégrées à des stratégies de responsabilité sociale sans caractère contraignant. Mais certaines multinationales commencent toutefois à internaliser ces enjeux. Michelin a par exemple mis en place un prix fictif de l’eau en interne pour s’inciter à investir dans des systèmes d’économie et de réutilisation de l’eau. Dans les usines de Gravanches et de Troyes, l’amélioration des processus de refroidissement devrait diminuer les prélèvements de plus de 60 %.

Néanmoins, ces initiatives restent principalement concentrées sur les sites de production directs, alors que l’essentiel des consommations d’eau associées aux produits se situe en amont, le long des chaînes de valeur, où se concentre également une part importante des risques hydriques. L’analyse de l’empreinte eau sur l’ensemble des chaînes d’approvisionnement apparaît dès lors comme un outil central pour identifier et gérer les risques hydriques liés à leurs investissements.

L’eau n’est pas seulement un enjeu environnemental, c’est un facteur structurant de la production économique, du commerce international et de la souveraineté. Le décalage entre la nature localisée des ressources hydriques et l’organisation mondialisée des chaînes de valeur constitue l’un des défis majeurs de la gouvernance contemporaine de l’eau.


Cet article fait partie du dossier « La gestion à l’épreuve du réel nbsp;» par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.

The Conversation

Simon Porcher co-dirige l’Institut d’économie de l’eau, soutenu par des mécènes. Ceux-ci n’ont joué aucun rôle dans le choix de l’angle, la rédaction ou les conclusions ; cette tribune n’engage que son auteur.

ref. L’eau invisible des chaînes de valeur mondialisées – https://theconversation.com/leau-invisible-des-chaines-de-valeur-mondialisees-273627

En Afrique de l’Ouest, deux modèles de souveraineté face à face

Source: The Conversation – in French – By Christian Abadioko Sambou, Dr en Sciences Politiques, spécialiste en paix & sécurité, Université Numérique Cheikh Hamidou Kane

Depuis les luttes d’indépendance, la souveraineté occupe une place centrale dans les débats politiques africains. Elle renvoie à la conquête de l’autonomie, la quête de légitimité et la capacité des États à définir librement leur destin. Cette quête est continue et en lien profond avec l’histoire coloniale des Etats ouest-africains.

L’émergence de l’Alliance des États du Sahel (AES) – Mali, Burkina Faso et Niger– en septembre 2023, a ravivé ces débats ? plaçant au coeur des discussions les notions de souveraineté, de panafricanisme, de démocratie, alimentant les discussions à travers les médias classiques et sociaux. La souveraineté est ainsi devenue un marqueur idéologique structurant, cristallisant des oppositions entre des « pro-0ccident » vs « pro-bloc sino-russe ».

Cette recomposition se manifeste à travers deux dynamiques distinctes: d’un côté, l’AES qui prône une souveraineté de rupture, articulée autour de la sécurité, de la dignité nationale et du rejet des tutelles extérieures ; de l’autre, des démocraties consolidées comme le Sénégal, le Cap-Vert, le Bénin et le Ghana, qui défendent une posture fondée sur la légitimité électorale, la coopération régionale et l’ouverture internationale dans une égale dignité, comme fondement de leur souveraineté internationale.

Pour avoir étudié les régimes politiques et les questions de gouvernance en Afrique de l’Ouest, j’ai observé que là où les régimes militaires du Sahel central revendiquent une souveraineté défensive, parfois exclusive, les États démocratiques côtiers manifestent une autonomie de décision politique basée sur une tradition d’ouverture internationale.

Dès lors, une question s’impose : quels facteurs expliquent la divergence entre ces deux conceptions de la souveraineté en Afrique de l’Ouest, et que révèlent-elles des transformations actuelles de l’État postcolonial africain ?

Deux conceptions de la souveraineté

L’usage contemporain de la souveraineté en Afrique de l’Ouest renvoie moins à une définition juridique univoque qu’à deux idéaux-types de gouvernement, construits à partir de trajectoires politiques contrastées.

La souveraineté de rupture : l’Alliance des États du Sahel

Le premier idéal-type est celui d’une souveraineté de rupture, incarnée par l’Alliance des Etats du Sahel (AES), née de la Charte du Liptako-Gourma en septembre 2023. Dans ce modèle, la souveraineté cesse d’être exclusivement nationale pour prendre une forme régionalisée, articulée autour d’une architecture de défense collective et d’assistance mutuelle (article 2 de la Charte). Elle est pensée comme une capacité à protéger, à combattre le terrorisme et la criminalité en bande organisée (article 4 de la Charte).

Trois piliers structurent cette souveraineté. D’abord, la sécurité comme fondement premier de l’État : l’autorité souveraine se légitime par la lutte contre le terrorisme et la reconquête territoriale. Ensuite, un discours panafricaniste de rupture, qui présente la souveraineté comme émancipation vis-à-vis des puissances occidentales et des institutions régionales jugées dépendantes.

Enfin, la volonté de reconstruire un État fort et centralisé, où l’armée devient l’acteur principal de la refondation nationale et du contrôle des ressources stratégiques. La souveraineté y est défensive, symbolique et identitaire, indissociable de la dignité nationale et de la survie de l’État.

Plus que la lutte contre le terrorisme, l’objectif de l’alliance est fondamentalement politique et souverainiste. A ce propos, le président de transition du Mali Assimi Goïta dans son discours à la nation du 31 décembre 2025, déclarait :

L’année qui s’achève a consacré une avancée majeure dans notre combat pour la souveraineté avec la consolidation de l’Alliance des États du Sahel. Avec le Burkina Faso et le Niger, nous avons choisi l’unité, la solidarité et la défense collective comme réponses aux défis sécuritaires, politiques et économiques auxquels nos peuples sont confrontés.

La souveraineté de consolidation : les démocraties côtières stabilisées

À l’opposé, le second idéal-type est celui d’une souveraineté de consolidation, portée par des États côtiers comme le Sénégal, le Cap-Vert, le Bénin ou le Ghana. Ici, la souveraineté repose sur la légitimité électorale, la stabilité institutionnelle et la continuité de l’État de droit. Elle ne s’exerce pas contre l’ordre régional, mais à travers lui. Le président du Sénégal Bassirou Diomaye Faye déclarait lors de son discours d’investiture le 2 avril 2024 que

le Sénégal doit exercer pleinement sa souveraineté, dans le respect de ses engagements internationaux, mais en plaçant en priorité les intérêts du peuple sénégalais.

Ces États conçoivent la souveraineté comme une capacité d’action collective, fondée sur la coopération, l’intégration régionale et le multilatéralisme, notamment au sein de la Communauté économique des Etats d’Afrique de l’Ouest (Cedeao). La souveraineté n’y est pas synonyme d’isolement, mais d’influence partagée et de consolidation progressive de l’État.

Cinq points de divergence

Ces deux modèles se distinguent à travers cinq indicateurs.

– La centralité de la force armée

La souveraineté est pratique et se mesure à la capacité des armées à protéger, à sécuriser des territoires, à administrer, à user et imposer la force. Dans l’espace AES, la souveraineté est associée à la puissance militaire. Ainsi le militaire est partout comme instrument de coercition et au cœur du pouvoir politique. La sanctuarisation de l’état d’urgence, la médiatisation des succès militaires, la rhétorique de la guerre et la mise en scène d’un Etat protecteur participent à l’entretien de cette souveraineté militaire défensive.

En contraste, dans les démocraties côtières, la souveraineté repose moins sur l’omniprésence du militaire que sur la primauté de l’Etat de droit. La sécurité est une politique publique soumise au contrôle civil parlementaire. Toutefois au regard du contexte régional, l’insécurité constitue un défi et justifie un renforcement des capacités étatiques et une attention aux armées.

– Les fondements de la légitimité politique

La distinction entre les deux modèles est forte autour de cet indicateur. Dans les régimes de l’AES la légitimité n’est pas fondée par les urnes. Les transitions sont prolongées et perdent leur sens. L’insécurité fragilise les institutions. Le pouvoir repose sur la force populaire, pas sur les urnes. Les dirigeants cherchent légitimité par la rue plutôt que par la démocratie.

Dans les États dits démocraties stabilisées, la souveraineté est indissociable de la légitimité électorale.Les citoyens refusent tout report ou blocage des élections. Pourtant, dans certains pays, l’exclusion des principaux opposants dévoie la compétition électorale.

Dans les deux modèles la souveraineté cherche à s’ancrer dans une forme de reconnaissance populaire, mais par des mécanismes radicalement différents.

– Sécurité et droits

Pour les régimes militaires, la sécurité est une priorité absolue. Elle justifie ainsi la suspension ou la relativisation de droits et libertés. Au nom d’un état d’urgence, la lutte contre le terrorisme et la survie de l’Etat priment sur les garanties individuelles.

A l’inverse dans les souverainismes démocratiques, la sécurité est liée aux droits, à la justice, à la gouvernance inclusive. La souveraineté elle-même repose sur un cadre juridique.

– Place des oppositions et des contre-pouvoirs

La conséquence du tout sécuritaire dans l’espace AES est la remise en cause de la place centrale des oppositions politiques, des contre-pouvoirs dans la gouvernance politique. Les droits et libertés sont largement restreints. Les oppositions politiques sont écartées et la presse encadrée.

Les régimes militaires protègent leur légitimité face aux menaces internes.
Dans les souverainismes démocratiques, le pluralisme et les libertés garantissent la légitimité de l’État.

– Rapport à l’international et à l’intégration régionale

Enfin les régimes de l’AES défendent une souveraineté de rupture vis-à-vis des institutions régionales et des partenaires occidentaux, accusés d’ingérence. Cette posture ne signifie pas l’autarcie : elle s’accompagne d’alliances alternatives (Russie, Chine) et d’une affirmation d’idéologie panafricaine parfois présentée en modèle sahélien.

Les démocraties côtières assument une souveraineté coopérative, fondée sur le multilatéralisme, la Cedeao, l’intégration régionale. La souveraineté ici n’est pas exclusive ou contre l’international mais à travers lui.

Les facteurs de la divergence

Les divergences s’enracinent dans des contextes historiques, politiques et économiques profondément asymétriques.

– Un contexte sécuritaire asymétrique

Le premier facteur explicatif tient à la géographie différenciée de la violence armée. Le Sahel central est devenu l’épicentre de l’insécurité depuis 2010.
L’expansion des groupes djihadistes et la porosité des frontières ont affaibli l’autorité étatique. La souveraineté devient une urgence existentielle face à cette crise. La militarisation du pouvoir s’impose comme réponse pour préserver l’unité et la survie de l’État.

À l’inverse, les États côtiers comme le Sénégal ou le Ghana n’ont pas connu une telle intensité de violence armée. Cette relative stabilité sécuritaire a permis la continuité institutionnelle, la consolidation de l’État de droit et une souveraineté pensée dans la durée plutôt que dans l’urgence.

– Dynamiques politiques et crise différenciée de la légitimité démocratique

Le second facteur est politique. Dans l’espace AES, la montée des régimes de transition reflète une crise électorale. Les coups d’État et la perte de confiance expliquent le recul de la démocratie. Cette « fatigue démocratique » nourrit un souverainisme sahélien. Le peuple devient source directe du pouvoir, par la rue et le soutien populaire.

À l’inverse, dans les démocraties côtières, les alternances régulières consolident la confiance. La souveraineté y reste liée au suffrage et au respect des procédures.

– Des économies politiques contrastées

Les structures économiques jouent un rôle clé. Les pays enclavés du Sahel dépendent d’économies agro-extractives fragiles. Les conflits ont désorganisé la production et affaibli l’État. Cela renforce la tentation d’un pouvoir autoritaire centré sur les ressources.

De leur côté, les États côtiers, plus diversifiés et ouverts, privilégient la stabilité et l’intégration économique régionale.

– Reconfigurations géopolitiques et rapports à l’international

Enfin, les divergences tiennent à de profondes recompositions géopolitiques. Au Sahel, le retrait occidental et la rupture avec la Cedeao ont favorisé une souveraineté de défiance. Les régimes militaires recherchent des alliances alternatives. La souveraineté y devient protection et affirmation identitaire.

À l’opposé, le Sénégal et le Ghana privilégient, eux, une souveraineté coopérative.
Ils s’inscrivent dans le multilatéralisme, tout en redéfinissant certains partenariats, notamment militaires. Au Sénégal, les autorités, tout en privilégiant des relations coopératives, ont remis en cause des accords de défense avec la France et rendu effectif le retrait des armées françaises du sol sénégalais.

Que retenir ?

Les deux modèles de souveraineté qui coexistent aujourd’hui en Afrique de l’Ouest ne sont pas des anomalies, mais les expressions d’une même quête d’autonomie dans des contextes différenciés.

Le souverainisme de rupture de l’AES répond à une crise de survie étatique, tandis que celui du Sénégal, du Ghana, du Cap-Vert, du Bénin, repose sur la stabilité institutionnelle et cherche à consolider une autonomie de décision à travers les institutions démocratiques.

Ces trajectoires traduisent deux manières d’adapter la souveraineté africaine au monde contemporain : l’une par la résistance et le refoulement de la tutelle occidentale, l’autre par l’intégration régionale politique et éconnomique.

The Conversation

Christian Abadioko Sambou does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. En Afrique de l’Ouest, deux modèles de souveraineté face à face – https://theconversation.com/en-afrique-de-louest-deux-modeles-de-souverainete-face-a-face-273188

Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ?

Source: The Conversation – in French – By Fabrice Beline, Directeur de Recherche, Inrae

En matière de transition énergétique, les débats sur la production et la consommation électrique tendent à occuper le devant de la scène politico-médiatique et à occulter le rôle des bioénergies. Ces dernières font pourtant partie intégrante de la programmation énergétique du pays. Leur production peut avoir des impacts majeurs tant sur les modes de production agricole que sur nos habitudes alimentaires.


Dans les prospectives énergétiques telles que la stratégie nationale bas carbone (SNBC), les scénarios négaWatt ou encore ceux de l’Agence de la transition écologique Ademe… les bioénergies sont régulièrement présentées comme un levier incontournable de la transition, en complément de l’électrification du système énergétique.

Pour rappel, ces énergies, qui peuvent être de différentes natures (chaleur, électricité, carburant…), se distinguent des autres par leur provenance. Elles sont issues de gisements de biomasses tels que le bois, les végétaux et résidus associés, les déchets et les effluents organiques.

L’électrification met en scène de nombreuses controverses politiques et sociétales dans le débat public et médiatique. Par exemple : compétition entre renouvelable et nucléaire, arrêt des moteurs thermiques… À l’inverse, les discussions sur les bioénergies se cantonnent encore aux milieux scientifiques et académiques.

Pourtant, leur déploiement implique des évolutions importantes. Et ceci à la fois dans les modes de production agricole et les habitudes alimentaires, en tout cas si nous le voulons durable.

Il est donc essentiel que le sujet bénéficie d’une meilleure visibilité et d’une plus grande appropriation par la société pour que puissent naître des politiques publiques cohérentes.

Les bioénergies, levier de la transition énergétique

La transition énergétique, qui consiste à réduire drastiquement le recours aux énergies fossiles, est centrale dans la lutte contre le changement climatique. À l’horizon 2050, elle s’appuie sur deux piliers :

  • d’une part l’augmentation de la production d’électricité « bas carbone », associée à une forte électrification des usages, notamment pour la mobilité.

  • de l’autre, une hausse conséquente de la production de bioénergies pour compléter l’offre électrique, en particulier pour les usages difficilement « électrifiables » (par exemple dans l’industrie).

Actuellement, au niveau national, les bioénergies représentent de 150 à 170 térawattheures (TWh) par an, soit un peu plus de 10 % de l’énergie finale consommée. Ce chiffre concerne principalement la filière bois, à laquelle s’ajoutent les biocarburants et la filière biogaz. À l’horizon 2050, les prospectives énergétiques prévoient une consommation de plus de 300 de bioénergies, avec une forte croissance dans les secteurs du biométhane (injection du biogaz dans le réseau de gaz après épuration du biométhane) et, dans une moindre mesure, des biocarburants.

La programmation pluriannuelle de l’énergie n°3 (PPE3), qui est en cours de consultation, constitue la feuille de route de la France pour sa transition énergétique, avec des objectifs chiffrés. Pour la filière biométhane, la cible est fixée à 44 TWh/an dès l’horizon 2030 puis jusqu’à 80 TWh/an en 2035, contre une production actuelle de l’ordre de 12 TWh/an. Concernant les biocarburants, la PPE3 prévoit une légère augmentation pour atteindre 50 TWh/an en 2030-2035.




À lire aussi :
Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La nécessité d’une biomasse « durable »

L’optimisme quant à nos capacités à cultiver de manière durable les biomasses nécessaires à la production de ces bioénergies n’est cependant plus de mise.

Alors que la deuxième Stratégie nationale bas carbone (SNBC) tablait sur une production de 370 TWh/an de bioénergies en 2050, la nouvelle version SNBC 3 revoit ce chiffre à la baisse à 305 TWh/an. En mai 2025, le rapport des académies d’agriculture et des technologies réduisait ce chiffre à 250 TWh/an.

L’évolution à la baisse de ces chiffres met en lumière l’inadéquation entre les besoins de biomasse pour la transition énergétique, telle qu’elle est actuellement envisagée, et les capacités de production du système agricole actuel.

En novembre 2023, le Secrétariat général à la planification écologique lançait l’alerte, à travers cette formule relayée par le Monde :

« Il y a un problème de bouclage sur la biomasse. »

Ces questionnements ont donné lieu à des échanges entre le ministère de l’agriculture et de la souveraineté alimentaire et l’Inrae autour des enjeux agronomiques, techniques et économiques d’une mobilisation accrue des différents gisements de biomasse et de leur transformation en bioénergies. Ils ont confirmé les difficultés de faire correspondre les besoins pour la transition énergétique et la capacité de production.

Les flux de biomasse en France

Pour y voir plus clair sur les enjeux et les leviers disponibles, il convient d’analyser plus globalement les flux de biomasses agricoles à l’échelle nationale.

Environ 245 millions de tonnes de matière sèche (MtMS) sont produits chaque année pour des usages primaires (directs) et secondaires (indirects). Ces usages se répartissent comme suit :

  • Environ 100-110 MtMS sont mobilisés pour l’alimentation animale et finalement la production de denrées alimentaires telles que le lait, la viande, les œufs.

  • Quelque 70-80 MtMS/an retournent directement au sol (résidus de cultures, fourrages et prairies), auxquels s’ajoutent environ 30 MtMS/an de flux secondaires principalement issus de l’élevage sous forme d’effluents (lisier, fumier, digestat…).

  • Environ 50-55 MtMS/an sont utilisés directement pour la production de denrées alimentaires humaines (dont plus de la moitié est exportée).

  • Et 9 MtMS/an servent à la production d’énergie (biocarburant et biogaz) auxquels s’agrègent environ 9MtMS/an de flux secondaires provenant de l’élevage et de l’industrie agroalimentaire (lisier, fumier, biodéchets…).

Infographie des flux actuels de biomasse agricole (en MtMS).
SGPE 2024

À échéance 2050, les besoins supplémentaires en biomasses pour les bioénergies s’établissent entre 30 et 60 MtMS/an.

Les dilemmes pour répondre à ces besoins accrus

Tous les acteurs s’accordent sur le fait qu’il n’est pas concevable de rediriger des ressources utilisables – et actuellement utilisées pour l’alimentation humaine – vers des usages énergétiques.

Il apparaît dès lors tentant de rediriger la biomasse qui retourne actuellement au sol. Pourtant, ces flux de biomasse sont essentiels à la santé, qualité et à la fertilité des sols. Ils participent à la lutte contre le changement climatique à travers leur contribution au stockage (ou à la limitation du déstockage) de carbone dans les sols.

Une autre piste, pour répondre à ces besoins croissants, serait d’augmenter la production primaire de biomasse à travers le développement et la récolte de cultures intermédiaires appelées « cultures intermédiaires à vocation énergétique » (CIVE). Celles-ci sont cultivées entre deux cultures principales.

Toutefois, une telle production supplémentaire de biomasse implique l’utilisation de ressources supplémentaires (nutriments, eau, produits phytosanitaires). Elle tend aussi à accroître les risques de transferts de pollution vers la biosphère.

Mobiliser trop fortement ces leviers pourrait donc s’avérer contreproductif. Les alertes s’accumulent à ce sujet. Ces leviers sont donc à actionner avec parcimonie.

Une autre piste, conceptualisée dans plusieurs scénarios de transition, serait de rediriger une partie de la biomasse actuellement utilisée pour nourrir les animaux d’élevage vers la production énergétique.

Ceci impliquerait à la fois une diminution des cheptels et une extensification des élevages afin de préserver leurs services écosystémiques rendus, tout en minimisant leur consommation de biomasse. Cela répondrait à l’enjeu de réduction des émissions de gaz à effet de serre de l’agriculture et serait donc le plus cohérent pour affronter les enjeux écologiques.

Ce scénario requiert toutefois des changements d’envergure dans nos habitudes alimentaires, avec une réduction de notre consommation de produits animaux pour éviter une augmentation des importations.

Vers des politiques publiques coordonnées et cohérentes ?

Après deux ans de retard et de blocages dans les ministères, la stratégie nationale pour l’alimentation, la nutrition et le climat ne semble malheureusement pas à la hauteur de cette problématique. En témoigne l’absence d’objectif chiffré sur la réduction de la consommation de produits animaux, voire la disparition du terme de réduction dans les dernières versions.

De même, les lois récentes d’orientation agricole et Duplomb renforcent l’orientation productiviste de l’agriculture, tout en minimisant les enjeux de transition. Ceci va à l’encontre (au moins partiellement) des orientations nécessaires pour la transition énergétique et la SNBC 3, sans parler des antagonismes avec la stratégie nationale biodiversité.

La France ne manque donc pas de stratégies, mais d’une cohérence globale entre elles. C’est bien cela qui conduit à un découragement des responsables de l’élaboration et la mise en œuvre des politiques publiques et à une adhésion insuffisante des citoyens à ces stratégies.

Il y a donc urgence à développer une vision et des politiques publiques intersectorielles cohérentes et complémentaires englobant l’énergie, l’agriculture, l’environnement, l’alimentation et la santé.

The Conversation

Fabrice Beline a reçu des financements de l’Ademe (projet ABMC) et de GRDF (projet MethaEau).

ref. Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ? – https://theconversation.com/transition-energetique-developper-les-bioenergies-oui-mais-avec-quelles-biomasses-270811

Derrière le sans-abrisme, la face cachée du mal-logement

Source: The Conversation – in French – By Pascale Dietrich, Chargée de recherche, Ined (Institut national d’études démographiques)

Ce 22 janvier, une Nuit de la solidarité est organisée à Paris et dans d’autres villes françaises – une forme d’opération citoyenne de décompte des personnes dormant dans la rue. Celle-ci ne doit pas occulter ce que les travaux de recherche montrent depuis une quarantaine d’années : à la figure bien connue du sans-abri s’ajoutent d’autres formes moins visibles de précarité résidentielle et de mal-logement.


Aujourd’hui, de plus en plus de personnes sont exclues du logement ordinaire. Les derniers chiffres dont on dispose datent de 2012 et indiquent que le nombre de personnes sans domicile a augmenté de 50 % entre 2001 et 2012 : à cette date, 81 000 adultes, accompagnés de 31 000 enfants étaient sans domicile dans les agglomérations d’au moins 20 000 habitants de France hexagonale. L’enquête Sans Domicile menée par l’Insee en 2025 est en cours d’exploitation et permettra d’actualiser ces chiffres, mais tout laisse penser que la situation s’est encore dégradée, comme en témoignent nos observations de terrain.

D’après l’Insee, une personne est considérée comme sans domicile si elle a dormi la nuit précédente dans un lieu non prévu pour l’habitation (elle est alors « sans-abri »), ou si elle est prise en charge par un organisme fournissant « un hébergement gratuit ou à faible participation » (hôtel ou logement payé par une association, chambre ou dortoir dans un hébergement collectif, etc.). Ainsi, le sans-abrisme est-il la forme extrême du sans-domicilisme qui s’inscrit lui-même dans la myriade des formes du mal-logement.

Au-delà de ces personnes sans domicile, d’autres vivent dans des caravanes installées dans des campings, dans des squats, chez des tiers, des camions aménagés, des logements insalubres, etc., autant de situations résidentielles précaires qui échappent aux radars de la société et sont peu relayées dans les médias.

Ainsi, la Fondation pour le logement des défavorisés estime dans son rapport de 2025 que près de 4 millions de personnes sont touchées en France par toutes ces formes de mal-logement, la plupart des indicateurs de mal-logement s’étant dégradés.

« Crise du logement : Ces Français contraints de vivre au camping » – Reportage #Cdanslair, 31 janvier 2024.

À la figure bien connue du sans-abri dormant dans la rue s’ajoutent donc d’autres formes moins repérables de précarité résidentielle.

À l’approche de la Nuit de la solidarité organisée chaque année à Paris et dans d’autres villes françaises, il n’est pas inutile de rappeler ce que soulignent les travaux de recherche sur le sujet depuis une quarantaine d’années : le sans-abrisme n’est que la partie émergée de l’iceberg.

Si les opérations de décompte des personnes vivant dans des lieux non prévus pour l’habitation, et notamment la rue, sont importantes pour sensibiliser les citoyennes et citoyens, elles ne permettent d’obtenir que des estimations très approximatives du sans-abrisme et masquent une problématique plus vaste qui ne se réduit pas à ces situations extrêmes, comme on peut le lire dans ce rapport (pp. 42-52).

Les visages cachés de l’exclusion du logement

À la figure ancienne et un peu caricaturale du clochard – un homme seul, blanc, sans emploi et marginalisé – s’ajoutent d’autres visages : travailleurs et travailleuses précaires, femmes, parfois accompagnées d’enfants, personnes âgées percevant de petites retraites, personnes discriminées en raison de leur orientation sexuelle, étudiantes et étudiants, jeunes sortant de l’Aide sociale à l’enfance ou encore populations issues de l’immigration…

Ces différents types de personnes ont toujours été plus ou moins présentes parmi les populations en difficulté, mais l’augmentation générale de la précarité et la pénurie de logements accessibles les ont encore fragilisées. Plus de 2,7 millions de ménages étaient en attente d’un logement social en 2024. Dans le même temps, seulement 259 000 logements ont été mis en chantier en 2024, dont 82 000 logements sociaux financés.

Si certaines figures du sans-abrisme sont extrêmement visibles, comme les migrantes et migrants dont les campements sont régulièrement montrés dans les médias, d’autres formes d’exclusion sont plus discrètes.

C’est le cas par exemple des personnes en emploi, victimes de l’élargissement de la crise du logement, qui se replient vers les structures d’hébergement institutionnel faute de pouvoir se loger malgré leurs revenus réguliers.

En 2012, près d’un quart des sans-domicile occupaient un emploi. Ce phénomène fait peu de bruit alors même que ces personnes occupent souvent des métiers essentiels au fonctionnement de la société.

De même, les femmes sans domicile sont moins repérables dans l’espace public que leurs homologues masculins, car elles ne ressemblent pas à la figure classique du sans-domicile fixe (SDF). Quand elles y sont présentes, elles ne s’y installent pas et sont beaucoup plus mobiles par crainte d’y subir des violences : elles sont donc très largement sous-estimées dans les opérations de décompte.




À lire aussi :
Femmes SDF : de plus en plus nombreuses et pourtant invisibles


Les enquêtes « Sans domicile » montrent qu’entre 2001 et 2012, le nombre de femmes francophones sans domicile a augmenté de 45 %, passant de 17 150 en 2001 à 24 930 femmes en 2012.

Solutions court-termistes

Face à cette précarité résidentielle croissante, quelles solutions apportent les pouvoirs publics ?

L’augmentation du financement de l’hébergement d’urgence qui procure un abri temporaire dans des haltes de nuit ou à l’hôtel apporte certes une solution rapide aux sans-abri qui, du point de vue des édiles, nuisent à l’image des villes, mais ne résout en rien les problèmes de ces personnes.




À lire aussi :
Où dormir quand on n’a pas de domicile ?


Reléguant les plus précaires aux marges des villes ou dans des hébergements sans intimité où il est impossible de s’installer dans la durée, ces politiques court-termistes, focalisées sur l’urgence sociale, se doublent de formes de répression (expulsion, arrêtés anti-mendicité, mobiliers urbains inhospitaliers) qui contribuent à la précarisation et à l’invisibilisation des populations étiquetées comme « indésirables ».

L’augmentation massive des expulsions avec le concours de la force publique en 2024, l’hébergement des sans-domicile dans des hôtels de plus en plus éloignés des centres des agglomérations et peu accessibles en transports en commun, ou le déplacement des sans-abri de Paris pendant les Jeux olympiques de 2024 en témoignent.

Prises en charge discontinues

Des changements politiques profonds sont pourtant nécessaires pour résoudre la question de l’exclusion du logement en s’attaquant à ses causes structurelles. Une politique ambitieuse de production et de promotion du logement social à bas niveaux de loyers est indispensable pour permettre aux ménages modestes de se loger sans passer par le long parcours de l’hébergement institutionnel.

La prévention des expulsions doit également être favorisée, de même que la régulation des prix du marché immobilier.

Il est aussi nécessaire d’assurer une meilleure continuité de la prise en charge dans les diverses institutions d’aide. Les populations particulièrement fragiles, qui cumulent les difficultés, connaissent des séjours précoces en institutions, répétés et multiples, de l’aide sociale à l’enfance (en 2012, 23 % des utilisateurs des services d’aide aux sans-domicile nés en France avaient été placés dans leur enfance, alors que cette proportion était seulement de l’ordre de 2 % à 3 % dans la population générale) aux dispositifs d’insertion par le travail, en passant dans certains cas par l’hôpital psychiatrique, les cures de désintoxication ou la prison.

Or, ces prises en charge souvent discontinues n’apportent pas de solutions durables en termes de logement, d’emploi ou de santé. Elles alimentent par ailleurs un sentiment de rejet qui favorise le non-recours au droit : les personnes sont éligibles à des prestations sociales et à des aides mais ne les sollicitent pas ou plus.

Pour ces personnes les plus désocialisées, la politique du logement d’abord (« Housing first ») ou « Chez soi d’abord » en France), qui consiste à donner accès au logement sans condition et à proposer un accompagnement social et sanitaire, donne des résultats probants mais, faute de logements disponibles, elle n’est pas suffisamment mise en œuvre.

Appréhender le problème dans sa globalité

Il faut enfin s’attaquer aux politiques migratoires qui produisent le sans-domicilisme. Les politiques publiques en matière d’accueil des étrangers étant de plus en plus restrictives et les dispositifs spécifiques saturés, migrantes et migrants se retrouvent sans solution de logement. La part d’étrangers parmi la population sans-domicile a ainsi fortement augmenté, passant de 38 % en 2001 à 53 % en 2012.

Résoudre la question de l’exclusion liée au logement en France comme dans de nombreux pays passe autant par des réformes de la politique du logement que par des actions dans le secteur social, de l’emploi et de la politique migratoire. Le sans-domicilisme est un révélateur des inégalités sociales croissantes dans la société et des processus d’exclusion qui la traversent. Trouver une solution à ce problème majeur, nécessite plus que jamais de l’appréhender dans sa globalité, sans se limiter à ses symptômes les plus visibles.


Pascale Dietrich-Ragon et Marie Loison-Leruste ont codirigé l’ouvrage la Face cachée du mal-logement. Enquête en marge du logement ordinaire, paru aux éditions de l’Ined en septembre 2025.

The Conversation

Marie Loison-Leruste est membre de l’association Au Tambour!.

Pascale Dietrich ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Derrière le sans-abrisme, la face cachée du mal-logement – https://theconversation.com/derriere-le-sans-abrisme-la-face-cachee-du-mal-logement-273852

Sergueï Karaganov est-il vraiment l’architecte de la politique étrangère du Kremlin ?

Source: The Conversation – in French – By Maxime Daniélou, Doctorant en études slaves et chargé de cours à l’université Paris-Nanterre, Université Paris Nanterre

Le 7 juin 2024, avant la séance plénière du Forum économique international de Saint-Pétersbourg, dont il est le modérateur, Sergueï Karaganov discute avec Vladimir Poutine.
Kirill Morozov/Roscongress, site officiel de la présidence russe

Spécialiste reconnu des relations internationales depuis plusieurs décennies, fondateur de think tanks influents et d’une grande revue consacrée aux affaires diplomatiques, Sergueï Karaganov s’est dernièrement fait remarquer par des propos plus que musclés, promettant notamment à ceux qui s’opposeraient à la Russie, à commencer par les pays de l’Union européenne, une destruction totale. On aurait toutefois tort de voir en lui l’un des artisans de la politique étrangère de Moscou : il s’agit plutôt d’un habile « entrepreneur idéologique », qui sert le pouvoir en lui proposant un habillage conceptuel et en lançant des messages destinés à raffermir, dans l’opinion occidentale, l’idée selon laquelle le Kremlin est déterminé à aller, le cas échéant, jusqu’à la guerre nucléaire.


Les prises de position de l’universitaire russe Sergueï Karaganov font l’objet d’une attention croissante dans l’espace médiatique français et international depuis le début de l’invasion de l’Ukraine par la Russie en février 2022. Récemment, des articles et des émissions télévisées lui ont attribué une influence déterminante sur la politique étrangère russe, allant jusqu’à le qualifier de « nouvel architecte de la politique étrangère du Kremlin » ou de « cerveau géopolitique de Vladimir Poutine », le plus souvent sans autre justification que sa proximité supposée avec le président russe.

Cette situation rappelle un phénomène déjà observé avec le philosophe ultranationaliste Alexandre Douguine, lui-aussi régulièrement présenté comme le « cerveau de Poutine » depuis le début des années 2000, en dépit des démentis répétés de plusieurs chercheurs spécialistes de la Russie.

Dans le cas de Douguine comme dans celui de Karaganov, attribuer une telle influence sur le chef du Kremlin sans fondement empirique solide contribue à obscurcir la compréhension des dynamiques à l’œuvre dans le processus de prise de décision en matière de politique étrangère dans la Russie contemporaine. Ces exagérations offrent par ailleurs une exposition médiatique bienvenue à ces entrepreneurs idéologiques. Si ni l’un ni l’autre n’ont jamais confirmé le rôle qui leur est parfois prêté au sommet de l’État, ils profitent de la visibilité et de l’autorité symbolique que cette image leur confère dans une logique de promotion personnelle et de diffusion de leurs idées, en Russie comme à l’étranger.

Afin de dépasser les interprétations excessives, il est nécessaire de s’interroger sur la place réelle qu’occupe Sergueï Karaganov dans l’environnement politique et idéologique russe. Revenir sur son parcours, ses réseaux et les idées qu’il défend permet de relativiser l’idée d’une influence directe sur les décisions du Kremlin, et de mieux comprendre les raisons de sa soudaine surexposition médiatique.

Un réseau puissant en formation dès la chute de l’URSS

En janvier 1992, moins d’un mois après la chute de l’URSS, Sergueï Karaganov (né en 1952), expert des États-Unis au sein de l’Académie des sciences soviétique, fonde l’un des premiers think tanks russes indépendants, le Conseil pour la politique étrangère et de défense (SVOP selon le sigle russe). En raison de la faiblesse des institutions qui caractérise la décennie 1990 en Russie, le SVOP, qui réunit hommes d’affaires, diplomates et militaires, parvient à exercer une influence certaine sur la politique nationale et permet à son directeur de se doter d’un réseau puissant.

Les dynamiques de centralisation et de renforcement de l’État, ainsi que le renouvellement des élites qui accompagne l’arrivée de Vladimir Poutine à la présidence en 2000, entraînent le déclin irréversible du SVOP et obligent Karaganov à se renouveler. En 2002, il fonde l’influente revue de politique étrangère Russia in Global Affairs, avant d’être nommé à la tête de la faculté de politique internationale de la Haute École d’économie, l’une des plus prestigieuses universités du pays, quatre ans plus tard.

Son implication dans la création du club de discussion Valdaï en 2004, qui s’impose progressivement comme un des principaux think tanks de l’ère Poutine, lui permet de se garantir un canal de communication avec l’administration présidentielle, institution centrale de la Russie poutinienne, qui est la seule à même de pouvoir faire circuler ses idées jusqu’au sommet de l’État.

Un entrepreneur idéologique

La politologue Marlène Laruelle, qui a récemment publié un ouvrage sur la construction idéologique de l’État russe, souligne que cette dernière est en constante évolution et repose sur un corpus dont la production est le plus souvent externe à l’État. Elle propose la notion d’« entrepreneur idéologique » pour désigner les acteurs situés en dehors des institutions étatiques qui entrent en concurrence pour capter l’attention de l’administration présidentielle et du gouvernement, afin d’accéder aux ressources et à la reconnaissance qui y sont associées.

Sergueï Karaganov s’inscrit pleinement dans cette catégorie, puisqu’il utilise son réseau et les organisations qu’il a fondées pour développer puis promouvoir ses idées et récits auprès des décideurs russes, dans l’espoir d’en tirer des bénéfices symboliques et matériels.

Capture d’écran de la page d’accueil du site Internet de Sergueï Karaganov.
karaganov.ru

Depuis le début des années 2010, Karaganov a ainsi réussi à s’imposer comme l’un des principaux fournisseurs conceptuels du « tournant russe vers l’Asie ». Plusieurs notions qu’il a développées, comme la « Grande Eurasie » ou, plus récemment, « la Majorité mondiale », ont été intégrées dans le discours officiel, aidant les dirigeants à justifier et à promouvoir la réorientation stratégique et économique de la Russie vers la Chine et ses autres partenaires non-occidentaux.

Rien ne permet en revanche de lui attribuer une quelconque influence sur la définition de l’agenda ni sur les choix concrets de politique étrangère : en la matière, le processus de prise de décision semble cloisonné au président et à son entourage le plus proche, dont Karaganov ne fait assurément pas partie.

Pourquoi toute cette attention aujourd’hui et quelle utilité pour le Kremlin ?

Tout au long de sa carrière, Sergueï Karaganov a bénéficié d’une exposition médiatique en adéquation avec son statut d’expert reconnu en relations internationales. Depuis le début de la guerre en Ukraine, cette exposition a toutefois changé d’échelle, élargissant nettement son audience. Karaganov a su tirer parti du contexte de radicalisation de l’espace public, dans lequel les experts sont incités à afficher leur soutien à la guerre, voire à surenchérir par rapport à la ligne officielle, afin de se distinguer et d’augmenter leur visibilité.

À partir de l’été 2023, il s’est illustré par ses appels répétés en faveur d’une baisse du seuil d’emploi de l’arme atomique et de « frappes nucléaires limitées » contre plusieurs capitales européennes. Ces prises de position, très controversées, y compris au sein de la communauté académique russe, l’ont propulsé au premier plan du débat public. Elles ont très probablement pesé dans sa désignation comme modérateur de la séance plénière du Forum économique international de Saint-Pétersbourg, le 7 juin 2024.

Cette position hautement symbolique lui a permis de dialoguer avec Vladimir Poutine en direct devant les caméras du monde entier. Lors de cet échange, le président russe a déclaré lire les textes de Karaganov, ce qui a alimenté les spéculations quant à l’influence de ce dernier sur la politique étrangère du pays. Cet épisode a également accru ses sollicitations par les médias, jusqu’à son intervention en direct sur la première chaîne de télévision russe, le 5 décembre dernier, largement reprise et traduite à l’étranger pour ses déclarations particulièrement belliqueuses envers l’Europe.

Du point de vue du Kremlin, Karaganov constitue une voix radicale supplémentaire permettant de durcir le discours sans impliquer directement le sommet de l’État. Il joue ainsi le rôle d’un épouvantail utile, à l’image de l’ancien président Dmitri Medvedev, dont les déclarations provocatrices s’inscrivent dans une stratégie de guerre psychologique contre l’Occident. Cette délégation du discours le plus extrême permet au pouvoir de préserver une posture officielle apparaissant comme ouverte à la négociation, tout en laissant circuler des messages plus agressifs par des canaux indirects.

Ainsi, invité du podcast de Tucker Carlson au mois de janvier 2026 dans un contexte de tensions inédites dans les relations transatlantiques dont le Kremlin entend profiter, Sergueï Karaganov a pu s’adresser à l’Amérique trumpiste par l’un de ses canaux favoris. Espérant sans doute être entendu jusque dans le Bureau ovale, il est allé toujours plus loin dans la surenchère, rappelant que « l’Europe est la source de tous les maux » et qu’elle serait « rayée de la carte de l’humanité » en cas d’assassinat de Vladimir Poutine…

The Conversation

Maxime Daniélou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sergueï Karaganov est-il vraiment l’architecte de la politique étrangère du Kremlin ? – https://theconversation.com/sergue-karaganov-est-il-vraiment-larchitecte-de-la-politique-etrangere-du-kremlin-272486

L’ennui n’est pas seulement acceptable chez les enfants, il est bénéfique

Source: The Conversation – in French – By Margaret Murray, Associate Professor of Public Communication and Culture Studies, University of Michigan-Dearborn

Chez l’enfant, l’ennui encourage l’autonomie. Idzard Schiphof/Unsplash, CC BY-NC

L’ennui est souvent perçu comme un mal à éviter à tout prix chez les enfants. Pourtant, loin d’être inutile, il joue un rôle clé dans leur développement, en favorisant l’autonomie, la créativité et l’apprentissage de la gestion du temps.


L’ennui fait partie intégrante de la vie, à travers les époques et partout dans le monde. Et pour cause : il remplit une fonction utile, en poussant les individus à se fixer de nouveaux objectifs et à relever de nouveaux défis.

Je suis professeure et je travaille sur les questions de communication et de culture. J’écris actuellement un livre sur la parentalité contemporaine, et j’ai constaté que de nombreux parents cherchent à éviter à leurs enfants l’expérience de l’ennui. Ils peuvent le percevoir comme une émotion négative qu’ils ne souhaitent pas voir leurs enfants traverser. Ou bien ils les orientent vers des activités qu’ils jugent plus productives.

Les raisons qui poussent les parents à vouloir éviter l’ennui à leurs enfants sont multiples. Beaucoup de parents sont très pris par leur travail et par les préoccupations financières ; les contraintes liées à la garde des enfants et de la gestion du quotidien pèsent lourdement sur eux. Proposer un jeu, un programme télévisé ou une activité créative à la maison permet souvent de gagner un peu de tranquillité : les parents peuvent ainsi travailler sans être interrompus ou préparer le dîner sans entendre leurs enfants se plaindre de s’ennuyer.

À cela s’ajoute parfois une forte attente de réussite. Certains parents ressentent une pression pour que leurs enfants excellent, qu’il s’agisse d’intégrer un établissement sélectif, de briller dans le sport ou de devenir de très bons musiciens.

Les parents peuvent aussi ressentir une forte pression autour de la réussite de leurs enfants, qu’il s’agisse d’intégrer un établissement sélectif, de réussir dans le sport ou d’exceller dans la pratique musicale.

Quant aux enfants, ils consacrent aujourd’hui moins de temps à jouer librement dehors et davantage à des activités organisées qu’il y a quelques décennies. La généralisation des écrans a par ailleurs rendu l’évitement de l’ennui plus facile que jamais.

Pendant la pandémie, beaucoup de parents ont ainsi eu recours aux écrans pour occuper leurs enfants pendant leurs heures de travail. Plus récemment, certains disent ressentir une pression sociale les poussant à utiliser les écrans pour que leurs enfants restent calmes dans les lieux publics.

En somme, si les parents ont de multiples raisons de vouloir tenir l’ennui à distance, il vaut la peine de s’interroger sur ce que l’ennui peut aussi apporter avant de chercher à l’éliminer complètement.

Les bienfaits de l’ennui

Même s’il est désagréable sur le moment, l’ennui est un atout pour le développement personnel. Il agit comme un signal indiquant qu’un changement est nécessaire, qu’il s’agisse de modifier son environnement, son activité ou les personnes qui nous entourent. Les psychologues ont montré que l’expérience de l’ennui peut favoriser l’émergence de nouveaux objectifs et encourager l’exploration de nouvelles activités.

Professeur à Harvard spécialisé dans le leadership public et associatif, Arthur Brooks, a montré que l’ennui est indispensable au temps de réflexion. Ces moments de creux ouvrent un espace pour se poser les grandes questions de l’existence et donner du sens à ce que l’on vit. Des enfants rarement confrontés à l’ennui peuvent devenir des adultes qui peinent à y faire face. L’ennui agit aussi comme un stimulant pour le cerveau, en nourrissant la curiosité naturelle des enfants et en favorisant leur créativité.

Apprendre à composer avec l’ennui et, plus largement, avec les émotions négatives, constitue une compétence essentielle dans la vie. Lorsque les enfants apprennent à gérer leur temps par eux-mêmes, cela peut les aider à développer leurs fonctions exécutives, c’est-à-dire la capacité à se fixer des objectifs et à élaborer des plans.

Les bénéfices de l’ennui se comprennent aussi du point de vue de l’évolution. L’ennui est extrêmement répandu : il touche tous les âges, tous les genres et toutes les cultures, et les adolescents y sont particulièrement sujets. Or la sélection naturelle tend à favoriser les traits qui confèrent un avantage. Si l’ennui est aussi universel, il est peu probable qu’il persiste sans offrir, d’une manière ou d’une autre, des bénéfices.

Mieux vaut pour les parents éviter de considérer l’ennui comme une difficulté qu’ils doivent résoudre eux-mêmes pour leurs enfants. Les psychologues ont en effet observé que les étudiants dont les parents s’impliquent de manière excessive présentent davantage de symptômes dépressifs.

D’autres recherches indiquent également que les jeunes enfants à qui l’on donnait des écrans pour les apaiser se révèlent, plus tard, moins capables de réguler leurs émotions.

L’ennui est inconfortable

La tolérance à l’ennui est une compétence que beaucoup d’enfants rechignent à acquérir ou n’ont tout simplement pas l’occasion de développer. Et même chez les adultes, nombreux sont ceux qui préféreraient s’infliger une décharge électrique plutôt que de rester livrés à l’ennui.

Apprendre à faire avec l’ennui demande de l’entraînement. Il est préférable de commencer par de courtes périodes, puis d’allonger progressivement ces moments de temps non structuré. Parmi les conseils aux parents figurent celui d’encourager les enfants à sortir, celui de leur proposer un nouveau jeu ou une recette à tester, ou tout simplement celui de se reposer. Laisser une place à l’ennui implique aussi d’accepter qu’il y ait des moments où, concrètement, il ne se passe rien de particulier.

Les plus jeunes peuvent avoir besoin qu’on leur donne des idées sur ce qu’ils peuvent faire lorsqu’ils s’ennuient. Les parents n’ont pas à jouer avec eux à chaque fois que l’ennui surgit, mais proposer quelques pistes peut être utile. Pour les tout-petits, cinq minutes d’ennui constituent déjà un bon début.

Pour les enfants plus âgés, les encourager à trouver eux-mêmes comment faire face à l’ennui est particulièrement valorisant. Il est important de leur rappeler que cela fait partie de la vie, même si c’est parfois désagréable à vivre.

Avec le temps, ça devient plus facile

Les enfants ont une grande capacité d’adaptation. À force d’être confrontés à de petits moments d’ennui, les enfants se lassent moins vite par la suite. Les études montrent d’ailleurs que le fait d’expérimenter régulièrement l’ennui rend la vie globalement moins monotone.

Renoncer à l’idée qu’il faut sans cesse divertir les enfants peut aussi contribuer à alléger la charge mentale des parents. Aux États-Unis, environ 41 % d’entre eux déclaraient en 2024 être « tellement stressés qu’ils n’arrivent plus à fonctionner », et 48 % disaient que « la plupart des jours, leur niveau de stress est totalement écrasant », selon un rapport du médecin-chef des États-Unis.

Donc, la prochaine fois qu’un enfant se plaint en disant « Je m’ennuie », inutile de culpabiliser ou de s’énerver. L’ennui est une composante saine de la vie : il encourage l’autonomie, pousse à découvrir de nouveaux centres d’intérêt et à relever de nouveaux défis.

Faire comprendre aux enfants que ce n’est pas seulement tolérable mais bénéfique les aide à mieux l’accepter.

The Conversation

Margaret Murray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’ennui n’est pas seulement acceptable chez les enfants, il est bénéfique – https://theconversation.com/lennui-nest-pas-seulement-acceptable-chez-les-enfants-il-est-benefique-273755

Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ?

Source: The Conversation – in French – By Coralie Thieulin, Enseignant chercheur en physique à l’ECE, docteure en biophysique, ECE Paris

Au cœur de l’hiver, la quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, qui n’endommage pas l’environnement, qui soit confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.


Avoir chaud en hiver tout en limitant son impact environnemental peut sembler un défi. Chercher à avoir des vêtements nous protégeant au mieux du froid est certes un levier efficace pour réduire sa consommation d’énergie, comme le montrent des initiatives telles que le mouvement Slow Heat et d’autres expérimentations récentes.

Toutefois, cette démarche se heurte à une contradiction de taille : le secteur textile reste parmi les plus polluants au monde, avec des émissions de gaz à effet de serre importantes et une contribution notable aux microplastiques marins.

Alors, quelles matières tiennent vraiment chaud tout en respectant davantage l’environnement ? Si les fibres naturelles sont souvent mises en avant pour leur bonne isolation et leur fin de vie plus respectueuse de l’environnement, leur impact réel dépend largement de la manière dont elles sont produites et utilisées. Pour y voir plus clair, commençons par comprendre ce qui fait qu’un textile tient chaud.

La fabrication du textile tout aussi importante que la fibre

La capacité d’un textile à tenir chaud dépend moins de la fibre utilisée que de l’air qu’elle parvient à enfermer. En restant immobile dans de minuscules espaces au cœur du tissu, cet air limite les échanges de chaleur, un peu comme dans une couette ou un double vitrage. Plus un tissu est épais, duveteux ou poreux, plus il limite les échanges de chaleur.

Cette capacité dépend beaucoup de la structure des fibres et de la manière dont le textile est fabriqué. Les fibres frisées ou ondulées comme la laine de mouton créent des poches où l’air reste piégé. D’autres fibres comme l’alpaga (un camélidé des Andes proche du lama) ou le duvet synthétique sont partiellement creuses, augmentant encore la capacité isolante. De même, les tricots et mailles, plus lâches, isolent mieux que les tissages serrés. Ainsi, la chaleur d’un vêtement dépend autant de sa construction que de sa matière.

Des alpagas juvéniles à Nuñoa, au Chili.
Des alpagas juvéniles à Nuñoa, au Chili.
Elwinlhq/Wikimedia, CC BY

C’est sur ces mêmes principes physiques que reposent les fibres synthétiques. En effet, le polyester, l’acrylique, le polaire imitent en partie la laine par leur structure volumineuse et leur capacité à emprisonner de l’air, soit grâce à des fibres frisées, soit grâce à des fibres creuses ou texturées.

Ainsi, ces textiles offrent une bonne isolation thermique, sont légers et sèchent rapidement, ce qui les rend très populaires pour le sport et l’outdoor. En revanche, leur faible respirabilité intrinsèque et leur capacité limitée à absorber l’humidité peuvent favoriser la transpiration et la sensation d’humidité lors d’efforts prolongés. D’autre part, contrairement aux fibres naturelles, ces matériaux sont inflammables, un aspect souvent négligé, mais qui constitue un enjeu réel de sécurité.

Elles ont également un coût environnemental élevé. Issues du pétrole, non biodégradables et fortement consommatrices d’énergie, ces fibres libèrent à chaque lavage des microfibres plastiques dans l’eau, contribuant à la pollution marine. On estime qu’entre 16 % et 35 % des microplastiques marins proviennent de ces textiles, soit de 200 000 à 500 000 tonnes par an. Ces impacts surpassent largement ceux des fibres naturelles, ce qui constitue un vrai défi pour une mode plus durable.

Les bénéfices de la laine de mouton mérinos et de l’alpaga

Face à ces limites, les fibres naturelles apparaissent donc souvent comme des alternatives intéressantes, à commencer par la laine de mouton, longtemps considérée comme une référence en matière d’isolation thermique.

La laine possède en effet une structure complexe et écailleuse : chaque fibre est frisée et forme de multiples micro-poches d’air, réduisant ainsi la perte de chaleur corporelle. Même lorsqu’elle absorbe un peu d’humidité, l’air reste piégé dans sa structure, ce qui lui permet de continuer à isoler efficacement. Cette organisation particulière explique aussi pourquoi la laine est respirante et capable de réguler l’humidité sans donner une sensation de froid. Cependant, ces mêmes fibres peuvent parfois provoquer une sensation de « grattage » pour certaines personnes : plus les fibres sont épaisses, plus elles stimulent les récepteurs de la peau et provoquent des picotements. Il s’agit d’un phénomène purement sensoriel, et non d’une allergie.

Fibre de laine mérinos au microscope.
CSIRO, CC BY

Parmi les différents types de laines, la laine de mouton mérinos, issue d’une race d’ovin originaire d’Espagne se distingue par la finesse de ses fibres, nettement plus fines que celles de la laine classique (de 11 à 24 microns pour le mérinos et de 25 à 40 microns pour la laine classique) . Cette caractéristique réduit fortement les sensations d’irritation au contact de la peau et améliore le confort.

Elle favorise également la formation de nombreuses micro-poches d’air isolantes, tout en maintenant une excellente respirabilité. Ces qualités expliquent son usage croissant dans les sous-couches et vêtements techniques, aussi bien pour le sport que pour le quotidien.

Pour autant, la laine n’est pas exempte d’impact environnemental. Bien qu’elle soit renouvelable et biodégradable, son élevage contribue aux émissions de gaz à effet de serre, principalement via le méthane produit par les moutons et la gestion des pâturages. On estime qu’entre 15 et 35 kg de CO₂ équivalent sont émis pour produire 1 kg de laine brute, et qu’environ 10 000 litres d’eau sont nécessaires, selon le mode d’élevage. Le bien-être animal et les pratiques agricoles, comme le mulesing ou l’intensification des pâturages, jouent également un rôle déterminant dans l’empreinte globale de cette fibre.

D’autres fibres animales, comme l’alpaga, suscitent un intérêt croissant en raison de propriétés thermiques comparables, voire supérieures, associées à un meilleur confort. Les fibres d’alpaga sont en effet partiellement creuses, ce qui leur permet de piéger efficacement l’air et de limiter les pertes de chaleur, tout en restant légères. Contrairement à certaines laines plus grossières, elles ne grattent pas, ce qui les rend agréables à porter directement sur la peau.

Elles sont également plus longues et plus fines que la laine classique, avec une bonne capacité de régulation de l’humidité et un séchage plus rapide. Ces caractéristiques expliquent l’essor de l’alpaga dans les vêtements techniques comme dans les pièces haut de gamme, des sous-couches aux manteaux. Sur le plan environnemental, l’alpaga présente aussi certains avantages. En effet, l’élevage d’alpagas exerce généralement une pression moindre sur les écosystèmes : animaux plus légers, consommation alimentaire plus faible, émissions de méthane réduites et dégradation limitée des sols comparativement à l’élevage ovin. Là encore, la durabilité dépend largement du respect de systèmes extensifs et adaptés aux milieux locaux.

Le succès des fibres synthétiques

Malgré les nombreux atouts de ces textiles naturels, les fibres synthétiques restent donc très utilisées, notamment pour leurs performances techniques. Mais leur succès est aussi lié à des facteurs économiques et pratiques : elles sont généralement moins coûteuses, très abondantes dans le commerce, et faciles à transformer en vêtements de masse. Ces aspects rendent le synthétique accessible et pratique pour une large partie des consommateurs, ce qui explique en partie sa prédominance dans l’industrie textile, indépendamment des préférences individuelles.

Polaire, duvet synthétique ou fibres techniques offrent une isolation thermique efficace, tout en étant légères et rapides à sécher, des qualités particulièrement recherchées dans les vêtements de sport et d’outdoor. La conductivité thermique est une mesure de la capacité d’un matériau à conduire la chaleur : plus cette valeur est faible, moins la chaleur passe facilement à travers le matériau, ce qui signifie une meilleure capacité à retenir la chaleur dans un textile donné.

Des mesures de conductivité thermique montrent par exemple que certains isolants synthétiques comme la polaire présentent des valeurs très basses (0,035-0,05 watt par mètre-kelvin (W/m·K)), indiquant une excellente capacité à retenir la chaleur. Pour comparaison, la laine, lorsqu’elle est compacte ou densifiée, peut atteindre 0,16 W/m·K, mais dans les textiles isolants volumineux, elle reste faible (0,033–0,045 W/m·K).

Toutefois, l’origine fossile, la non-biodégradabilité, la libération de microplastiques et un recyclage encore très limité font des textiles synthétiques des matériaux à fort impact environnemental.

Le pull en laine qui gratte, un préjugé qui colle à la peau

À l’inverse, si les fibres naturelles sont parfois boudées, ce n’est pas toujours pour des raisons environnementales, mais souvent pour des questions de confort. Une personne ayant déjà porté un vêtement en fibres naturelles qui lui a paru inconfortable ou irritant peut développer un rejet global de ces fibres, au profit du synthétique, même lorsque des alternatives plus douces existent.

Or, des solutions sont disponibles : privilégier des fibres fines comme la laine mérinos, l’alpaga ou le cachemire, recourir à des traitements mécaniques ou enzymatiques pour adoucir les fibres, ou encore combiner différentes fibres naturelles. Le choix doit aussi tenir compte de l’usage du vêtement et de son contact direct avec la peau.

En pratique, choisir un textile chaud et moins polluant relève donc d’un compromis, qui dépend autant de la matière que de l’usage. Une sous-couche portée à même la peau bénéficiera de fibres fines et respirantes, comme la laine mérinos, tandis qu’une couche intermédiaire privilégiera l’isolation et un vêtement extérieur la protection contre l’humidité et le vent.

Enfin, plutôt que de rechercher une matière « parfaite », il est essentiel de raisonner en cycle de vie. Sa durabilité (combien de temps il est porté), sa réparabilité, la fréquence et la manière de le laver, ainsi que sa fin de vie (recyclage, réutilisation, compostage pour les fibres naturelles) influencent largement son impact environnemental total. Un vêtement bien entretenu et durable peut avoir un impact bien moindre qu’un textile « écologique », mais rapidement jeté.

Au final, les matières textiles les plus chaudes et les moins polluantes sont majoritairement naturelles, mais aucune n’est totalement exempte d’impact. La laine mérinos et l’alpaga offrent aujourd’hui un compromis intéressant entre chaleur, confort et fin de vie environnementale. Le rejet des fibres naturelles pour des raisons de grattage mérite d’être nuancé : la qualité et la finesse des fibres font toute la différence. Mieux informer sur ces aspects pourrait encourager des choix plus durables. En textile comme ailleurs, le meilleur choix reste souvent celui que l’on garde longtemps.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ? – https://theconversation.com/quel-textile-choisir-pour-avoir-chaud-tout-en-limitant-limpact-environnemental-273602