Apprendre à varier son alimentation : écouter les émotions des enfants, un enjeu central

Source: The Conversation – in French – By Aurélie Maurice, Maîtresse de conférences en Sciences de l’Éducation et de la Formation, Université Sorbonne Paris Nord

Se nourrir est un acte complexe, croisant psychologie, culture et physiologie. Dès lors, comment s’y prendre, en tant que parent ou éducateur, pour aider les enfants à former leur goût et élargir leur répertoire alimentaire ? La recherche donne quelques pistes pour mieux tenir compte de la place des émotions dans le rapport à la nourriture.


L’éducation à l’alimentation des jeunes est au cœur des politiques publiques : elle est l’un des objectifs du Programme national nutrition santé (PNNS) et l’un des axes du Programme national pour l’alimentation (PNA). De plus, un Vademecum sur l’éducation à l’alimentation et au goût a récemment émané de l’éducation nationale. Plusieurs membres de l’Assemblée nationale organisent aussi depuis quelques années des « états généraux » sur le sujet.

Les derniers états généraux d’octobre 2025 ont conduit à une proposition de loi d’expérimentation pour l’instauration d’un enseignement d’éducation à l’alimentation obligatoire à l’école.




À lire aussi :
Comment peut-on repenser l’éducation à l’alimentation ?


Alors que l’éducation à l’alimentation s’est longtemps heurtée à des limites, notamment face aux inégalités sociales de santé, de nouvelles approches apparaissent : citons l’approche tridimensionnelle qui intègre les dimensions « nutritionnelle », « psycho-sensorielle et comportementale » et « socio-environnementale ». L’approche hédonique, elle, privilégie le plaisir alimentaire avec trois leviers d’actions : l’exposition sensorielle répétée aux aliments, les interactions sociales lors des prises alimentaires et les croyances sur les aliments.

Si ces démarches mettent en avant l’importance des émotions, comment, concrètement, les prendre en compte au quotidien, lors de repas ou de séances de découverte, que l’on soit parent, acteur ou actrice de l’éducation ?

Veiller au contexte des repas

S’alimenter est un acte complexe, car multidimensionnel : physiologie, sociabilité, identité culturelle et psychologie s’entremêlent. S’alimenter, c’est aussi ressentir toute une palette d’émotions : la joie, le dégoût, la peur… Celles-ci sont pour l’instant peu prises en compte globalement dans les séances d’éducation à l’alimentation. C’est le cas néanmoins dans l’éducation au goût, qui cherche à reconnecter les jeunes avec leurs sens.

Marie Jaunet, Sylvie Delaroche-Houot et moi-même avons mené une revue de la littérature scientifique afin d’explorer comment les émotions peuvent être mobilisées dans le champ de l’éducation à l’alimentation et quels en sont les bénéfices. Cette revue a été effectuée sur 30 articles publiés entre 2005 et 2022, dont 90 % en anglais, provenant principalement d’Amérique du Nord et d’Europe occidentale.

Cette revue montre que les émotions des jeunes sont bel et bien à prendre en compte, et ce, pour plusieurs raisons. Tout d’abord, il apparaît que la composition nutritionnelle des aliments a un impact sur ces émotions. Un repas suffisamment varié et correspondant bien aux besoins nutritionnels des enfants diminuerait les émotions négatives, comme la tristesse ou l’anxiété.

Ensuite, l’importance d’être attentif à ses cinq sens quand on se nourrit est soulignée, notamment, par des études sur l’alimentation consciente chez les enfants. Créer un environnement positif pendant les repas, c’est-à-dire faire du moment du repas un moment joyeux, ludique et apaisant, favorise une prise alimentaire diversifiée et en quantité suffisante de la part des enfants. Cette attention portée à la qualité de l’ambiance des repas est d’autant plus bénéfique qu’elle est travaillée tant à la maison qu’à l’école.

En obligeant les enfants à finir leurs assiettes, ou en se servant de l’alimentation comme d’une récompense ou d’un élément de chantage, certains parents peuvent favoriser le développement d’une « alimentation émotionnelle » chez leurs enfants. Cela peut conduire à un surpoids à moyen et long terme.

Favoriser l’empathie

Un groupe d’experts est arrivé à une classification des styles éducatifs parentaux sur l’alimentation qui en distingue trois types : coercitif (fondé sur la pression, les menaces et les récompenses), structuré (donnant des règles qui encadrent les prises alimentaires) et favorisant l’autonomie (donnant les clés à l’enfant pour qu’il fasse ses propres choix, dans un climat d’amour inconditionnel).

Ces trois grandes catégories conduisent à des états émotionnels très différents, allant de la peur à la joie, et à des pratiques alimentaires enfantines très contrastées (se cacher pour manger des aliments interdits, se restreindre de manière autonome).

Le repas familial peut être un moment propice au partage et à l’écoute des émotions de l’enfant. Aux États-Unis apparaît depuis plusieurs décennies un terme, « parent responsiveness », qui pourrait être traduit par « réactivité parentale », à savoir une attitude empathique des parents, apportant une réponse adaptée aux émotions exprimées par leurs enfants et aux besoins sous-jacents.

Plusieurs chercheurs ont proposé d’adapter ce concept à l’alimentation, et parlent de « responsive feeding » ou « réactivité alimentaire ». Il s’agit de soigner le temps du repas, d’en faire un moment pendant lequel l’enfant se sent à l’aise et en confiance. Le parent cherche à être attentif aux sensations de faim et de satiété de son enfant, à lui répondre rapidement, de façon appropriée, en fonction de l’émotion qu’il exprime et de son stade de développement.

Enfin, les articles étudiés dans la revue de littérature font état de plusieurs outils conçus pour aider les enfants à s’exprimer autour de l’alimentation et à nommer leurs émotions.

Cette revue montre qu’il faut prendre en compte les différentes dimensions de l’acte alimentaire, tel que l’environnement dans lequel l’aliment est consommé. Un climat bienveillant et joyeux apparaît plus propice aux nouvelles expériences gustatives, alors que, si l’enfant se sent contraint, voire angoissé, les conditions ne sont pas réunies pour qu’il découvre de nouveaux aliments ou accepte de manger des légumes, par exemple.

La politique publique des mille premiers jours de l’enfant recommande des activités conjointes parents/enfant, sources d’émotions positives dans lesquelles l’alimentation a toute sa place. Il apparaît donc que la formation tant des parents que des enseignants, des personnels du périscolaire et des autres professionnels éducateurs est essentielle pour développer la capacité d’autorégulation et d’ouverture des jeunes dans leur alimentation.

The Conversation

Aurélie Maurice a reçu des financements de l’ANR pour le projet ERMES qu’elle coordonne.

ref. Apprendre à varier son alimentation : écouter les émotions des enfants, un enjeu central – https://theconversation.com/apprendre-a-varier-son-alimentation-ecouter-les-emotions-des-enfants-un-enjeu-central-272502

En Iran, la République islamique, le Bazar et la Mosquée : un ménage à trois impossible ?

Source: The Conversation – in French – By Djamchid Assadi, Professeur associé au département « Digital Management », Burgundy School of Business

Longtemps, les milieux d’affaires et religieux ont été, les uns comme les autres, des piliers du système iranien. Mais dès les années 1940, le clergé se politise et prend de plus en plus d’importance. L’avènement de la République islamique en 1979 entérine et accélère nettement ce processus : la Mosquée prend alors le pas sur le Bazar, réduit à un rôle subalterne. La défection observée dernièrement du Bazar vis-à-vis du pouvoir s’explique par des éléments conjoncturels ; mais, structurellement, elle était en germe depuis des décennies.


Pourquoi un allié historique, longtemps pilier d’un régime autoritaire, s’en désiste-t-il et contribue-t-il à sa fragilisation, voire à sa chute ?

Depuis Tocqueville jusqu’aux travaux contemporains sur les « piliers du pouvoir », une constante traverse l’histoire politique moderne : la stabilité d’un régime dépend moins de l’adhésion diffuse des foules que de l’obéissance de ses corps intermédiaires organisés. Lorsque ces soutiens cessent d’obéir, le pouvoir entre dans une zone de vulnérabilité structurelle.

Ce mécanisme s’observe dans des contextes variés, comme la rupture des forces armées portugaises avec le régime de Caetano en 1974, le désengagement des élites franquistes après 1975 : le basculement ne procède pas d’une mobilisation populaire isolée, mais de la désolidarisation d’acteurs institutionnels jusque-là intégrés à l’ordre autoritaire.

Le Grand Bazar de Téhéran illustre précisément ce mécanisme. Sa fermeture lors du soulèvement de janvier 2026 ne constitue ni l’origine ni le moteur principal de la contestation, mais son symptôme institutionnel le plus lisible. Elle signale le retrait d’un acteur longtemps arrimé à la jurisprudence religieuse – moins par conviction que parce qu’elle offrait un cadre normatif stable à ses échanges économiques. Si le mouvement iranien est national, porté par des groupes sociaux, professionnels et générationnels multiples, chacun mû par des motifs distincts, le désistement du bazar conserve une singularité claire : celle d’un acteur qui cesse d’assurer sa fonction d’amortisseur institutionnel entre société et pouvoir.

Pour en saisir la portée, il faut revenir à la mutualité séculaire entre le Bazar et la Mosquée. Cette relation ne reposait ni sur une fusion idéologique ni sur une subordination politique, mais sur une complémentarité fonctionnelle : le religieux garantissait les normes et arbitrages assurant la prévisibilité des échanges ; le marchand finançait le clergé et garantissait son indépendance vis-à-vis du pouvoir central. Cette autonomie réciproque constituait l’un des fondements de la stabilité sociale iranienne.

La révolution islamique de 1979 rompt cet équilibre. En assujettissant la Mosquée pour monopoliser le sacré, le nouveau pouvoir transforme une institution autonome en instrument de règne. La relation cesse d’être horizontale et devient médiatisée par un État idéologique. La grève de janvier 2026 ne peut donc être réduite à une réaction conjoncturelle à la cherté de la vie – même si celle-ci joue un rôle déclencheur. Elle révèle une rupture plus profonde, inscrite dans la longue durée, née de la transformation du rapport entre religion, économie et pouvoir depuis 1979.

Le Bazar et la Mosquée : une relation ancienne, fonctionnelle et non fusionnelle

La relation séculaire entre le Bazar et la Mosquée repose sur une division fonctionnelle du travail social. Avant toute politisation du clergé, cette relation est avant tout professionnelle. La jurisprudence islamique chiite (fiqh) agit depuis toujours, surtout depuis la dynastie des Safavides (1501-1722), comme un véritable « code de commerce » : elle encadre les contrats, arbitre les litiges et garantit la sécurité des échanges (Lambton, 1969). La Mosquée fonctionne ainsi comme un tiers de confiance indépendant, extérieur à l’État, assurant la prévisibilité de l’ordre marchand.

Les travaux empiriques de Keshavarzian (2009) confirment que cette relation repose sur des réseaux horizontaux de confiance et de coordination sociale, produits en dehors des structures étatiques, et non sur une loyauté idéologique. L’islam chiite non politisé valorise historiquement l’activité marchande, faisant du commerce une pratique socialement légitime et moralement encadrée. Cette alliance économico-religieuse constitue un fait sociologique structurant de longue durée (Abrahamian, 1982), dans lequel la religion ne gouverne pas l’économie mais en stabilise les règles.

Cette mutualité s’exprime politiquement dès le XIXe siècle. Lors de la crise du tabac (1891–1892), Bazar et Mosquée s’unissent contre une concession accordée par le pouvoir. La révolte du tabac, déclenchée en 1891 sous le règne de Nasser al-Din Chah, était une protestation massive contre la concession accordée par le gouvernement iranien à un ressortissant britannique pour le monopole du tabac. Cette mesure, perçue comme une violation de l’intérêt national et une intrusion étrangère, a été fortement dénoncée par le clergé chiite et les intellectuels, marquant un tournant dans la mobilisation politique moderne de l’Iran. Cette opposition ciblée à l’arbitraire étatique – plutôt qu’un projet théocratique (Keddie, 1966) – a jeté les bases d’un mouvement nationaliste sans ambitions politiques religieuses qui changera de cap plus tard pour soutenir la Révolution iranienne de 1979.

Le même schéma se retrouve durant la Révolution constitutionnelle (1905–1911), lorsque les grands commerçants financent les bast (sit-in de protestation) et les hijrat (exils protestataires, consistant généralement à quitter une ville pour exercer une pression politique) afin de soutenir l’instauration d’une mashrouteh – un État constitutionnel limitant le pouvoir monarchique, non un État islamique (Afary, 1996).

Le grand bazar de Téhéran en 1907.
Wikimedia

La modernisation des années 1920–1930 ne rompt pas immédiatement cet équilibre. Reza Shah (fondateur de la monarchie Pahlavi, à la tête du pays de 1925 à 1941) transforme progressivement le droit commercial religieux en droit civil, en extrayant les principes juridiques modernes du fiqh sans rupture frontale avec les institutions religieuses (Banani, 1961). Les sphères demeurent distinctes : le Bazar conserve sa fonction économique, la Mosquée son rôle normatif et social.

C’est précisément cette architecture fonctionnelle, fondée sur la séparation des rôles et l’autonomie réciproque, qui commence à se fissurer à partir des années 1940, et plus encore dans les années 1960, lorsqu’une partie du clergé se politise et remet en cause sa fonction traditionnelle de médiation.

L’émergence du clergé radical et la politisation de la mosquée

La politisation de la Mosquée marque une rupture décisive dans l’histoire des relations entre religion, commerce et pouvoir en Iran. Elle met fin à la fonction du clergé comme tiers normatif indépendant et ouvre la voie à une instrumentalisation politique du religieux. Deux figures structurent ce basculement.

La première est Navab Safavi (1924–1956), fondateur des Fadaian·e Islam (« les Sacrifiés de l’islam » ou « les Fidèles prêts au sacrifice pour l’islam »). En prônant l’application coercitive de la charia et en légitimant l’assassinat politique, Navab Safai rompt avec le rôle historique du clergé chiite comme arbitre moral et juridique. Bien que marginal et rapidement réprimé, ce courant inaugure une conception militante et autoritaire du religieux, qui influencera durablement l’islamisme politique iranien (Rahnema, 1998).

La deuxième figure, l’ayatollah Ruhollah Khomeini, procède à une rupture structurelle. À partir de 1963, son opposition aux réformes de la « Révolution blanche » (un vaste programme de modernisation lancé par Mohammad Reza Chah, comprenant la réforme agraire, l’alphabétisation de masse, l’émancipation juridique des femmes, etc.) transforme la Mosquée en acteur politique central. Le clergé cesse alors d’être un garant des normes sociales et économiques ; il devient un instrument de mobilisation politique, puis, après 1979, un pilier constitutif de l’État idéologique.

Cette politisation rencontre un écho auprès d’une fraction du bazar dans un contexte de transformation rapide de l’économie iranienne. Durant les années 1960, la croissance atteint en moyenne 9 à 10 % par an, portée par la substitution des importations et l’industrialisation (Amuzegar, 1977). Ce processus marginalise les bazaris spécialisés dans le commerce extérieur, alimentant un mécontentement économique qui se mue en radicalisation politique partielle.

C’est dans ce contexte qu’émerge le Motalefeh (Parti de la coalition islamique), réseau de bazaris islamisés, qui joue un rôle clé dans la mobilisation révolutionnaire de 1978–1979 (Bakhash, 1984). Toutefois, cette alliance ne traduit pas un ralliement durable du bazar comme corps social. Le Motalefeh se transforme rapidement en élite intégrée à l’appareil d’État, utilisant son identité bazari pour administrer et contrôler le bazar plutôt que pour le représenter.

La politisation du religieux désorganise ainsi les réseaux traditionnels. La confiance horizontale fondée sur le fiqh est remplacée par une loyauté idéologique surveillée, médiatisée par l’État. En sortant la religion du domaine de la croyance volontaire et de la médiation sociale, le régime affaiblit sa capacité à structurer durablement les relations économiques, préparant les conditions du désistement ultérieur du bazar.

Les limites de l’État rentier clientéliste (1979–2026)

Le régime islamique issu de la révolution de 1979 opère une double transformation structurante. D’une part, il place le clergé et la mosquée sous l’autorité du velayat·e faqih – le principe de « tutelle du juriste‑théologien », qui confère au guide suprême un pouvoir politique et religieux supérieur à toutes les autres institutions ; d’autre part, il étatiste une large part du secteur privé, redistribuant entreprises, licences et monopoles d’import-export à ses fidèles. Les frères Asgaroladi incarnent ce capitalisme de connivence adossé à l’État révolutionnaire. Issus du bazar traditionnel, ils deviennent des hommes d’affaires ultra‑puissants grâce à leur proximité avec le régime, obtenant monopoles, licences et positions clés dans les fondations para‑étatiques – une illustration emblématique du capitalisme de connivence né après 1979.

Cette mutation rompt l’équilibre historique : la Mosquée perd son autonomie institutionnelle, tandis que le Bazar devient un bénéficiaire rentier dépendant de l’État. Tant que la rente pétrolière permet de financer ce clientélisme, le système fonctionne de manière précaire mais durable.

Toutefois, ce modèle ne repose jamais sur une représentation collective du Bazar. Le régime privilégie des relations personnelles et sélectives, substituant au profit marchand l’accès à des licences d’importation. Ce mécanisme devient fatal lorsque les sanctions internationales privent l’État de devises. Exclu des circuits financiers internationaux, le régime perd son principal levier de contrôle économique.

L’économie entre alors dans une spirale inflationniste : inflation supérieure à 42 %, effondrement du rial, chute rapide du pouvoir d’achat. Pour les bazaris, dont l’activité repose sur l’anticipation, cette instabilité rend le calcul économique impossible. Comme l’avait montré Hayek (1945), la désorganisation du système des prix détruit la rationalité des décisions économiques.

Cette crise s’accompagne d’une fragmentation institutionnelle entretenue : division des chambres de commerce, bureaucratisation du clergé, marginalisation des mosquées comme instances d’arbitrage. La rupture de janvier 2026 résulte ainsi d’une double faillite : celle d’un État rentier incapable de tenir ses promesses, et celle d’une Mosquée assujettie ayant cessé de jouer son rôle historique.

Le désistement des alliés stratégiques

Le cas iranien montre que le désistement d’un allié stratégique ne relève ni d’un sursaut moral ni d’une rupture idéologique soudaine, mais de l’effondrement progressif des mécanismes institutionnels qui rendaient l’obéissance rationnelle.

En janvier 2026, le Grand Bazar ne se retire pas seulement d’un État en crise économique. Il se désengage d’un ordre politique qui a détruit les conditions mêmes de la loyauté. En assujettissant la Mosquée, la République islamique a rompu la mutualité fonctionnelle entre religion et économie, privant le bazar des cadres normatifs stables indispensables à son activité.

Ce désistement ne traduit pas un rejet de la foi, mais le refus d’une religion devenue autoritaire, bureaucratisée et imprévisible. En neutralisant les corps intermédiaires qui assuraient la coordination sociale, l’État a remplacé la confiance horizontale par une loyauté contrainte, tolérée tant qu’elle restait matériellement soutenable.

Comme l’avait montré Raymond Aron, un régime autoritaire devient vulnérable lorsqu’il perd l’obéissance de ses soutiens structurants. Le désistement du Bazar révèle ainsi une fragilisation systémique. Lorsque l’État détruit simultanément la prévisibilité économique et les institutions sociales qui rendaient l’obéissance rationnelle, il ouvre une zone d’incertitude historique dont l’issue dépend moins de la rue que de la capacité – ou non – à reconstruire une alternative institutionnelle crédible.

The Conversation

Djamchid Assadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. En Iran, la République islamique, le Bazar et la Mosquée : un ménage à trois impossible ? – https://theconversation.com/en-iran-la-republique-islamique-le-bazar-et-la-mosquee-un-menage-a-trois-impossible-273935

L’aide au développement sert aussi à sécuriser les chaînes d’approvisionnement des pays riches

Source: The Conversation – in French – By Basak Bayramoglu, Directrice de recherche, Inrae

En théorie, le montant de l’aide au développement versé à tel ou tel pays ne devrait pas dépendre de sa contribution aux chaînes de valeur mondiales. Dans les faits, pourtant, on observe que les pays donateurs ont tendance à privilégier, quand ils aident financièrement des pays pauvres, ceux qui sont utiles à leur propre production…


Pourquoi certains pays reçoivent-ils davantage d’aide au développement que d’autres alors que leurs besoins sont comparables ? Les chercheurs s’interrogent sur cette question depuis des décennies. Nous savons déjà que les motivations des donateurs ne sont pas uniquement altruistes : elles incluent des considérations diplomatiques ou commerciales par exemple.

Dans un article récent, nous montrons que les chaînes de valeur mondiales — ces réseaux internationaux où les biens sont produits en plusieurs étapes dans différents pays — créent de nouvelles interdépendances entre pays et influencent l’allocation de l’aide.

Aide au développement bien ordonnée…

Depuis les années 1990, la production mondiale s’est largement fragmentée : composants électroniques, pièces automobiles, produits agricoles transformés… une multitude d’étapes de production sont désormais dispersées entre plusieurs pays. Les échanges liés à cette organisation de la production mondiale en chaînes de valeur représentent environ 50 % du commerce mondial.

Notre analyse empirique montre que les pays donateurs accordent davantage d’aide aux pays qui fournissent des biens intermédiaires utilisés dans leur production destinée à l’exportation. Autrement dit, l’aide n’est pas uniquement destinée aux pays dont les besoins sont les plus importants : elle se dirige aussi vers ceux qui occupent des positions clés dans les chaînes de valeur mondiales.

Les exportations des pays récipiendaires de l’aide jouent un rôle particulièrement important dans les secteurs caractérisés par des biens intermédiaires différenciés, difficiles à substituer : équipements électriques et machines, transport et pièces automobiles, industrie agroalimentaire. Les pays produisant ce type de biens reçoivent davantage d’aide, toutes choses égales par ailleurs. Ce résultat complète d’autres recherches montrant que les réserves en pétrole des pays récipiendaires influencent également l’allocation de l’aide.

Le poids des entreprises des pays donateurs

Nous observons aussi une hétérogénéité importante entre pays donateurs déjà mise en avant dans d’autres travaux : les grands pays exportateurs (France, Allemagne, Japon, Royaume-Uni, États-Unis, notamment) semblent allouer l’aide de manière plus stratégique, tandis que les pays considérés traditionnellement comme plus « altruistes » (Pays-Bas, Danemark, Suède…) semblent moins sensibles au fait que le pays récipiendaire soit exportateur de biens intermédiaires spécifiques.

Calculs des auteurs. Ce graphique représente l’effet de la valeur ajoutée provenant des biens intermédiaires des pays récipiendaires (Foreign Value Added, FVA) sur le montant d’aide bilatérale pour chaque pays donateur (moyennes et intervalles de confiance à 95 %). Cliquer pour zoomer.
Fourni par l’auteur

Pour comprendre ces résultats, nous proposons une explication théorique.

Le pays donateur, situé en aval de la chaîne de valeur, dépend d’un intrant produit dans un pays receveur, situé en amont. En transférant — sous forme d’aide — des ressources financières qui font l’objet de négociations, il incite le pays receveur à réduire ses tarifs douaniers d’importations de biens intermédiaires, ce qui diminue le coût final de son intrant produit et exporté vers le pays donateur.

L’aide agirait ainsi comme un levier discret de réduction des coûts de production pour les entreprises du pays donateur. L’influence des entreprises dans l’allocation de l’aide est également révélée ces dernières années par des enquêtes journalistiques.

Un processus qui creuse les inégalités entre pays pauvres

Ce travail montre que l’aide au développement apparaît, au moins en partie, comme un moyen permettant aux pays donateurs de garantir un accès à des biens intermédiaires stratégiques en soutenant les pays situés en amont des chaînes de production. Ce constat interroge la manière dont l’aide est allouée si l’on souhaite éviter que les pays les plus pauvres ne soient doublement exclus : des chaînes de valeur mondiales et des flux d’aide.

Nos résultats ont des implications politiques importantes.

Premièrement, le développement des chaînes de valeur mondiales peut exacerber la fragmentation de l’aide en concentrant les financements vers les pays déjà intégrés dans ces chaînes. Or, malgré plusieurs initiatives internationales comme la Déclaration de Paris sur l’efficacité de l’aide au développement adoptée par l’OCDE en 2005, cette fragmentation persiste. Une étude de la Banque mondiale montre que l’augmentation des engagements d’aide au développement en termes réels entre 2000 et 2019 s’est accompagnée d’une multiplication du nombre de donateurs et d’agences d’aide, rendant la coordination de l’allocation de l’aide plus complexe.

Deuxièmement, orienter prioritairement l’aide vers les pays liés aux chaînes de valeur mondiales peut nuire au développement des pays les moins avancés, dont l’intégration dans les réseaux de production mondiaux reste limitée. Or, l’intégration aux chaînes de valeur stimule la croissance : une étude de la Banque mondiale indique qu’une augmentation de 1 % de participation entraîne en moyenne plus de 1 % de hausse du revenu par habitant. Mais si l’aide se concentre sur les pays déjà bien intégrés, elle risque de creuser davantage l’écart entre les « gagnants » et les laissés-pour-compte de la mondialisation. Or, les déclarations récentes de l’administration américaine qui limiteraient l’aide au développement à 17 pays prioritaires choisis par les États-Unis (« excluant certains pays en proie à de graves crises humanitaires, tels que l’Afghanistan et le Yémen ») ne font que renforcer ces inquiétudes.

The Conversation

Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l’égide de La Fondation du Risque.

Jean-François Jacques et Julie Lochard ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. L’aide au développement sert aussi à sécuriser les chaînes d’approvisionnement des pays riches – https://theconversation.com/laide-au-developpement-sert-aussi-a-securiser-les-chaines-dapprovisionnement-des-pays-riches-272391

En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes

Source: The Conversation – in French – By Sonia Henry, Chercheuse, Université de Lorraine

Le tabouret bleu (_Noccaea caerulescens_) est une plante capable d’extraire du zinc, du cadmium et du nickel des sols. Madeleine Dugois, CC BY-NC-SA

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.


À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.

Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.

Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.

De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.

C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).

Les vertus de la phytoremédiation

Commençons par expliquer ce que l’on entend par « phytoremédiation ».

Mécanismes d’absorption des métaux lourds par les plantes grâce à la phytoremédiation.
Bieby Voijant Tangahu et al, CC BY

Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).

Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.

Le miscanthus géant aide la dégradation de certains hydrocarbures dans les sols.
geograph.org.uk, CC BY-NC-SA

Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.

Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.

L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles




À lire aussi :
La phytoremédiation : quand les plantes dépolluent les sols


La friche d’Uckange, laboratoire à ciel ouvert

Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.

Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.

L’usine d’Uckange et son quatrième haut fourneau sont désormais un monument historique qui peut être visité par le grand public.
Benjism89, CC BY-NC-SA

Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.

Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.

Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.

Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.




À lire aussi :
Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt


Associer plantes d’extraction et de dégradation

Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).

L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.

Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :

  • la diminution des teneurs en contaminants,

  • l’amélioration de la qualité agronomique,

  • et l’augmentation de la biodiversité microbienne.

La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.

Les premiers résultats seront publiés dans les prochains mois.

Bénéfices collatéraux de la phytoremédiation

Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.

Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.

Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.

En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.

The Conversation

Sonia Henry a reçu des financements de la Communauté d’Agglomération du Val de Fensch et de l’Institut Carnot Icéel

ref. En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes – https://theconversation.com/en-moselle-on-depollue-les-sols-dune-friche-siderurgique-grace-aux-plantes-235345

Comment dépolluer les friches industrielles face à la défiance des habitants ?

Source: The Conversation – in French – By Cecile Bazart, Maîtresse de conférences, Université de Montpellier

Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.


Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.

Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).

Rue des vignerons à Vincennes (Val-de-Marne), l’usine Pathé fabrique en 1902 des supports et émulsions chimiques pour le cinéma et la photographie. Elle deviendra plus tard l’usine Kodak.

Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.

Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.

Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.

Dépolluer : une étape indispensable mais complexe

Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.

Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.

À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.

Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.




À lire aussi :
En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes


Le stigmate, angle mort de la reconversion

Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.

C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.

Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.

Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.

Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.




À lire aussi :
Comment redonner une nouvelle vie aux friches industrielles en ville ?


Un décalage entre gestion technique et perceptions

Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.

Plusieurs mécanismes expliquent ce décalage.

  • Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.

  • La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.

  • Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.

Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.

Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.

Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.




À lire aussi :
Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite


The Conversation

L’enquête détaillée dans l’article a été financée par l’Université de Montpellier.

Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l’ADEME et la Région Pays de la Loire (2014-2017).

ref. Comment dépolluer les friches industrielles face à la défiance des habitants ? – https://theconversation.com/comment-depolluer-les-friches-industrielles-face-a-la-defiance-des-habitants-273723

L’eau invisible des chaînes de valeur mondialisées

Source: The Conversation – in French – By Simon Porcher, Professeur, Université Paris Dauphine – PSL

C’est le maillon caché de la mondialisation : quand on échange des biens et des services, on transfère aussi de l’eau douce d’un pays à l’autre. Pourtant, la gestion de l’eau reste locale, quand sa consommation est devenue mondiale. Des solutions émergent.


L’eau douce, pourtant indispensable à toute activité humaine, reste souvent absente des débats sur la mondialisation, comme si sa disponibilité allait de soi. Pourtant, sans eau, il n’y a ni alimentation, ni industrie, ni énergie, ni numérique. Nos vies, même dématérialisées, reposent sur l’utilisation de l’eau, qui refroidit, nettoie, chauffe. L’eau est l’intrant invisible de notre économie. Un chiffre résume son importance : 88 % de l’eau prélevée dans le monde sert à produire des biens ou des services.

L’eau circule déjà d’un continent à l’autre, non pas dans des canalisations, mais à travers les chaînes de valeur mondialisées, dans les produits alimentaires ou les habits que nous consommons et dans toutes nos infrastructures. Cette « eau virtuelle » irrigue la mondialisation, mais reste largement ignorée des décisions économiques et politiques. Résultat : l’eau est mobilisée comme si elle était une ressource infinie, au service d’une économie qui privilégie la performance immédiate au détriment des écosystèmes et des populations.

Les flux d’eau cachés dans notre assiette

Le concept d’eau virtuelle, inventé au début des années 1990 par le géographe Tony Allan, permet de mesurer l’eau incorporée dans les produits que nous consommons. Par exemple, il faut 15 000 litres d’eau pour produire un kilogramme de bœuf, 4 000 litres pour un kilo de pistaches et 1 000 litres pour un kilo de maïs.

Chaque petit déjeuner devient un voyage autour du monde : le café du matin vient de Colombie ou du Brésil, arrosé par les pluies tropicales ; le carré de chocolat noir qui l’accompagne est fabriqué à partir de cacao équatorien ; l’avocat du Pérou vient d’un champ irrigué. Seuls le blé et le sel de la baguette de pain, et la poule qui a pondu l’œuf viennent de France. Nos choix alimentaires connectent les bassins d’eau du monde entier, souvent à notre insu.




À lire aussi :
L’eau, la grande oubliée du label bio ?


Afin de mesurer le volume ainsi utilisé indirectement, Arjen Hoekstra a élaboré en 2002 le concept d’empreinte eau. Celle-ci correspond au volume total d’eau utilisé pour produire les biens et les services que nous consommons. Elle peut être calculée pour un pays ou pour un consommateur. Par exemple, l’empreinte eau d’un Français est supérieure à 4 000 litres par jour. 90 % de cette quantité proviennent de notre alimentation.

L’eau dans les chaînes de valeur mondialisées

Cette approche par l’assiette, et plus généralement par le produit final, révèle les transferts massifs d’eau entre pays, souvent invisibles dans les échanges commerciaux. L’industrie textile illustre parfaitement cette réalité. De la culture du coton à la teinture et au lavage, chaque vêtement consomme des milliers de litres d’eau. Les fleuves Amou-Daria et Syr-Daria, qui prennent leur source au Tadjikistan et au Kirghizistan, ont été détournés par les pays en aval pour irriguer du coton. Cette irrigation massive a réduit leur flux au point d’assécher la mer d’Aral. Là-bas, la baisse de la quantité d’eau entraîne des problèmes sanitaires et de dégradation des conditions d’existence. Les procédés industriels génèrent des rejets polluants, mal traités, contaminant rivières, sols et nappes. Les pays producteurs de textile paient le prix écologique de nos vêtements à bas coût.

Cet exemple illustre un problème plus large. La mondialisation des flux d’eau virtuelle révèle un vide institutionnel majeur. L’économie est globale, mais la gestion de l’eau reste locale. Cette disjonction favorise le dumping hydrique et environnemental. Les règles du commerce mondial invisibilisent les impacts réels sur les populations et les écosystèmes. Les chaînes de production éclatées permettent aux entreprises de profiter des ressources des pays fragiles, sans compensations ni reconnaissance des impacts sociaux et écologiques.

Des inégalités accentuées

L’exploitation intensive de l’eau n’est pas seulement un problème environnemental ; c’est un enjeu social et politique. Les populations des pays producteurs subissent la raréfaction de l’eau, la pollution des nappes et les risques sanitaires. Les inégalités s’accentuent : ce sont les plus vulnérables qui supportent les coûts, et les plus riches qui récoltent les bénéfices.

Au-delà de l’opposition entre le Nord et le Sud, c’est la domination des logiques de marché qui pose problème. Les multinationales choisissent leurs sites de production selon le coût de l’eau et la faiblesse des normes, renforçant un modèle où la ressource devient une variable d’ajustement économique plutôt qu’un bien commun. Les États, souvent dépassés, adoptent ces normes pour rester compétitifs, laissant peu de place à des alternatives locales ou écologiques.

Vers une reconnaissance de l’eau comme une ressource commune globale

La gouvernance de l’eau demeure aujourd’hui largement fragmentée à l’échelle mondiale. Contrairement au changement climatique, qui bénéficie d’un cadre multilatéral de référence malgré ses limites, l’eau n’est pas reconnue comme une ressource commune globale dotée de règles et de normes contraignantes pour les acteurs économiques. Cette situation limite la capacité de régulation des usages et des impacts. En l’absence d’un étiquetage systématique de l’empreinte eau des produits, la consommation d’eau liée aux biens et aux services échangés reste en grande partie invisibles. Alors même que l’empreinte eau d’un produit peut varier fortement selon les systèmes de production et les intrants mobilisés, cette invisibilité contribue à une faible responsabilisation de l’ensemble des acteurs. Dans un contexte de dépassement des limites planétaires relatives à l’eau, la disponibilité et la transparence des informations relatives à l’empreinte eau des produits et des services constituent un enjeu central de gouvernance.

Par ailleurs, les usages de l’eau reflètent de fortes inégalités géographiques : les pays industrialisés concentrent une part importante des consommations d’eau indirectes à travers les importations de produits agricoles et industriels, tandis que les pressions hydriques se manifestent principalement dans les pays producteurs. Dans ce contexte, les politiques commerciales et de coopération internationale sont des leviers potentiels de régulation indirecte des impacts hydriques. La jurisprudence de l’Organisation Mondiale du Commerce a reconnu la possibilité pour un État de restreindre l’accès à son marché sur la base de procédés et de méthodes de production. Demain peut-être prendra-t-on en compte les impacts environnementaux localisés, tels que le stress hydrique, dans la régulation des échanges internationaux.

France 24 – 2024.

Internaliser la contrainte ?

Du côté des entreprises, la prise en compte des risques hydriques progresse mais demeure hétérogène. Elle repose largement sur des démarches volontaires, souvent intégrées à des stratégies de responsabilité sociale sans caractère contraignant. Mais certaines multinationales commencent toutefois à internaliser ces enjeux. Michelin a par exemple mis en place un prix fictif de l’eau en interne pour s’inciter à investir dans des systèmes d’économie et de réutilisation de l’eau. Dans les usines de Gravanches et de Troyes, l’amélioration des processus de refroidissement devrait diminuer les prélèvements de plus de 60 %.

Néanmoins, ces initiatives restent principalement concentrées sur les sites de production directs, alors que l’essentiel des consommations d’eau associées aux produits se situe en amont, le long des chaînes de valeur, où se concentre également une part importante des risques hydriques. L’analyse de l’empreinte eau sur l’ensemble des chaînes d’approvisionnement apparaît dès lors comme un outil central pour identifier et gérer les risques hydriques liés à leurs investissements.

L’eau n’est pas seulement un enjeu environnemental, c’est un facteur structurant de la production économique, du commerce international et de la souveraineté. Le décalage entre la nature localisée des ressources hydriques et l’organisation mondialisée des chaînes de valeur constitue l’un des défis majeurs de la gouvernance contemporaine de l’eau.


Cet article fait partie du dossier « La gestion à l’épreuve du réel nbsp;» par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.

The Conversation

Simon Porcher co-dirige l’Institut d’économie de l’eau, soutenu par des mécènes. Ceux-ci n’ont joué aucun rôle dans le choix de l’angle, la rédaction ou les conclusions ; cette tribune n’engage que son auteur.

ref. L’eau invisible des chaînes de valeur mondialisées – https://theconversation.com/leau-invisible-des-chaines-de-valeur-mondialisees-273627

En Afrique de l’Ouest, deux modèles de souveraineté face à face

Source: The Conversation – in French – By Christian Abadioko Sambou, Dr en Sciences Politiques, spécialiste en paix & sécurité, Université Numérique Cheikh Hamidou Kane

Depuis les luttes d’indépendance, la souveraineté occupe une place centrale dans les débats politiques africains. Elle renvoie à la conquête de l’autonomie, la quête de légitimité et la capacité des États à définir librement leur destin. Cette quête est continue et en lien profond avec l’histoire coloniale des Etats ouest-africains.

L’émergence de l’Alliance des États du Sahel (AES) – Mali, Burkina Faso et Niger– en septembre 2023, a ravivé ces débats ? plaçant au coeur des discussions les notions de souveraineté, de panafricanisme, de démocratie, alimentant les discussions à travers les médias classiques et sociaux. La souveraineté est ainsi devenue un marqueur idéologique structurant, cristallisant des oppositions entre des « pro-0ccident » vs « pro-bloc sino-russe ».

Cette recomposition se manifeste à travers deux dynamiques distinctes: d’un côté, l’AES qui prône une souveraineté de rupture, articulée autour de la sécurité, de la dignité nationale et du rejet des tutelles extérieures ; de l’autre, des démocraties consolidées comme le Sénégal, le Cap-Vert, le Bénin et le Ghana, qui défendent une posture fondée sur la légitimité électorale, la coopération régionale et l’ouverture internationale dans une égale dignité, comme fondement de leur souveraineté internationale.

Pour avoir étudié les régimes politiques et les questions de gouvernance en Afrique de l’Ouest, j’ai observé que là où les régimes militaires du Sahel central revendiquent une souveraineté défensive, parfois exclusive, les États démocratiques côtiers manifestent une autonomie de décision politique basée sur une tradition d’ouverture internationale.

Dès lors, une question s’impose : quels facteurs expliquent la divergence entre ces deux conceptions de la souveraineté en Afrique de l’Ouest, et que révèlent-elles des transformations actuelles de l’État postcolonial africain ?

Deux conceptions de la souveraineté

L’usage contemporain de la souveraineté en Afrique de l’Ouest renvoie moins à une définition juridique univoque qu’à deux idéaux-types de gouvernement, construits à partir de trajectoires politiques contrastées.

La souveraineté de rupture : l’Alliance des États du Sahel

Le premier idéal-type est celui d’une souveraineté de rupture, incarnée par l’Alliance des Etats du Sahel (AES), née de la Charte du Liptako-Gourma en septembre 2023. Dans ce modèle, la souveraineté cesse d’être exclusivement nationale pour prendre une forme régionalisée, articulée autour d’une architecture de défense collective et d’assistance mutuelle (article 2 de la Charte). Elle est pensée comme une capacité à protéger, à combattre le terrorisme et la criminalité en bande organisée (article 4 de la Charte).

Trois piliers structurent cette souveraineté. D’abord, la sécurité comme fondement premier de l’État : l’autorité souveraine se légitime par la lutte contre le terrorisme et la reconquête territoriale. Ensuite, un discours panafricaniste de rupture, qui présente la souveraineté comme émancipation vis-à-vis des puissances occidentales et des institutions régionales jugées dépendantes.

Enfin, la volonté de reconstruire un État fort et centralisé, où l’armée devient l’acteur principal de la refondation nationale et du contrôle des ressources stratégiques. La souveraineté y est défensive, symbolique et identitaire, indissociable de la dignité nationale et de la survie de l’État.

Plus que la lutte contre le terrorisme, l’objectif de l’alliance est fondamentalement politique et souverainiste. A ce propos, le président de transition du Mali Assimi Goïta dans son discours à la nation du 31 décembre 2025, déclarait :

L’année qui s’achève a consacré une avancée majeure dans notre combat pour la souveraineté avec la consolidation de l’Alliance des États du Sahel. Avec le Burkina Faso et le Niger, nous avons choisi l’unité, la solidarité et la défense collective comme réponses aux défis sécuritaires, politiques et économiques auxquels nos peuples sont confrontés.

La souveraineté de consolidation : les démocraties côtières stabilisées

À l’opposé, le second idéal-type est celui d’une souveraineté de consolidation, portée par des États côtiers comme le Sénégal, le Cap-Vert, le Bénin ou le Ghana. Ici, la souveraineté repose sur la légitimité électorale, la stabilité institutionnelle et la continuité de l’État de droit. Elle ne s’exerce pas contre l’ordre régional, mais à travers lui. Le président du Sénégal Bassirou Diomaye Faye déclarait lors de son discours d’investiture le 2 avril 2024 que

le Sénégal doit exercer pleinement sa souveraineté, dans le respect de ses engagements internationaux, mais en plaçant en priorité les intérêts du peuple sénégalais.

Ces États conçoivent la souveraineté comme une capacité d’action collective, fondée sur la coopération, l’intégration régionale et le multilatéralisme, notamment au sein de la Communauté économique des Etats d’Afrique de l’Ouest (Cedeao). La souveraineté n’y est pas synonyme d’isolement, mais d’influence partagée et de consolidation progressive de l’État.

Cinq points de divergence

Ces deux modèles se distinguent à travers cinq indicateurs.

– La centralité de la force armée

La souveraineté est pratique et se mesure à la capacité des armées à protéger, à sécuriser des territoires, à administrer, à user et imposer la force. Dans l’espace AES, la souveraineté est associée à la puissance militaire. Ainsi le militaire est partout comme instrument de coercition et au cœur du pouvoir politique. La sanctuarisation de l’état d’urgence, la médiatisation des succès militaires, la rhétorique de la guerre et la mise en scène d’un Etat protecteur participent à l’entretien de cette souveraineté militaire défensive.

En contraste, dans les démocraties côtières, la souveraineté repose moins sur l’omniprésence du militaire que sur la primauté de l’Etat de droit. La sécurité est une politique publique soumise au contrôle civil parlementaire. Toutefois au regard du contexte régional, l’insécurité constitue un défi et justifie un renforcement des capacités étatiques et une attention aux armées.

– Les fondements de la légitimité politique

La distinction entre les deux modèles est forte autour de cet indicateur. Dans les régimes de l’AES la légitimité n’est pas fondée par les urnes. Les transitions sont prolongées et perdent leur sens. L’insécurité fragilise les institutions. Le pouvoir repose sur la force populaire, pas sur les urnes. Les dirigeants cherchent légitimité par la rue plutôt que par la démocratie.

Dans les États dits démocraties stabilisées, la souveraineté est indissociable de la légitimité électorale.Les citoyens refusent tout report ou blocage des élections. Pourtant, dans certains pays, l’exclusion des principaux opposants dévoie la compétition électorale.

Dans les deux modèles la souveraineté cherche à s’ancrer dans une forme de reconnaissance populaire, mais par des mécanismes radicalement différents.

– Sécurité et droits

Pour les régimes militaires, la sécurité est une priorité absolue. Elle justifie ainsi la suspension ou la relativisation de droits et libertés. Au nom d’un état d’urgence, la lutte contre le terrorisme et la survie de l’Etat priment sur les garanties individuelles.

A l’inverse dans les souverainismes démocratiques, la sécurité est liée aux droits, à la justice, à la gouvernance inclusive. La souveraineté elle-même repose sur un cadre juridique.

– Place des oppositions et des contre-pouvoirs

La conséquence du tout sécuritaire dans l’espace AES est la remise en cause de la place centrale des oppositions politiques, des contre-pouvoirs dans la gouvernance politique. Les droits et libertés sont largement restreints. Les oppositions politiques sont écartées et la presse encadrée.

Les régimes militaires protègent leur légitimité face aux menaces internes.
Dans les souverainismes démocratiques, le pluralisme et les libertés garantissent la légitimité de l’État.

– Rapport à l’international et à l’intégration régionale

Enfin les régimes de l’AES défendent une souveraineté de rupture vis-à-vis des institutions régionales et des partenaires occidentaux, accusés d’ingérence. Cette posture ne signifie pas l’autarcie : elle s’accompagne d’alliances alternatives (Russie, Chine) et d’une affirmation d’idéologie panafricaine parfois présentée en modèle sahélien.

Les démocraties côtières assument une souveraineté coopérative, fondée sur le multilatéralisme, la Cedeao, l’intégration régionale. La souveraineté ici n’est pas exclusive ou contre l’international mais à travers lui.

Les facteurs de la divergence

Les divergences s’enracinent dans des contextes historiques, politiques et économiques profondément asymétriques.

– Un contexte sécuritaire asymétrique

Le premier facteur explicatif tient à la géographie différenciée de la violence armée. Le Sahel central est devenu l’épicentre de l’insécurité depuis 2010.
L’expansion des groupes djihadistes et la porosité des frontières ont affaibli l’autorité étatique. La souveraineté devient une urgence existentielle face à cette crise. La militarisation du pouvoir s’impose comme réponse pour préserver l’unité et la survie de l’État.

À l’inverse, les États côtiers comme le Sénégal ou le Ghana n’ont pas connu une telle intensité de violence armée. Cette relative stabilité sécuritaire a permis la continuité institutionnelle, la consolidation de l’État de droit et une souveraineté pensée dans la durée plutôt que dans l’urgence.

– Dynamiques politiques et crise différenciée de la légitimité démocratique

Le second facteur est politique. Dans l’espace AES, la montée des régimes de transition reflète une crise électorale. Les coups d’État et la perte de confiance expliquent le recul de la démocratie. Cette « fatigue démocratique » nourrit un souverainisme sahélien. Le peuple devient source directe du pouvoir, par la rue et le soutien populaire.

À l’inverse, dans les démocraties côtières, les alternances régulières consolident la confiance. La souveraineté y reste liée au suffrage et au respect des procédures.

– Des économies politiques contrastées

Les structures économiques jouent un rôle clé. Les pays enclavés du Sahel dépendent d’économies agro-extractives fragiles. Les conflits ont désorganisé la production et affaibli l’État. Cela renforce la tentation d’un pouvoir autoritaire centré sur les ressources.

De leur côté, les États côtiers, plus diversifiés et ouverts, privilégient la stabilité et l’intégration économique régionale.

– Reconfigurations géopolitiques et rapports à l’international

Enfin, les divergences tiennent à de profondes recompositions géopolitiques. Au Sahel, le retrait occidental et la rupture avec la Cedeao ont favorisé une souveraineté de défiance. Les régimes militaires recherchent des alliances alternatives. La souveraineté y devient protection et affirmation identitaire.

À l’opposé, le Sénégal et le Ghana privilégient, eux, une souveraineté coopérative.
Ils s’inscrivent dans le multilatéralisme, tout en redéfinissant certains partenariats, notamment militaires. Au Sénégal, les autorités, tout en privilégiant des relations coopératives, ont remis en cause des accords de défense avec la France et rendu effectif le retrait des armées françaises du sol sénégalais.

Que retenir ?

Les deux modèles de souveraineté qui coexistent aujourd’hui en Afrique de l’Ouest ne sont pas des anomalies, mais les expressions d’une même quête d’autonomie dans des contextes différenciés.

Le souverainisme de rupture de l’AES répond à une crise de survie étatique, tandis que celui du Sénégal, du Ghana, du Cap-Vert, du Bénin, repose sur la stabilité institutionnelle et cherche à consolider une autonomie de décision à travers les institutions démocratiques.

Ces trajectoires traduisent deux manières d’adapter la souveraineté africaine au monde contemporain : l’une par la résistance et le refoulement de la tutelle occidentale, l’autre par l’intégration régionale politique et éconnomique.

The Conversation

Christian Abadioko Sambou does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. En Afrique de l’Ouest, deux modèles de souveraineté face à face – https://theconversation.com/en-afrique-de-louest-deux-modeles-de-souverainete-face-a-face-273188

Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ?

Source: The Conversation – in French – By Fabrice Beline, Directeur de Recherche, Inrae

En matière de transition énergétique, les débats sur la production et la consommation électrique tendent à occuper le devant de la scène politico-médiatique et à occulter le rôle des bioénergies. Ces dernières font pourtant partie intégrante de la programmation énergétique du pays. Leur production peut avoir des impacts majeurs tant sur les modes de production agricole que sur nos habitudes alimentaires.


Dans les prospectives énergétiques telles que la stratégie nationale bas carbone (SNBC), les scénarios négaWatt ou encore ceux de l’Agence de la transition écologique Ademe… les bioénergies sont régulièrement présentées comme un levier incontournable de la transition, en complément de l’électrification du système énergétique.

Pour rappel, ces énergies, qui peuvent être de différentes natures (chaleur, électricité, carburant…), se distinguent des autres par leur provenance. Elles sont issues de gisements de biomasses tels que le bois, les végétaux et résidus associés, les déchets et les effluents organiques.

L’électrification met en scène de nombreuses controverses politiques et sociétales dans le débat public et médiatique. Par exemple : compétition entre renouvelable et nucléaire, arrêt des moteurs thermiques… À l’inverse, les discussions sur les bioénergies se cantonnent encore aux milieux scientifiques et académiques.

Pourtant, leur déploiement implique des évolutions importantes. Et ceci à la fois dans les modes de production agricole et les habitudes alimentaires, en tout cas si nous le voulons durable.

Il est donc essentiel que le sujet bénéficie d’une meilleure visibilité et d’une plus grande appropriation par la société pour que puissent naître des politiques publiques cohérentes.

Les bioénergies, levier de la transition énergétique

La transition énergétique, qui consiste à réduire drastiquement le recours aux énergies fossiles, est centrale dans la lutte contre le changement climatique. À l’horizon 2050, elle s’appuie sur deux piliers :

  • d’une part l’augmentation de la production d’électricité « bas carbone », associée à une forte électrification des usages, notamment pour la mobilité.

  • de l’autre, une hausse conséquente de la production de bioénergies pour compléter l’offre électrique, en particulier pour les usages difficilement « électrifiables » (par exemple dans l’industrie).

Actuellement, au niveau national, les bioénergies représentent de 150 à 170 térawattheures (TWh) par an, soit un peu plus de 10 % de l’énergie finale consommée. Ce chiffre concerne principalement la filière bois, à laquelle s’ajoutent les biocarburants et la filière biogaz. À l’horizon 2050, les prospectives énergétiques prévoient une consommation de plus de 300 de bioénergies, avec une forte croissance dans les secteurs du biométhane (injection du biogaz dans le réseau de gaz après épuration du biométhane) et, dans une moindre mesure, des biocarburants.

La programmation pluriannuelle de l’énergie n°3 (PPE3), qui est en cours de consultation, constitue la feuille de route de la France pour sa transition énergétique, avec des objectifs chiffrés. Pour la filière biométhane, la cible est fixée à 44 TWh/an dès l’horizon 2030 puis jusqu’à 80 TWh/an en 2035, contre une production actuelle de l’ordre de 12 TWh/an. Concernant les biocarburants, la PPE3 prévoit une légère augmentation pour atteindre 50 TWh/an en 2030-2035.




À lire aussi :
Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La nécessité d’une biomasse « durable »

L’optimisme quant à nos capacités à cultiver de manière durable les biomasses nécessaires à la production de ces bioénergies n’est cependant plus de mise.

Alors que la deuxième Stratégie nationale bas carbone (SNBC) tablait sur une production de 370 TWh/an de bioénergies en 2050, la nouvelle version SNBC 3 revoit ce chiffre à la baisse à 305 TWh/an. En mai 2025, le rapport des académies d’agriculture et des technologies réduisait ce chiffre à 250 TWh/an.

L’évolution à la baisse de ces chiffres met en lumière l’inadéquation entre les besoins de biomasse pour la transition énergétique, telle qu’elle est actuellement envisagée, et les capacités de production du système agricole actuel.

En novembre 2023, le Secrétariat général à la planification écologique lançait l’alerte, à travers cette formule relayée par le Monde :

« Il y a un problème de bouclage sur la biomasse. »

Ces questionnements ont donné lieu à des échanges entre le ministère de l’agriculture et de la souveraineté alimentaire et l’Inrae autour des enjeux agronomiques, techniques et économiques d’une mobilisation accrue des différents gisements de biomasse et de leur transformation en bioénergies. Ils ont confirmé les difficultés de faire correspondre les besoins pour la transition énergétique et la capacité de production.

Les flux de biomasse en France

Pour y voir plus clair sur les enjeux et les leviers disponibles, il convient d’analyser plus globalement les flux de biomasses agricoles à l’échelle nationale.

Environ 245 millions de tonnes de matière sèche (MtMS) sont produits chaque année pour des usages primaires (directs) et secondaires (indirects). Ces usages se répartissent comme suit :

  • Environ 100-110 MtMS sont mobilisés pour l’alimentation animale et finalement la production de denrées alimentaires telles que le lait, la viande, les œufs.

  • Quelque 70-80 MtMS/an retournent directement au sol (résidus de cultures, fourrages et prairies), auxquels s’ajoutent environ 30 MtMS/an de flux secondaires principalement issus de l’élevage sous forme d’effluents (lisier, fumier, digestat…).

  • Environ 50-55 MtMS/an sont utilisés directement pour la production de denrées alimentaires humaines (dont plus de la moitié est exportée).

  • Et 9 MtMS/an servent à la production d’énergie (biocarburant et biogaz) auxquels s’agrègent environ 9MtMS/an de flux secondaires provenant de l’élevage et de l’industrie agroalimentaire (lisier, fumier, biodéchets…).

Infographie des flux actuels de biomasse agricole (en MtMS).
SGPE 2024

À échéance 2050, les besoins supplémentaires en biomasses pour les bioénergies s’établissent entre 30 et 60 MtMS/an.

Les dilemmes pour répondre à ces besoins accrus

Tous les acteurs s’accordent sur le fait qu’il n’est pas concevable de rediriger des ressources utilisables – et actuellement utilisées pour l’alimentation humaine – vers des usages énergétiques.

Il apparaît dès lors tentant de rediriger la biomasse qui retourne actuellement au sol. Pourtant, ces flux de biomasse sont essentiels à la santé, qualité et à la fertilité des sols. Ils participent à la lutte contre le changement climatique à travers leur contribution au stockage (ou à la limitation du déstockage) de carbone dans les sols.

Une autre piste, pour répondre à ces besoins croissants, serait d’augmenter la production primaire de biomasse à travers le développement et la récolte de cultures intermédiaires appelées « cultures intermédiaires à vocation énergétique » (CIVE). Celles-ci sont cultivées entre deux cultures principales.

Toutefois, une telle production supplémentaire de biomasse implique l’utilisation de ressources supplémentaires (nutriments, eau, produits phytosanitaires). Elle tend aussi à accroître les risques de transferts de pollution vers la biosphère.

Mobiliser trop fortement ces leviers pourrait donc s’avérer contreproductif. Les alertes s’accumulent à ce sujet. Ces leviers sont donc à actionner avec parcimonie.

Une autre piste, conceptualisée dans plusieurs scénarios de transition, serait de rediriger une partie de la biomasse actuellement utilisée pour nourrir les animaux d’élevage vers la production énergétique.

Ceci impliquerait à la fois une diminution des cheptels et une extensification des élevages afin de préserver leurs services écosystémiques rendus, tout en minimisant leur consommation de biomasse. Cela répondrait à l’enjeu de réduction des émissions de gaz à effet de serre de l’agriculture et serait donc le plus cohérent pour affronter les enjeux écologiques.

Ce scénario requiert toutefois des changements d’envergure dans nos habitudes alimentaires, avec une réduction de notre consommation de produits animaux pour éviter une augmentation des importations.

Vers des politiques publiques coordonnées et cohérentes ?

Après deux ans de retard et de blocages dans les ministères, la stratégie nationale pour l’alimentation, la nutrition et le climat ne semble malheureusement pas à la hauteur de cette problématique. En témoigne l’absence d’objectif chiffré sur la réduction de la consommation de produits animaux, voire la disparition du terme de réduction dans les dernières versions.

De même, les lois récentes d’orientation agricole et Duplomb renforcent l’orientation productiviste de l’agriculture, tout en minimisant les enjeux de transition. Ceci va à l’encontre (au moins partiellement) des orientations nécessaires pour la transition énergétique et la SNBC 3, sans parler des antagonismes avec la stratégie nationale biodiversité.

La France ne manque donc pas de stratégies, mais d’une cohérence globale entre elles. C’est bien cela qui conduit à un découragement des responsables de l’élaboration et la mise en œuvre des politiques publiques et à une adhésion insuffisante des citoyens à ces stratégies.

Il y a donc urgence à développer une vision et des politiques publiques intersectorielles cohérentes et complémentaires englobant l’énergie, l’agriculture, l’environnement, l’alimentation et la santé.

The Conversation

Fabrice Beline a reçu des financements de l’Ademe (projet ABMC) et de GRDF (projet MethaEau).

ref. Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ? – https://theconversation.com/transition-energetique-developper-les-bioenergies-oui-mais-avec-quelles-biomasses-270811

Derrière le sans-abrisme, la face cachée du mal-logement

Source: The Conversation – in French – By Pascale Dietrich, Chargée de recherche, Ined (Institut national d’études démographiques)

Ce 22 janvier, une Nuit de la solidarité est organisée à Paris et dans d’autres villes françaises – une forme d’opération citoyenne de décompte des personnes dormant dans la rue. Celle-ci ne doit pas occulter ce que les travaux de recherche montrent depuis une quarantaine d’années : à la figure bien connue du sans-abri s’ajoutent d’autres formes moins visibles de précarité résidentielle et de mal-logement.


Aujourd’hui, de plus en plus de personnes sont exclues du logement ordinaire. Les derniers chiffres dont on dispose datent de 2012 et indiquent que le nombre de personnes sans domicile a augmenté de 50 % entre 2001 et 2012 : à cette date, 81 000 adultes, accompagnés de 31 000 enfants étaient sans domicile dans les agglomérations d’au moins 20 000 habitants de France hexagonale. L’enquête Sans Domicile menée par l’Insee en 2025 est en cours d’exploitation et permettra d’actualiser ces chiffres, mais tout laisse penser que la situation s’est encore dégradée, comme en témoignent nos observations de terrain.

D’après l’Insee, une personne est considérée comme sans domicile si elle a dormi la nuit précédente dans un lieu non prévu pour l’habitation (elle est alors « sans-abri »), ou si elle est prise en charge par un organisme fournissant « un hébergement gratuit ou à faible participation » (hôtel ou logement payé par une association, chambre ou dortoir dans un hébergement collectif, etc.). Ainsi, le sans-abrisme est-il la forme extrême du sans-domicilisme qui s’inscrit lui-même dans la myriade des formes du mal-logement.

Au-delà de ces personnes sans domicile, d’autres vivent dans des caravanes installées dans des campings, dans des squats, chez des tiers, des camions aménagés, des logements insalubres, etc., autant de situations résidentielles précaires qui échappent aux radars de la société et sont peu relayées dans les médias.

Ainsi, la Fondation pour le logement des défavorisés estime dans son rapport de 2025 que près de 4 millions de personnes sont touchées en France par toutes ces formes de mal-logement, la plupart des indicateurs de mal-logement s’étant dégradés.

« Crise du logement : Ces Français contraints de vivre au camping » – Reportage #Cdanslair, 31 janvier 2024.

À la figure bien connue du sans-abri dormant dans la rue s’ajoutent donc d’autres formes moins repérables de précarité résidentielle.

À l’approche de la Nuit de la solidarité organisée chaque année à Paris et dans d’autres villes françaises, il n’est pas inutile de rappeler ce que soulignent les travaux de recherche sur le sujet depuis une quarantaine d’années : le sans-abrisme n’est que la partie émergée de l’iceberg.

Si les opérations de décompte des personnes vivant dans des lieux non prévus pour l’habitation, et notamment la rue, sont importantes pour sensibiliser les citoyennes et citoyens, elles ne permettent d’obtenir que des estimations très approximatives du sans-abrisme et masquent une problématique plus vaste qui ne se réduit pas à ces situations extrêmes, comme on peut le lire dans ce rapport (pp. 42-52).

Les visages cachés de l’exclusion du logement

À la figure ancienne et un peu caricaturale du clochard – un homme seul, blanc, sans emploi et marginalisé – s’ajoutent d’autres visages : travailleurs et travailleuses précaires, femmes, parfois accompagnées d’enfants, personnes âgées percevant de petites retraites, personnes discriminées en raison de leur orientation sexuelle, étudiantes et étudiants, jeunes sortant de l’Aide sociale à l’enfance ou encore populations issues de l’immigration…

Ces différents types de personnes ont toujours été plus ou moins présentes parmi les populations en difficulté, mais l’augmentation générale de la précarité et la pénurie de logements accessibles les ont encore fragilisées. Plus de 2,7 millions de ménages étaient en attente d’un logement social en 2024. Dans le même temps, seulement 259 000 logements ont été mis en chantier en 2024, dont 82 000 logements sociaux financés.

Si certaines figures du sans-abrisme sont extrêmement visibles, comme les migrantes et migrants dont les campements sont régulièrement montrés dans les médias, d’autres formes d’exclusion sont plus discrètes.

C’est le cas par exemple des personnes en emploi, victimes de l’élargissement de la crise du logement, qui se replient vers les structures d’hébergement institutionnel faute de pouvoir se loger malgré leurs revenus réguliers.

En 2012, près d’un quart des sans-domicile occupaient un emploi. Ce phénomène fait peu de bruit alors même que ces personnes occupent souvent des métiers essentiels au fonctionnement de la société.

De même, les femmes sans domicile sont moins repérables dans l’espace public que leurs homologues masculins, car elles ne ressemblent pas à la figure classique du sans-domicile fixe (SDF). Quand elles y sont présentes, elles ne s’y installent pas et sont beaucoup plus mobiles par crainte d’y subir des violences : elles sont donc très largement sous-estimées dans les opérations de décompte.




À lire aussi :
Femmes SDF : de plus en plus nombreuses et pourtant invisibles


Les enquêtes « Sans domicile » montrent qu’entre 2001 et 2012, le nombre de femmes francophones sans domicile a augmenté de 45 %, passant de 17 150 en 2001 à 24 930 femmes en 2012.

Solutions court-termistes

Face à cette précarité résidentielle croissante, quelles solutions apportent les pouvoirs publics ?

L’augmentation du financement de l’hébergement d’urgence qui procure un abri temporaire dans des haltes de nuit ou à l’hôtel apporte certes une solution rapide aux sans-abri qui, du point de vue des édiles, nuisent à l’image des villes, mais ne résout en rien les problèmes de ces personnes.




À lire aussi :
Où dormir quand on n’a pas de domicile ?


Reléguant les plus précaires aux marges des villes ou dans des hébergements sans intimité où il est impossible de s’installer dans la durée, ces politiques court-termistes, focalisées sur l’urgence sociale, se doublent de formes de répression (expulsion, arrêtés anti-mendicité, mobiliers urbains inhospitaliers) qui contribuent à la précarisation et à l’invisibilisation des populations étiquetées comme « indésirables ».

L’augmentation massive des expulsions avec le concours de la force publique en 2024, l’hébergement des sans-domicile dans des hôtels de plus en plus éloignés des centres des agglomérations et peu accessibles en transports en commun, ou le déplacement des sans-abri de Paris pendant les Jeux olympiques de 2024 en témoignent.

Prises en charge discontinues

Des changements politiques profonds sont pourtant nécessaires pour résoudre la question de l’exclusion du logement en s’attaquant à ses causes structurelles. Une politique ambitieuse de production et de promotion du logement social à bas niveaux de loyers est indispensable pour permettre aux ménages modestes de se loger sans passer par le long parcours de l’hébergement institutionnel.

La prévention des expulsions doit également être favorisée, de même que la régulation des prix du marché immobilier.

Il est aussi nécessaire d’assurer une meilleure continuité de la prise en charge dans les diverses institutions d’aide. Les populations particulièrement fragiles, qui cumulent les difficultés, connaissent des séjours précoces en institutions, répétés et multiples, de l’aide sociale à l’enfance (en 2012, 23 % des utilisateurs des services d’aide aux sans-domicile nés en France avaient été placés dans leur enfance, alors que cette proportion était seulement de l’ordre de 2 % à 3 % dans la population générale) aux dispositifs d’insertion par le travail, en passant dans certains cas par l’hôpital psychiatrique, les cures de désintoxication ou la prison.

Or, ces prises en charge souvent discontinues n’apportent pas de solutions durables en termes de logement, d’emploi ou de santé. Elles alimentent par ailleurs un sentiment de rejet qui favorise le non-recours au droit : les personnes sont éligibles à des prestations sociales et à des aides mais ne les sollicitent pas ou plus.

Pour ces personnes les plus désocialisées, la politique du logement d’abord (« Housing first ») ou « Chez soi d’abord » en France), qui consiste à donner accès au logement sans condition et à proposer un accompagnement social et sanitaire, donne des résultats probants mais, faute de logements disponibles, elle n’est pas suffisamment mise en œuvre.

Appréhender le problème dans sa globalité

Il faut enfin s’attaquer aux politiques migratoires qui produisent le sans-domicilisme. Les politiques publiques en matière d’accueil des étrangers étant de plus en plus restrictives et les dispositifs spécifiques saturés, migrantes et migrants se retrouvent sans solution de logement. La part d’étrangers parmi la population sans-domicile a ainsi fortement augmenté, passant de 38 % en 2001 à 53 % en 2012.

Résoudre la question de l’exclusion liée au logement en France comme dans de nombreux pays passe autant par des réformes de la politique du logement que par des actions dans le secteur social, de l’emploi et de la politique migratoire. Le sans-domicilisme est un révélateur des inégalités sociales croissantes dans la société et des processus d’exclusion qui la traversent. Trouver une solution à ce problème majeur, nécessite plus que jamais de l’appréhender dans sa globalité, sans se limiter à ses symptômes les plus visibles.


Pascale Dietrich-Ragon et Marie Loison-Leruste ont codirigé l’ouvrage la Face cachée du mal-logement. Enquête en marge du logement ordinaire, paru aux éditions de l’Ined en septembre 2025.

The Conversation

Marie Loison-Leruste est membre de l’association Au Tambour!.

Pascale Dietrich ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Derrière le sans-abrisme, la face cachée du mal-logement – https://theconversation.com/derriere-le-sans-abrisme-la-face-cachee-du-mal-logement-273852

L’ennui n’est pas seulement acceptable chez les enfants, il est bénéfique

Source: The Conversation – in French – By Margaret Murray, Associate Professor of Public Communication and Culture Studies, University of Michigan-Dearborn

Chez l’enfant, l’ennui encourage l’autonomie. Idzard Schiphof/Unsplash, CC BY-NC

L’ennui est souvent perçu comme un mal à éviter à tout prix chez les enfants. Pourtant, loin d’être inutile, il joue un rôle clé dans leur développement, en favorisant l’autonomie, la créativité et l’apprentissage de la gestion du temps.


L’ennui fait partie intégrante de la vie, à travers les époques et partout dans le monde. Et pour cause : il remplit une fonction utile, en poussant les individus à se fixer de nouveaux objectifs et à relever de nouveaux défis.

Je suis professeure et je travaille sur les questions de communication et de culture. J’écris actuellement un livre sur la parentalité contemporaine, et j’ai constaté que de nombreux parents cherchent à éviter à leurs enfants l’expérience de l’ennui. Ils peuvent le percevoir comme une émotion négative qu’ils ne souhaitent pas voir leurs enfants traverser. Ou bien ils les orientent vers des activités qu’ils jugent plus productives.

Les raisons qui poussent les parents à vouloir éviter l’ennui à leurs enfants sont multiples. Beaucoup de parents sont très pris par leur travail et par les préoccupations financières ; les contraintes liées à la garde des enfants et de la gestion du quotidien pèsent lourdement sur eux. Proposer un jeu, un programme télévisé ou une activité créative à la maison permet souvent de gagner un peu de tranquillité : les parents peuvent ainsi travailler sans être interrompus ou préparer le dîner sans entendre leurs enfants se plaindre de s’ennuyer.

À cela s’ajoute parfois une forte attente de réussite. Certains parents ressentent une pression pour que leurs enfants excellent, qu’il s’agisse d’intégrer un établissement sélectif, de briller dans le sport ou de devenir de très bons musiciens.

Les parents peuvent aussi ressentir une forte pression autour de la réussite de leurs enfants, qu’il s’agisse d’intégrer un établissement sélectif, de réussir dans le sport ou d’exceller dans la pratique musicale.

Quant aux enfants, ils consacrent aujourd’hui moins de temps à jouer librement dehors et davantage à des activités organisées qu’il y a quelques décennies. La généralisation des écrans a par ailleurs rendu l’évitement de l’ennui plus facile que jamais.

Pendant la pandémie, beaucoup de parents ont ainsi eu recours aux écrans pour occuper leurs enfants pendant leurs heures de travail. Plus récemment, certains disent ressentir une pression sociale les poussant à utiliser les écrans pour que leurs enfants restent calmes dans les lieux publics.

En somme, si les parents ont de multiples raisons de vouloir tenir l’ennui à distance, il vaut la peine de s’interroger sur ce que l’ennui peut aussi apporter avant de chercher à l’éliminer complètement.

Les bienfaits de l’ennui

Même s’il est désagréable sur le moment, l’ennui est un atout pour le développement personnel. Il agit comme un signal indiquant qu’un changement est nécessaire, qu’il s’agisse de modifier son environnement, son activité ou les personnes qui nous entourent. Les psychologues ont montré que l’expérience de l’ennui peut favoriser l’émergence de nouveaux objectifs et encourager l’exploration de nouvelles activités.

Professeur à Harvard spécialisé dans le leadership public et associatif, Arthur Brooks, a montré que l’ennui est indispensable au temps de réflexion. Ces moments de creux ouvrent un espace pour se poser les grandes questions de l’existence et donner du sens à ce que l’on vit. Des enfants rarement confrontés à l’ennui peuvent devenir des adultes qui peinent à y faire face. L’ennui agit aussi comme un stimulant pour le cerveau, en nourrissant la curiosité naturelle des enfants et en favorisant leur créativité.

Apprendre à composer avec l’ennui et, plus largement, avec les émotions négatives, constitue une compétence essentielle dans la vie. Lorsque les enfants apprennent à gérer leur temps par eux-mêmes, cela peut les aider à développer leurs fonctions exécutives, c’est-à-dire la capacité à se fixer des objectifs et à élaborer des plans.

Les bénéfices de l’ennui se comprennent aussi du point de vue de l’évolution. L’ennui est extrêmement répandu : il touche tous les âges, tous les genres et toutes les cultures, et les adolescents y sont particulièrement sujets. Or la sélection naturelle tend à favoriser les traits qui confèrent un avantage. Si l’ennui est aussi universel, il est peu probable qu’il persiste sans offrir, d’une manière ou d’une autre, des bénéfices.

Mieux vaut pour les parents éviter de considérer l’ennui comme une difficulté qu’ils doivent résoudre eux-mêmes pour leurs enfants. Les psychologues ont en effet observé que les étudiants dont les parents s’impliquent de manière excessive présentent davantage de symptômes dépressifs.

D’autres recherches indiquent également que les jeunes enfants à qui l’on donnait des écrans pour les apaiser se révèlent, plus tard, moins capables de réguler leurs émotions.

L’ennui est inconfortable

La tolérance à l’ennui est une compétence que beaucoup d’enfants rechignent à acquérir ou n’ont tout simplement pas l’occasion de développer. Et même chez les adultes, nombreux sont ceux qui préféreraient s’infliger une décharge électrique plutôt que de rester livrés à l’ennui.

Apprendre à faire avec l’ennui demande de l’entraînement. Il est préférable de commencer par de courtes périodes, puis d’allonger progressivement ces moments de temps non structuré. Parmi les conseils aux parents figurent celui d’encourager les enfants à sortir, celui de leur proposer un nouveau jeu ou une recette à tester, ou tout simplement celui de se reposer. Laisser une place à l’ennui implique aussi d’accepter qu’il y ait des moments où, concrètement, il ne se passe rien de particulier.

Les plus jeunes peuvent avoir besoin qu’on leur donne des idées sur ce qu’ils peuvent faire lorsqu’ils s’ennuient. Les parents n’ont pas à jouer avec eux à chaque fois que l’ennui surgit, mais proposer quelques pistes peut être utile. Pour les tout-petits, cinq minutes d’ennui constituent déjà un bon début.

Pour les enfants plus âgés, les encourager à trouver eux-mêmes comment faire face à l’ennui est particulièrement valorisant. Il est important de leur rappeler que cela fait partie de la vie, même si c’est parfois désagréable à vivre.

Avec le temps, ça devient plus facile

Les enfants ont une grande capacité d’adaptation. À force d’être confrontés à de petits moments d’ennui, les enfants se lassent moins vite par la suite. Les études montrent d’ailleurs que le fait d’expérimenter régulièrement l’ennui rend la vie globalement moins monotone.

Renoncer à l’idée qu’il faut sans cesse divertir les enfants peut aussi contribuer à alléger la charge mentale des parents. Aux États-Unis, environ 41 % d’entre eux déclaraient en 2024 être « tellement stressés qu’ils n’arrivent plus à fonctionner », et 48 % disaient que « la plupart des jours, leur niveau de stress est totalement écrasant », selon un rapport du médecin-chef des États-Unis.

Donc, la prochaine fois qu’un enfant se plaint en disant « Je m’ennuie », inutile de culpabiliser ou de s’énerver. L’ennui est une composante saine de la vie : il encourage l’autonomie, pousse à découvrir de nouveaux centres d’intérêt et à relever de nouveaux défis.

Faire comprendre aux enfants que ce n’est pas seulement tolérable mais bénéfique les aide à mieux l’accepter.

The Conversation

Margaret Murray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’ennui n’est pas seulement acceptable chez les enfants, il est bénéfique – https://theconversation.com/lennui-nest-pas-seulement-acceptable-chez-les-enfants-il-est-benefique-273755