Source: The Conversation – France (in French) – By Jérémie Bertrand, Professeur de finance, IESEG School of Management et LEM-CNRS 9221, IÉSEG School of Management, IÉSEG School of Management
Grâce au microcrédit, les femmes gagnent une plus grande indépendance financière et un pouvoir décisionnel dans leur activité professionnelle. Corollaires à ce progrès : le surendettement, les violences conjugales et… le suicide. Quelles sont les solutions pour limiter ces effets délétères ?
Cinquante ans après le lancement du microcrédit au Bangladesh, les femmes représentent aujourd’hui 80 % des bénéficiaires, mais en profitent-elles réellement ?
Pression de groupe pouvant entraîner des suicides, spirale de surendettement ou encore manque de contrôle des femmes sur l’utilisation des prêts… autant de dérives qui peuvent accroître la vulnérabilité des emprunteuses.
Dans un état de l’art que nous avons publié récemment, nous regardons l’impact réel du microcrédit sur les femmes. Le résultat n’est pas totalement en leur faveur.
Notre état de l’art s’appuie sur des travaux menés principalement dans des pays en développement, incluant l’Asie du Sud, l’Océanie et l’Afrique subsaharienne.
La pression des pairs
Comment fonctionne le prêt solidaire, outil le plus utilisé en microfinance ?
De petits groupes, composés de cinq à dix individus, empruntent ensemble. Si l’un des membres manque une échéance, les autres doivent avancer son dû. La pression des pairs assure le remboursement du prêt, mais elle déplace la charge sociale sur le groupe.
Cette pression peut être plus ou moins bien supportée. En Andhra Pradesh, un État de l’Inde, le cumul de dettes et des méthodes de recouvrement oppressives ont entraîné une vague de suicides, causant près de 80 morts en 2010. Malgré les mesures de régulation mises en place par les gouvernements et les institutions du secteur, des cas de suicides continuent d’être signalés. Il demeure difficile d’estimer régulièrement le nombre de décès liés au microcrédit, faute de données.
Un surendettement à la clé
Le manque d’accompagnement et d’éducation financière des emprunteurs et emprunteuses peuvent eux mener à l’échec de l’emprunt. Force est de constater que beaucoup de microcrédits financent de petites activités sur des marchés déjà saturés, où la probabilité de dégager un profit est faible.
Concrètement, il s’agit souvent d’activités à faible barrière à l’entrée mais très concurrentielles : petit commerce (vente de nourriture, fruits et légumes, vêtements), kiosques et revente sur marché, petite restauration, couture, etc. Sur des marchés locaux où de nombreuses personnes proposent des produits et des services similaires, la demande est rapidement « partagée ». Les marges sont faibles et les revenus restent volatils, ce qui limite la capacité à rembourser.
Face à cette situation, l’emprunteuse peut devoir contracter un nouveau prêt, l’exposant à un risque de surendettement.
Il peut s’agir d’un renouvellement, ou top-up, auprès de la même institution, d’un second microcrédit auprès d’une autre institution, ou d’un prêt informel (tontine, famille ou autre prêteur particulier). Ces prêts sont souvent de petits montants mais à remboursements fréquents. Leur coût peut être élevé, une fois les intérêts inclus. Le surendettement survient souvent lorsque le nouveau prêt sert à rembourser le précédent plutôt qu’à financer une activité rentable.
Qui décide de l’usage du prêt ?
Si, comme mentionné préalablement, la majorité des microcrédits sont accordés aux femmes, ces dernières n’ont pas forcément la maîtrise de l’argent obtenu qui revient à un parent ou un conjoint. Cela s’explique par les rapports de pouvoir au sein du ménage et des normes sociales, qui font de l’homme le décisionnaire principal du couple, surtout lorsqu’il s’agit d’argent.
Ce décalage entre celle qui paie et celui qui décide peut générer des tensions au sein du ménage. Dans certains contextes, l’accès au microcrédit peut même aller jusqu’à engendrer une hausse de la violence conjugale. Par exemple, à partir d’un échantillon national au Bangladesh, soit 4 163 femmes mariées, les chercheurs Nadine Shaanta Murshid, Ayse Akincigil et Allison Zippay concluent qu’avoir un microcrédit pour les femmes avec un meilleur statut économique est associé à une probabilité de 9 % de plus de subir de la violence domestique.
Prêter autrement ?
Pour limiter ces effets, des solutions existent.
Passer de la garantie de groupe à la responsabilité individuelle réduit la pression des pairs sans hausse des défauts. Au lieu qu’un « groupe solidaire » de 5 à 10 femmes soit collectivement responsable, chaque emprunteuse signe un contrat individuel et n’est responsable que de sa propre échéance. Pourquoi cela peut fonctionner ? Parce que la pression sociale du groupe peut pousser à rembourser même quand le prêt n’est pas rentable.
Proposer des microformations très pratiques en « règles de pouce », comme une formation d’une heure et demie maximum sur les bases de la gestion financière, peut contribuer à rendre les investissements profitables et limiter le risque de surendettement. Elles peuvent porter sur des gestes très concrets de gestion : séparer l’argent du ménage et celui de l’activité, tenir un mini-carnet quotidien des entrées et des sorties ou apprendre à calculer simplement des coûts, des prix et des marges pour identifier ce qui est réellement rentable.
Gérer l’emprunt directement sur les comptes personnels des emprunteuses, notamment via les comptes mobile money, donne aux femmes une autonomie financière effective. Elles reçoivent, paient et épargnent elles-mêmes, tout en réduisant le risque d’appropriation des fonds par un homologue masculin. Le prêt est versé sur le wallet mobile de l’emprunteuse, puis les remboursements se font depuis ce même compte ; cela rend plus difficile la « capture » immédiate en liquide par le conjoint et crée une traçabilité/contrôle directe des flux (réception, paiements fournisseurs, remboursement).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Selon une étude OpinionWay pour le think tank La villa numeris, publiée le 15 octobre 2025, les Français sont 8 % à préférer l’IA aux médias pour s’informer.Matúš Gocman/Unsplash, CC BY
Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.
La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.
Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.
Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.
En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.
Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.
Biais de communication
Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.
Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.
Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.
Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.
Les biais partent des données avec lesquelles ces modèles sont entraînés.
Ce que la régulation peut – et ne peut pas – faire
Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.
Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.
Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.
Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.
La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.
Aller au-delà de la régulation de l’IA
Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.
Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.
Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.
Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début d’un basculement irréversible pour les sociétés inuit. Aujourd’hui, alors que le Groenland redevient un enjeu stratégique mondial, l’histoire semble se répéter. Rester avec les Inuit polaires, c’est refuser de parler de territoires en oubliant ceux qui les habitent.
Le 16 juin 1951, l’explorateur français Jean Malaurie progresse en traîneaux à chiens sur la côte nord-ouest du Groenland. Il est parti seul, sur un coup de tête, avec un maigre pécule du CNRS, officiellement pour travailler sur les paysages périglaciaires. En réalité, cette rencontre avec des peuples dont la relation au monde était d’une autre nature allait forger un destin singulier.
Ce jour-là, après de longs mois d’isolement parmi les Inuit, au moment critique du dégel, Malaurie avance avec quelques chasseurs. Il est épuisé, sale, amaigri. L’un des Inuit lui touche l’épaule : « Takou, regarde » Un épais nuage jaune monte au ciel. À la longue-vue, Malaurie croit d’abord à un mirage : « une cité de hangars et de tentes, de tôles et d’aluminium, éblouissante au soleil dans la fumée et la poussière […] Il y a trois mois, la vallée était calme et vide d’hommes. J’avais planté ma tente, un jour clair de l’été dernier, dans une toundra fleurie et virginale. »
Le souffle de cette ville nouvelle, écrira-t-il, « ne nous lâchera plus ». Les excavatrices tentaculaires raclent la terre, les camions vomissent les gravats à la mer, les avions virevoltent. Malaurie est projeté de l’âge de pierre à l’âge de l’atome. Il vient de découvrir la base secrète américaine de Thulé, nom de code Operation Blue Jay. L’un des projets de construction militaire les plus massifs et les plus rapides de l’histoire des États-Unis.
La base américaine de Thulé au début des années 1950. U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY
Sous ce nom anodin se cache une logistique pharaonique. Les États-Unis redoutent une attaque nucléaire soviétique par la route polaire. En un seul été, quelque 120 navires et 12 000 hommes sont mobilisés dans une baie qui n’avait connu jusque-là que le glissement silencieux des kayaks. Le Groenland ne comptait alors qu’environ 23 000 habitants. En 104 jours, sur un sol gelé en permanence, surgit une cité technologique capable d’accueillir les bombardiers géants B-36, porteurs d’ogives nucléaires. À plus de 1 200 kilomètres au nord du cercle polaire, dans un secret presque total, les États-Unis font surgir l’une des plus grandes bases militaires jamais construites hors de leur territoire continental. Un accord de défense est signé avec le Danemark au printemps 1951, mais l’Operation Blue Jay est déjà engagée : la décision américaine a été prise dès 1950.
L’annexion de l’univers Inuit
Malaurie comprend aussitôt que la démesure de l’opération signe, de fait, une annexion de l’univers Inuit. Un monde fondé sur la vitesse, la machine, l’accumulation vient de pénétrer brutalement, aveuglément, un espace réglé par la tradition, le cycle, la chasse et l’attente.
Le geai bleu est un oiseau bruyant, agressif, extrêmement territorial. La base de Thulé se situe à mi-chemin entre Washington et Moscou par la route polaire. À l’heure des missiles hypersoniques intercontinentaux, hier soviétiques, aujourd’hui russes, c’est cette même géographie qui fonde encore l’argument du « besoin impérieux » invoqué par Donald Trump dans son désir d’annexion du Groenland.
La base de Thulé a une position stratégique entre les USA et la Russie. U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY
Le résultat immédiat le plus tragique de l’Opération Blue Jay ne fut pas militaire, mais humain. En 1953, pour sécuriser le périmètre de la base et de ses radars, les autorités décidèrent de déplacer l’ensemble de la population inughuit locale vers Qaanaaq, à une centaine de kilomètres plus au nord. Le déplacement fut rapide, contraint, sans consultation, brisant le lien organique entre ce peuple et ses territoires de chasse ancestraux. Un “peuple racine” déraciné pour faire place à une piste d’aviation.
C’est sur ce moment de bascule foudroyante que Malaurie situe l’effondrement des sociétés traditionnelles inuit, où la chasse n’est pas une technique de survie mais un principe organisateur du monde social. L’univers inuit est une économie du sens, faite de relations, de gestes et de transmissions, qui donnent à chacun reconnaissance, rôle et place. Cette cohérence intime, qui fait la force de ces sociétés, les rend aussi extrêmement vulnérables lorsqu’un système extérieur en détruit soudainement les fondements territoriaux et symboliques.
Conséquences de l’effondrement des structures traditionnelles
Aujourd’hui, la société groenlandaise est largement sédentarisée et urbanisée. Plus du tiers des 56 500 habitants vit à Nuuk, la capitale, et la quasi-totalité de la population réside désormais dans des villes et localités côtières sédentarisées. L’habitat reflète cette transition brutale. Dans les grandes villes, une part importante de la population occupe des immeubles collectifs en béton, construits pour beaucoup dans les années 1960 et 1970, souvent vétustes et suroccupées. L’économie repose largement sur une pêche industrielle tournée vers l’exportation. La chasse et la pêche de subsistance persistent. Fusils modernes, GPS, motoneiges, connexions satellitaires accompagnent désormais les gestes anciens. La chasse demeure un repère identitaire, mais elle ne structure plus ni l’économie ni la transmission.
Les conséquences humaines de cette rupture sont massives. Le Groenland présente aujourd’hui l’un des taux de suicide les plus élevés au monde, en particulier chez les jeunes hommes inuit. Les indicateurs sociaux contemporains du Groenland – taux de suicide, alcoolisme, violences intrafamiliales – sont largement documentés. De nombreux travaux les relient à la rapidité des transformations sociales, à la sédentarisation et à la rupture des transmissions traditionnelles.
Manœuvres militaires américaines à Thulé. U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY
Revenons à Thulé. L’immense projet secret engagé au début des années 1950 n’avait rien de provisoire. Radars, pistes, tours radio, hôpital : Thulé devient une ville stratégique totale. Pour Malaurie, l’homme du harpon est condamné. Non par une faute morale, mais par une collision de systèmes. Il met en garde contre une européanisation qui ne serait qu’une civilisation de tôle émaillée, matériellement confortable, humainement appauvrie. Le danger n’est pas dans l’irruption de la modernité, mais dans l’avènement, sans transition, d’une modernité sans intériorité, opérant sur des terres habitées comme si elles étaient vierges, répétant, à cinq siècles d’écart, l’histoire coloniale des Amériques.
Espaces et contaminations radioactives
Le 21 janvier 1968, cette logique atteint un point de non-retour. Un bombardier B-52G de l’US Air Force, engagé dans une mission permanente d’alerte nucléaire du dispositif Chrome Dome, s’écrase sur la banquise à une dizaine de kilomètres de Thulé. Il transporte quatre bombes thermonucléaires. Les explosifs conventionnels des bombes nucléaires, destinés à amorcer la réaction, détonnent à l’impact. Il n’y a pas d’explosion nucléaire, mais la déflagration disperse sur une vaste zone du plutonium, de l’uranium, de l’americium et du tritium.
Dans les jours qui suivent, Washington et Copenhague lancent Project Crested Ice, une vaste opération de récupération et de décontamination avant la fonte printanière. Environ 1 500 travailleurs danois sont mobilisés pour racler la glace et collecter la neige contaminée. Plusieurs décennies plus tard, nombre d’entre eux engageront des procédures judiciaires, affirmant avoir travaillé sans information ni protection adéquates. Ces contentieux se prolongeront jusqu’en 2018-2019, débouchant sur des indemnisations politiques limitées, sans reconnaissance juridique de responsabilité. Aucune enquête épidémiologique exhaustive ne sera jamais menée auprès des populations inuit locales.
Aujourd’hui rebaptisée Pituffik Space Base, l’ancienne base de Thulé est l’un des nœuds stratégiques majeurs du dispositif militaire américain. Intégrée à la US Space Force, elle joue un rôle central dans l’alerte antimissile et la surveillance spatiale en Arctique, sous un régime de sécurité maximale. Elle n’est pas un vestige de la guerre froide, mais un pivot actif de la géopolitique contemporaine.
Dans Les Derniers Rois de Thulé, Malaurie montre que les peuples racine n’ont jamais de place possible au cœur des considérations stratégiques occidentales. Face aux grandes manœuvres du monde, l’existence des Inuit y devient aussi périphérique que celle des phoques ou des papillons.
Les déclarations de Donald Trump ne font pas surgir un monde nouveau. Elles visent à généraliser au Groenland un système en place depuis soixante-quinze ans. Mais la position d’un homme ne saurait nous exonérer de nos responsabilités collectives. Entendre aujourd’hui que le Groenland « appartient » au Danemark et dépend de l’OTAN, sans même évoquer les Inuit, revient à répéter un vieux geste colonial : concevoir les territoires en y effaçant ceux qui l’habitent.
Les Inuit demeurent invisibles et inaudibles. Nos sociétés continuent de se représenter comme des adultes face à des populations indigènes infantilisées. Leur savoir, leurs valeurs, leurs manières sont relégués au rang de variables secondaires. La différence n’entre pas dans les catégories à partir desquelles nos sociétés savent agir.
À la suite de Jean Malaurie, mes recherches abordent l’humain par ses marges. Qu’il s’agisse des sociétés de chasseurs-cueilleurs ou de ce qu’il reste de Néandertal, lorsqu’on le déshabille de nos projections, l’Autre demeure toujours l’angle mort de notre regard. Nous ne savons pas voir comment s’effondrent des mondes entiers lorsque la différence cesse d’être pensable.
Malaurie concluait son premier chapitre sur Thulé par ces mots :
« Rien n’aura été prévu pour imaginer l’avenir avec hauteur. »
Il faut redouter par-dessus tout non la disparition brutale d’un peuple, mais sa relégation silencieuse, et radicale, dans un monde qui parle de lui sans jamais le regarder ni l’entendre.
Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités. Elle offre des perspectives prometteuses en matière de matériaux, mais elle pose également des défis techniques, économiques et environnementaux qui nécessitent une maturation et une adaptation des procédés en lien avec les matériaux utilisés.
Plus connu sous la dénomination « impression 3D », ce procédé met en œuvre des polymères (plastiques) ou des alliages métalliques pour fabriquer des objets du quotidien. Les imprimantes 3D polymères sont accessibles au grand public pour quelques centaines d’euros. Elles permettent notamment de fabriquer des pièces prototypes (d’où le nom prototypage rapide), des coques de téléphone, des pièces de rechange, des prothèses, des bijoux, des jouets, des objets de décorations ou des maquettes. En ce qui concerne les métaux, les machines d’impression sont beaucoup plus chères (quelques centaines de milliers d’euros). On trouve des applications telles que des implants médicaux, des pièces aérospatiales/automobiles, de l’outillage industriel, des bijoux de luxe. On peut également trouver ce principe de fabrication dans le domaine du BTP avec des « imprimantes » qui mettent en œuvre du béton pour fabriquer des maisons, des bâtiments ou tout type de structure en génie civil.
Mais, comme toute nouveauté, le procédé suscite autant d’espoir qu’il ne réserve de surprises (bonnes ou mauvaises) à celles et ceux qui souhaitent utiliser ce nouveau moyen de fabrication.
D’un point de vue technique, l’impression 3D consiste, couche après couche, à durcir (polymériser) une résine liquide ou à venir déposer de la matière (plastique ou métallique) de manière précise et contrôlée (en ajustant les paramètres tels que la température, la vitesse d’impression, le taux de remplissage, l’orientation de l’objet) pour répondre à certaines contraintes de géométrie, poids, optimisation des propriétés mécaniques ou physiques.
La microstructure d’une pièce imprimée en 3D (polymère ou métal) désigne l’organisation interne de sa matière à une échelle microscopique, influencée par le procédé d’impression. La complexité de la géométrie, les dimensions, le prix vont conditionner le choix de la technologie d’impression et des matériaux associés.
Une révolution dans de nombreux domaines industriels
Qu’elle soit alternative ou complémentaire des techniques conventionnelles par enlèvement de matière ou par déformation, la FA révolutionne de nombreux domaines industriels. De la réalisation de pièces monolithiques (en une seule étape de fabrication, sans assemblage) à forte valeur ajoutée à la fonctionnalisation (conférer à la pièce certaines propriétés locales en changeant les paramètres d’impression au besoin), en passant par le prototypage rapide (valider la conception d’une pièce prototype de manière itérative), les possibilités sont multiples. On peut citer notamment des prothèses de hanche en titane adaptées à l’anatomie de chaque patient, des injecteurs de fusée à géométrie complexe et fabriquées en une seule pièce, des moules optimisés avec canaux de refroidissement sur mesure, des bijoux en métaux précieux avec des designs impossibles à obtenir avec des moyens d’usinage conventionnels.
La chaîne de valeurs de la FA – qui définit l’ensemble des étapes de réalisation d’une pièce de l’approvisionnement en matière première, à la conception, aux conditions de mise en œuvre, à la fabrication, au coût énergétique, à la reprise d’usinage, aux opérations de parachèvement, à la qualification de la santé matière, à la caractérisation des propriétés physiques, au recyclage – est cependant plus complexe et potentiellement plus onéreuse. La technicité, oui, mais pas à n’importe quel prix ! Outre les moyens de fabrication spécifiques sur lesquels elle repose, elle nécessite des règles de conception fondamentalement différentes car elle impose de nouvelles contraintes techniques. De la Conception Assistée par Ordinateur, au choix matériau, au programme machine et à l’industrialisation, il faut ainsi redéfinir complètement la manière de penser du cahier des charges à la maintenance des produits issus de la FA.
Des enjeux majeurs pour les matériaux
Un des points fondamentaux du développement de ces nouveaux procédés réside dans la compréhension du lien entre les paramètres de fabrication des pièces (temps d’impression, puissance du laser, vitesse de déplacement de la tête d’impression, dimensions, environnement de travail – sous atmosphère contrôlée ou non), leur santé matière (présence de porosités ou de défauts parfois liés à un manque de fusion/gazéification locaux de la matière) et leurs propriétés physiques (conductivité thermique ou électrique, propriétés mécaniques, densité). Autrement dit, il est nécessaire de fiabiliser les procédés et optimiser les propriétés finales de la pièce en étant capable de contrôler des paramètres de fabrication, lesquels vont beaucoup dépendre des matériaux mis en œuvre. Ainsi, la FA présente des enjeux majeurs pour les matériaux, qu’ils soient techniques, économiques ou environnementaux.
Tout d’abord, les procédés de FA nécessitent de développer, en amont, des matériaux adaptés (filaments, poudres) aux spécificités des procédés (fusion laser, dépôt de matière fondue, alimentation en matière des têtes d’impression), lesquels vont imposer des contraintes en termes de prix, toxicité et recyclabilité. En effet, les poudres métalliques ou polymères spécifiques (de type thermoplastique) dédiées à la fabrication additive restent souvent plus coûteuses que les matériaux conventionnels, d’un facteur 10 environ.
Néanmoins, malgré le coût plus élevé des matériaux et des procédés, l’impression 3D réduit les déchets (pas de copeaux comme en usinage), permet de fabriquer des pièces dont la géométrie est optimisée (allègement des structures) et élimine le besoin de moules coûteux pour les petites séries, ce qui peut compenser l’écart de coût pour des pièces à forte valeur ajoutée. Ainsi, la réduction des coûts est un enjeu clé pour une adoption plus large. De plus, l’approvisionnement en matière première peut être limité, ce qui ralentit le développement des applications industrielles.
La FA permet également de faire de l’hybridation en associant différents types de matériaux lors de l’impression (en utilisant plusieurs têtes d’impression) afin d’obtenir des pièces composites dont les propriétés mécaniques, électriques ou thermiques sont spécifiques. Par exemple, dans l’industrie aérospatiale ou l’automobile, l’impression 3D de pièces comme des moules d’injection ou des échangeurs thermiques avec des canaux de refroidissement complexes intégrés – lesquels sont impossibles à réaliser par usinage classique – permettent d’optimiser la dissipation thermique, améliorant l’efficacité et la longévité de la pièce.
Les procédés de FA permettent également d’imprimer des structures arborescentes (bio-mimétisme) obtenues via des outils d’optimisation topologique qui est une méthode de conception avancée qui utilise des algorithmes pour déterminer la forme optimale d’une structure en fonction de contraintes spécifiques, telles que la résistance, le poids, ou la distribution des efforts. La spécificité de l’impression 3D réside aussi dans la possibilité de produire des structures complexes de type treillis ou architecturées pour fonctionnaliser le matériau (propriétés mécaniques sur mesure, réduction de la masse, diminution des coûts de fabrication, isolation thermique, acoustique, absorption des chocs ou des vibrations).
Fusion de matière
Quand les pièces sont imprimées, il existe – selon le procédé de fabrication – des opérations dites de parachèvement qui consistent à finaliser les pièces. Cela inclut l’usinage des supports de conformage (qui sont comme des échafaudages qui supportent la pièce lors de la fabrication couche par couche), la reprise d’usinage des surfaces (ou polissage) pour améliorer l’état de surface (quand cela est possible) en raison de la rugosité importante des pièces brutes. On peut également réaliser des traitements thermiques pour homogénéiser la microstructure (pièces métalliques) ou de compression à chaud pour limiter le taux de porosités (un des inconvénients majeurs de l’impression 3D). Ces opérations sont fondamentales, car la rugosité de surface et le taux de porosités sont les caractéristiques les plus critiques du point de vue du comportement mécanique. Par ailleurs, quand il s’agit de procédés à base de poudres, il est nécessaire de dépoudrer les pièces pour évacuer le surplus de matière, lequel peut nuire au fonctionnement en service de la pièce ainsi fabriquée.
Par nature, la majorité des procédés de FA impliquent la fusion de matière (plastique ou métallique), ce qui va se traduire par des échauffements localisés et des différences de température très importants au sein de la pièce. Ces gradients thermiques vont conditionner la microstructure, la présence de contraintes internes (en lien avec la microstructure), la santé (présence de défauts), l’anisotropie (les propriétés ne sont pas les mêmes dans toutes les directions) et l’hétérogénéité (les propriétés ne sont pas les mêmes en tout point) des pièces. La fiabilité des pièces imprimées va donc beaucoup dépendre de ces caractéristiques.
En amont, il est alors important d’étudier les interactions entre procédés-microstructure et propriétés mécaniques pour différents types de matériaux. C’est l’objet de nos travaux de recherchemenés à l’INSA Rouen Normandie. Pour les polymères, l’impression 3D par dépôt de filament fondu (FFF) présente une porosité intrinsèque qui réduit la résistance à la rupture. En utilisant des procédés tels que le laser shock peening (LSP), un traitement mécanique in situ appliqué à certaines couches pendant l’impression, on peut alors faire de la fonctionnalisation en réduisant localement la porosité et en créant des barrières ralentissant la propagation des fissures, améliorant ainsi la ténacité des matériaux (la résistance à la fissuration du matériau). De manière similaire, pour les alliages métalliques obtenus par Fusion sur Lit de Poudre, en jouant sur les paramètres de fabrication (puissance et vitesse de déplacement du laser notamment), il est possible d’ajuster localement les propriétés du matériau pour moduler sa ténacité ou sa capacité à se déformer plastiquement.*
Aussi, il est nécessaire de caractériser précisément – en aval de la fabrication – les propriétés (thermiques, électriques, mécaniques) des pièces en accord avec les normes de certification propres aux différents domaines d’activité (médical, aéronautique, aérospatiale, automobile, agro-alimentaire).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
C’est pour apprendre que les élèves se rendent chaque jour en classe. Mais savent-ils bien toujours ce que cela signifie réellement ? Les fausses croyances sur la manière dont on acquiert des connaissances sont nombreuses, et elles peuvent compliquer la tâche des enfants et des adolescents. Quelques pistes pour les aider à réajuster leurs méthodes de travail et augmenter leurs chances de réussite.
Par exemple, lorsque je leur ai demandé de tirer des conclusions à partir de données ou de mettre au point un protocole pour tester une idée, certains élèves ont répondu : « Pourquoi ne nous dites-vous pas quoi faire ? » ou « N’est-ce pas le rôle de l’enseignant que de nous donner les bonnes réponses ? »
En d’autres termes, mes élèves avaient développé une forte idée préconçue selon laquelle le savoir provient de l’autorité. Après enquête, mes collègues et moi-même avons conclu que ces croyances sur l’apprentissage influençaient leur approche de nos cours, et donc ce qu’ils étaient capables d’apprendre.
Tous les élèves arrivent en classe avec des croyances diverses sur ce que signifie apprendre. Dans le domaine de l’éducation, la croyance la plus recherchée est peut-être ce que nous appelons avoir un état d’esprit de croissance. Les élèves ayant un état d’esprit de croissance croient qu’ils peuvent s’améliorer et continuer à apprendre. En revanche, les élèves ayant un état d’esprit fixe ont du mal à croire qu’ils peuvent approfondir leurs connaissances sur le sujet qu’ils étudient. Lorsque les élèves disent « Je suis nul en maths », ils font preuve d’un état d’esprit fixe.
En tant qu’enseignants, nous essayons non seulement d’aider les élèves à comprendre le sujet traité, mais nous cherchons également à leur inculquer des croyances justes sur l’apprentissage afin que rien ne vienne entraver leur capacité à assimiler de nouvelles informations.
Certains élèves et enseignants assimilent l’apprentissage à la mémorisation.
Si la mémorisation joue un rôle dans l’apprentissage, l’apprentissage approfondi repose quant à lui sur la compréhension. Les élèves ont tout intérêt à reconnaître que l’apprentissage consiste à expliquer et à relier des concepts entre eux pour leur donner un sens.
Par exemple, je travaillais un jour avec un élève de maternelle qui m’a fièrement montré qu’il savait réciter les chiffres de 1 à 20. Je lui ai alors demandé de compter les crayons sur le bureau. L’élève n’a pas compris ma demande. Il n’avait pas fait le lien entre ces nouveaux mots et le concept des chiffres.
Pour aider les élèves à reconnaître l’importance de la compréhension dans l’apprentissage, les enseignants et les parents peuvent leur poser des questions telles que « Pourquoi est-il préférable de relier une nouvelle idée à une ancienne idée plutôt que d’essayer simplement de mémoriser la réponse ? » ou « Pourquoi une explication est-elle plus utile qu’une simple réponse ? »
Apprendre est un défi
La conviction des élèves selon laquelle l’apprentissage s’apparente à la mémorisation peut refléter une croyance connexe selon laquelle la connaissance est simple et l’apprentissage devrait être facile.
Au contraire, les éducateurs veulent que les élèves acceptent la complexité et les défis qu’elle comporte. En se confrontant aux nuances et à la complexité, les élèves fournissent l’effort mental nécessaire pour former et renforcer de nouvelles connexions dans leur pensée.
Lorsque les élèves pensent que les connaissances sont simples et que l’apprentissage devrait être facile, leur engagement dans la réflexion de haut niveau, nécessaire pour appréhender la complexité et les nuances, en pâtit.
Pour aider les élèves en difficulté à saisir une idée complexe, les enseignants et les parents peuvent leur poser des questions qui les aident à comprendre pourquoi l’apprentissage est complexe et nécessite des efforts.
Apprendre prend du temps
Lorsque les élèves pensent que l’apprentissage est simple et facile, les enseignants ne devraient pas s’étonner qu’ils pensent également que l’apprentissage doit être rapide.
Au contraire, les élèves doivent comprendre que l’apprentissage approfondi prend du temps. Si les élèves pensent que l’apprentissage est rapide, ils sont moins enclins à rechercher des défis, à explorer les nuances ou à réfléchir et à établir des liens entre les idées. Malheureusement, de nombreux programmes scolaires condensent tellement d’objectifs d’apprentissage en un laps de temps très court que la croyance en un apprentissage rapide est subtilement renforcée.
Si les enseignants peuvent faire preuve de créativité dans l’utilisation du matériel pédagogique et consacrer plus de temps à inciter les élèves à explorer la complexité et à établir des liens, le simple fait de passer plus de temps sur un concept peut ne pas suffire à changer les convictions des élèves en matière d’apprentissage.
Pour aider les élèves à changer leur façon de penser, je leur demande de discuter de questions telles que « Pourquoi pensez-vous que la compréhension de concepts complexes prend autant de temps ? » ou « Pourquoi une seule leçon ne suffirait-elle pas pour couvrir ce concept ? » Grâce à ces questions, mes collègues et moi avons constaté que les élèves commencent à reconnaître que l’apprentissage approfondi est lent et prend du temps.
L’apprentissage est un processus continu
Les étudiants doivent également comprendre que l’apprentissage n’a pas de fin.
Malheureusement, beaucoup d’étudiants considèrent l’apprentissage comme une destination plutôt que comme un processus continu. Or, comme la connaissance comporte un degré inhérent d’incertitude et qu’un apprentissage accru révèle souvent une complexité accrue, l’apprentissage doit être continu.
Pour aider les élèves à s’interroger sur cette conviction, les enseignants et les parents pourraient leur poser les questions suivantes : « Comment pensez-vous que vos connaissances ont évolué au fil du temps ? » et « Comment pensez-vous que votre apprentissage va évoluer à l’avenir ? »
L’apprentissage ne se fait pas uniquement auprès des enseignants
Je me souviens qu’un lycéen m’avait dit : « Les enseignants sont censés nous donner les réponses pour que nous sachions quoi écrire à l’examen. »
Cet élève avait apparemment compris les « règles du jeu » et n’était pas content lorsque son professeur essayait de l’inciter à réfléchir de manière plus approfondie. Il s’accrochait à un modèle d’apprentissage par transmission, reposant sur des figures d’autorité.
Au contraire, les élèves doivent comprendre que l’apprentissage provient de nombreuses sources, notamment de leurs expériences, de leurs pairs et de leur propre réflexion, autant que de figures d’autorité.
Même si les enseignants et les parents peuvent hésiter à remettre en cause leur propre autorité, ils rendent un mauvais service aux élèves lorsqu’ils ne les préparent pas à remettre en question les figures d’autorité et à aller au-delà.
Pour aider les élèves à changer leur façon de penser, les enseignants peuvent leur demander de réfléchir à la question suivante : « Pourquoi le fait d’apprendre à partir de sources multiples peut-il vous aider à mieux comprendre la complexité et les nuances d’un concept ? »
Changer nos croyances sur l’apprentissage
Souvent, les enseignants et les parents pensent que les occasions de faire appel à un raisonnement de haut niveau suffisent à aider leurs élèves à développer de meilleures croyances concernant l’apprentissage.
Les conversations que j’ai pu avoir par ce biais avec les élèves étaient très intéressantes. De plus, aider les enfants à développer des croyances plus solides sur l’apprentissage est peut-être la chose la plus importante que les enseignants puissent faire pour les préparer à l’avenir.
Jerrid Kruse a reçu des financements de la National Science Foundation, du NASA Iowa Space Grant Consortium et de la William G. Stowe Foundation.
Des brumbies, chevaux sauvages d’Australie, dans le parc national du Kosciuszko.Fourni par l’auteur, CC BY-ND
Dans le parc national du Kosciuszko, la diminution de la population de brumbies, les chevaux sauvages, ouvre une chance de restauration pour les écosystèmes fragiles du massif. Celles et ceux qui parcourent le parc au quotidien en voient déjà les premiers effets.
Dans le parc national du Kosciuszko, en pleines Alpes australiennes, le paysage évolue lentement. Des zones de végétation, autrefois rasées par les chevaux, repoussent. Les berges de ruisseaux, longtemps érodées, paraissent moins tassées sur les bords. Les visiteurs croisent aussi moins de chevaux immobiles sur les routes, ce qui représentait un réel danger pour la circulation.
Ce changement a supprimé les protections juridiques dont bénéficiaient les chevaux dans le parc, qui les distinguaient des autres espèces introduites comme les cerfs, les porcs, les renards et les lapins. Désormais, ils sont traités en Australie de la même manière que les autres espèces invasives, rétablissant une cohérence dans la gestion de leur impact sur les paysages.
La dernière enquête estime qu’environ 3 000 chevaux subsistent dans le parc national du Kosciuszko, contre quelque 17 000 il y a un an. Plus de 9 000 chevaux ont été abattus depuis 2021.
Le plan de gestion actuellement en vigueur prévoit de conserver 3 000 de ces chevaux, un compromis entre protection des écosystèmes et sauvegarde de la valeur patrimoniale de ces animaux. Il doit s’appliquer jusqu’à la mi-2027.
Quels sont les effets environnementaux de la réduction du nombre de chevaux à Kosciuszko ? Et à quoi le parc pourrait-il ressembler à l’avenir ?
Un étalon se tenant dans une tourbière alpine à sphaignes. Fourni par l’auteur, CC BY-ND
Les dégâts
Depuis des décennies, les chevaux sauvages constituent une source majeure de dégradations écologiques dans les paysages alpins du Kosciuszko. Leur impact dans ces milieux d’altitude fragiles s’est particulièrement accru au cours de la dernière décennie, période pendant laquelle leur population a augmenté de manière incontrôlée.
Une partie de ces dégâts résulte de leur alimentation, fondée sur des graminées et des plantes herbacées alpines à croissance lente. Un cheval consomme généralement l’équivalent de 2 % de sa masse corporelle par jour, soit environ 8 kilogrammes quotidiens. À titre de comparaison, le plus grand herbivore indigène des hauts plateaux, le kangourou gris de l’Est, consomme environ 600 grammes par jour, c’est 13 fois moins.
Mais l’essentiel des dégâts est causé par leurs sabots. Les chevaux sauvages parcourent jusqu’à 50 kilomètres par jour, et leurs sabots durs écrasent les couches de mousses à sphaignes, compactant en profondeur les sols tourbeux. Ces plantes et ces sols fonctionnent normalement comme des éponges à restitution lente, stockant l’eau de fonte des neiges et alimentant les cours d’eau tout au long de l’été. Et contrairement aux wombats, aux kangourous et à d’autres espèces indigènes, les chevaux sauvages se déplacent en file indienne, traçant de profonds sentiers qui quadrillent les prairies alpines et les assèchent.
Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND
Les cours d’eau ont été particulièrement touchés. Les Alpes australiennes fournissent près d’un tiers des eaux de surface qui alimentent le bassin Murray-Darling (NDT : le plus vaste bassin hydrographique d’Australie), mais le piétinement des chevaux le long des cours d’eau trouble des rivières jusque-là limpides et déstabilise les apports lents et réguliers dont dépendent ces bassins versants.
Ces impacts ne se limitent pas au parc. Ces dernières années, de nombreux chevaux ont gagné des zones voisines, notamment des forêts domaniales, où leurs perturbations s’ajoutent aux effets de l’exploitation forestière commerciale et mettent en danger les visiteurs et les campeurs.
Si l’attention s’est surtout concentrée sur les effets des brumbies au Kosciuszko et, plus largement, dans les écosystèmes alpins, près d’un demi-million de chevaux sauvages affectent les paysages à l’échelle de toute l’Australie, les forêts tropicales claires et les zones semi-arides étant les plus durement touchées.
Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux. Fourni par l’auteur, CC BY-ND
Ce que nous avons observé jusqu’à présent
Nous avons passé beaucoup de temps dans le parc au cours de l’année écoulée et avons commencé à remarquer de petits changements dans les hauts plateaux, cohérents avec ce que l’on pourrait attendre du programme de contrôle des animaux sauvages.
Nous voyons moins de chevaux lors de nos journées sur le terrain. Dans les zones régulièrement piétinées, de petites poches de végétation réapparaissent sur les surfaces dénudées. Même certaines berges, érodées de longue date, paraissent plus souples sur les bords.
Ces observations restent strictement anecdotiques et ne constituent pas des preuves formelles. Mais elles suggèrent un paysage qui commence à se « réoxygéner » à mesure que la pression diminue. Il y a aussi un aspect sécuritaire. Quiconque circule sur les routes alpines connaît la surprise, au sortir d’un virage dans les eucalyptus, de se retrouver nez à nez avec un cheval, voire un troupeau, sur le bitume. Moins de chevaux signifie moins de ces rencontres dangereuses pour les chercheurs, le personnel des parcs nationaux et les visiteurs.
Le retour progressif
Avec beaucoup moins de chevaux dans les hauts plateaux, la pression commence à diminuer. À mesure que le piétinement diminue, les tourbières et les marais devraient commencer à se régénérer et à retenir l’eau plus longtemps. Les tapis de mousse repousseront et d’autres plantes productrices de tourbe pourront s’implanter à nouveau dans des sols qui ne sont plus constamment compactés et surpâturés.
Moins de pâturage signifie également que les herbes alpines, les carex et les graminées des neiges retrouveront de l’espace pour se développer. Les sols nus vont se stabiliser, les berges des cours d’eau se rétablir et les lits des ruisseaux commencer à se dégager.
Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND
Ces améliorations se répercutent sur l’ensemble de l’écosystème : des sols plus stables et une végétation plus dense créent un habitat plus favorable aux grenouilles, aux scinques, aux petits mammifères et aux invertébrés qui dépendent d’environnements alpins frais, humides et structurés.
La récupération prendra du temps – des décennies, et non des mois. Des études empiriques à long terme seront indispensables pour suivre les changements et identifier les zones du parc où des efforts de restauration ciblés seront nécessaires pour accélérer le rétablissement.
Enfin, une vraie chance
Rien de tout cela ne se produira en un claquement de doigts. Les écosystèmes alpins se régénèrent lentement, et des décennies de dégâts ne peuvent pas être effacées du jour au lendemain. Les courtes saisons de croissance font que les plantes repoussent progressivement, et non par à-coups. De nombreuses pentes et berges de ruisseaux portent encore les cicatrices du pâturage bovin plus de 60 ans après le départ du bétail. Les perturbations perdurent ici pendant des générations.
La diminution du nombre de chevaux n’est qu’un début, mais c’est une étape essentielle. Et désormais – avec moins de chevaux sur le terrain et la suppression des barrières légales – le parc du Kosciuszko dispose enfin d’une voie réaliste vers la restauration. La prochaine décennie déterminera combien de son fragile patrimoine alpin pourra finalement être retrouvé.
Le fragile écosystème alpin du parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND
David M. Watson reçoit des financements de recherche du gouvernement fédéral (via l’ARC, le DAFF, le DCCEEW) et siège aux conseils d’administration du Holbrook Landcare Network et des Great Eastern Ranges. Il a exercé deux mandats au sein du Comité scientifique des espèces menacées de la Nouvelle-Galles du Sud, avant de démissionner lorsque la Wild Horse Heritage Act est entrée en vigueur en juin 2018.
Patrick Finnerty est actuellement directeur pour les carrières émergentes en écologie à l’Ecological Society of Australia, coordinateur des jeunes chercheurs à l’Australasian Wildlife Management Society, et membre du conseil de la Royal Zoological Society of NSW. Il reçoit des financements de l’Australian Research Council.
Des centres urbains, où se concentrent les hauts revenus, aux territoires périphériques, où ils disparaissent, la carte des foyers les plus aisés de France raconte une histoire singulière des inégalités. En retraçant leur répartition géographique depuis 1960, une nouvelle étude éclaire les conséquences spatiales des transformations structurelles de l’économie française, et les tensions sociales et politiques qu’elles continuent d’alimenter.
Réduire les écarts entre territoires est un objectif récurrent des politiques publiques, en France comme en Europe. L’Union européenne (UE) en a fait un principe fondateur, inscrit à l’article 174 du Traité sur le fonctionnement de l’Union européenne (TFUE) :
« Afin de promouvoir un développement harmonieux de l’ensemble de l’Union, celle-ci vise à réduire les écarts entre les niveaux de développement des diverses régions. »
Pourtant, cet objectif est aujourd’hui plus que jamais mis à l’épreuve. En France, comme ailleurs, les dernières décennies ont vu s’accentuer un sentiment de fracture territoriale : d’un côté, quelques grandes métropoles concentrent les emplois qualifiés, les sièges d’entreprises, les services de haut niveau ; de l’autre, de vastes espaces voient leurs activités industrielles décliner, leurs jeunes partir et leurs revenus stagner.
Ces déséquilibres économiques ne sont pas sans conséquence sociale ou politique, comme les dernières années l’ont montré avec force. Des ronds-points des « gilets jaunes » aux cartes électorales où se lit la progression de l’abstention ou du vote pour les partis extrêmes, la colère sociale a souvent une géographie. Là où les opportunités économiques se raréfient, les perspectives se referment, le sentiment d’injustice s’installe, et une question fondamentale émerge : que devient une société lorsque les perspectives de réussite se concentrent exclusivement dans quelques territoires ?
Un indicateur plus fin pour comprendre ces enjeux
Comprendre ces enjeux suppose d’abord de bien les mesurer. Or, les indicateurs couramment utilisés dans la littérature économique tendent à masquer la réalité des disparités territoriales. On analyse souvent le développement d’une région à l’aune du produit intérieur brut par habitant ou du revenu moyen, sans tenir compte des différences de structures sociales : ici, une forte proportion de ménages aisés et modestes ; là, une population plus homogène, composée de classes moyennes. Ainsi, la répartition des revenus constitue un élément central pour comprendre les dynamiques locales.
Dans un article à paraître dans le Journal of Economic Geography, nous avons voulu dépasser ces limites en construisant une base de données inédite retraçant la répartition des foyers fiscaux appartenant aux 10 % et aux 1 % les plus aisés dans les départements de France hexagonale depuis 1960. Ce travail, rendu possible par une collecte de longue haleine dans les archives du ministère des finances, offre pour la première fois la possibilité d’observer sur plus d’un demi-siècle la géographie des hauts revenus en France et les transformations qu’elle révèle.
À partir de ces données, nous proposons un indicateur simple mais riche de sens : la part des très hauts revenus (Top 1 %) et des hauts revenus (Top 10 % moins Top 1 %) dans la population locale. On peut interpréter ces indicateurs comme la probabilité, pour un individu, d’appartenir aux ménages aisés selon le territoire où il vit.
Cette approche offre un regard nouveau sur les fractures territoriales contemporaines. Là où les opportunités économiques s’amenuisent, les plus qualifiés, les plus ambitieux, les plus mobiles partent ailleurs, laissant derrière eux des territoires appauvris en capital humain et en perspectives. Ces départs nourrissent à leur tour un sentiment de déclassement collectif, l’impression diffuse que « le progrès se passe ailleurs ».
Les cartes de la figure 1 retracent plus de soixante ans d’histoire sociale du territoire français. Elles montrent, pour trois dates clés (1960, 1990 et 2019), la part des ménages appartenant aux très hauts revenus (à gauche) et aux hauts revenus (à droite). Si les foyers fiscaux aisés étaient répartis uniformément, ces parts seraient respectivement de 1 % et de 9 % dans tous les départements : ce sont les zones blanches sur les cartes. Dans la réalité, ce n’est pas le cas : les nuances d’orange et de rouge signalent donc une surreprésentation locale, les teintes de bleu une sous-représentation. Il faut enfin rappeler que la géographie administrative de l’Île-de-France est passée de trois départements au début des années 1960 à huit aujourd’hui.
L’importance de la ligne Caen-Annecy dans les années 1960
En 1960, la France des très hauts revenus est très largement structurée par une ligne Caen-Annecy. Au sud, la part des foyers aux très hauts revenus dans la population locale est faible, souvent moins de 0,5 % (nous l’estimons par exemple à 0,1 % en Lozère). Seules quelques zones urbaines ou industrielles (Rhône, Haute-Garonne, Isère, Haute-Savoie) se distinguent légèrement. Au nord, la présence des foyers les plus aisés s’intensifie, notamment en région parisienne, où la part atteint 2,6 % dans le département de la Seine et 1,6 % en Seine-et-Oise, ou dans le département du Nord.
Trente ans plus tard, la ligne Caen–Annecy a perdu son sens. Les départements où les très hauts revenus sont rares se concentrent près du Massif central (0,4 % en Lozère). Un second pôle où se concentrent les foyers aux très hauts revenus s’est formé à la frontière suisse (Ain, Savoie, Haute-Savoie), tandis que la Côte d’Azur, les métropoles du Sud-Ouest (Toulouse, Bordeaux) et quelques villes du centre (Dijon, Tours) gagnent en attractivité. On observe une forte polarisation en Île-de-France : les très hauts revenus sont très présents à Paris, dans les Hauts-de-Seine et dans les Yvelines, mais très peu nombreux en Seine-Saint-Denis.
Une nouvelle géographie aujourd’hui
En 2019, la rupture est manifeste. Les très hauts revenus sont absents dans la plupart des départements de la « diagonale du vide », tandis que la France des très hauts revenus se réduit à quelques pôles métropolitains (Bordeaux, Nantes, Toulouse, Marseille, Dijon, Strasbourg, Nice) qui conservent des parts proches de 1 % et à la frontière suisse où elle est de 2 % en Haute-Savoie. En Île-de-France, la polarisation atteint des sommets : la part des très hauts revenus est seulement de 0,4 % en Seine-Saint-Denis, mais de 4,5 % à Paris, 4,2 % dans les Hauts-de-Seine, et 2,8 % dans les Yvelines.
Les cartes des hauts revenus (hors Top 1 %) confirment ces dynamiques. En 1960, les foyers aisés sont déjà concentrés autour de Paris et du Rhône tandis que la Bretagne, le Sud-Ouest et le Massif central en comptent peu (moins de 3 % en Aveyron ou en Haute-Loire). En 1990, cette géographie change. La frontière suisse, la Côte d’Azur et plusieurs métropoles régionales rejoignent le groupe des départements surreprésentés. En 2019, les écarts s’accentuent encore, mais la logique reste la même : une sous-représentation persistante dans le centre du pays, et une forte surreprésentation des ménages aisés en région parisienne et près de la frontière suisse. La part de ces foyers est maximale dans les Hauts-de-Seine et dans les Yvelines, où elle atteint 18 %.
Figure 1 : Proportion des très hauts revenus et des hauts revenus dans la population locale en 1960, en 1990 et en 2019.
Fourni par l’auteur
Notes : On définit la part des très hauts revenus comme la proportion de ménages faisant partie des 1 % de ménages aux plus hauts revenus (respectivement 10 % de ménages aux plus hauts revenus moins les 1 % aux plus hauts revenus) tels que définis en France hexagonale.
Des trajectoires divergentes depuis la fin des années 1990
Ces transformations géographiques détaillées peuvent se résumer en un indicateur unique : l’indice de Theil, couramment utilisé pour mesurer les inégalités économiques. Nous l’avons calculé pour chaque année à partir de la part des foyers appartenant aux très hauts revenus ou aux hauts revenus dans chaque département (en vert et en orange sur la figure 2), en conservant une classification départementale stable sur toute la période. Cet indicateur permet de mesurer si ces parts se sont rapprochées ou, au contraire, éloignées au fil du temps. Pour faciliter la comparaison entre les deux courbes, les valeurs ont été normalisées à 1 en 1962.
Le résultat est frappant : après quarante ans de convergence, les écarts territoriaux se sont de nouveau creusés depuis la fin des années 1990. En vingt ans, la concentration géographique des très hauts revenus a triplé, retrouvant son niveau du début de la période. C’est bien le signe d’un retour marqué des inégalités régionales, tirées par le haut de la distribution des revenus.
Figure 2 : Évolution des inégalités d’opportunités économiques régionales entre 1960 et 2019.
Fourni par l’auteur
L’impact de la désindustrialisation
Nous avons cherché à comprendre pourquoi ces opportunités économiques régionales de faire partie des ménages aux très hauts revenus ont d’abord convergé, avant de diverger à nouveau fortement. Deux transformations majeures permettent d’en comprendre la logique.
Dans les années 1960, la présence de très hauts revenus s’expliquait avant tout par la concentration d’activités industrielles, elles-mêmes très inégalement réparties sur le territoire national au profit des régions du Nord-Est. Puis, entre 1960 et 1990, les structures productives régionales se sont progressivement rapprochées : les territoires longtemps agricoles se sont industrialisés tandis que les grandes régions manufacturières perdaient peu à peu leur avantage relatif. Ce mouvement de rééquilibrage a favorisé une réduction des différences régionales d’opportunités économiques.
Enfin, à partir des années 1990, la désindustrialisation s’est généralisée à l’ensemble du pays tout en s’accompagnant d’une montée en puissance des services à haute valeur ajoutée. Ce sont eux qui expliquent alors où se trouvent les opportunités économiques de faire partie des ménages aux très hauts revenus. Or, ces activités se trouvent majoritairement dans les grandes métropoles, où elles bénéficient de la présence d’emplois qualifiés, d’infrastructures performantes et de politiques publiques volontaristes, comme l’illustre l’écosystème scientifique et technologique développé sur le plateau de Saclay (Essonne) depuis une quinzaine d’années. On retrouve cette logique dans la région frontalière de Genève, où la concentration d’emplois hautement qualifiés dans les services financiers explique en partie la surreprésentation de ménages à très hauts revenus dans les départements de la Haute-Savoie et de l’Ain.
Une économie polarisée et des territoires « laissés pour compte »
Pour finir, nous défendons l’idée selon laquelle les inégalités territoriales ne tiendraient pas seulement à des écarts de revenus par habitant entre régions, mais à la manière dont les revenus les plus élevés se répartissent dans l’espace.
Depuis les années 2000, les opportunités économiques se concentrent dans un tout petit nombre de territoires, reflet d’une économie de plus en plus polarisée autour de quelques métropoles et de leurs bassins d’emplois qualifiés. En France, comme ailleurs, les transformations structurelles ont progressivement creusé l’écart entre des régions gagnantes, insérées dans l’économie de la connaissance, et d’autres qui peinent à en profiter.
Ce phénomène s’inscrit dans une dynamique plus large, documentée dans la littérature internationale sous le concept de left-behind places. Ces territoires « laissés pour compte » se retrouvent déconnectés des pôles de croissance et des réseaux de pouvoir économique, et expriment à intervalles réguliers le sentiment d’abandon qui les ronge. Réduire ces écarts ne relève donc pas d’un enjeu d’efficacité économique, mais d’un impératif démocratique.
Aujourd’hui, la question reste entière : comment faire en sorte que la transition vers une économie fondée sur les savoirs, les services et l’innovation ne creuse pas davantage les fractures entre territoires ? En retraçant cette histoire sur plus d’un demi-siècle, nos travaux rappellent que la géographie des hauts revenus est mouvante, et ne saurait se passer de volontarisme politique.
Hippolyte d’Albis a reçu des financements de l’ANR et de la Commission européenne.
Aurélie Sotura et Florian Bonnet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
Source: The Conversation – in French – By Fabrice Lollia, Docteur en sciences de l’information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
L’arrestation de Nicolas Maduro révèle que la légitimité politique contemporaine se construit moins par le droit ou la force que par la capacité à imposer un récit et une vision du monde.
L’arrestation du président vénézuélien Nicolas Maduro à la suite d’une opération états-unienne constitue un événement géopolitique d’ampleur. Mais elle dépasse le cadre diplomatique : elle s’est immédiatement transformée en crise informationnelle.
En quelques heures, plusieurs récits concurrents ont émergé : opération de justice internationale pour certains, violation flagrante du droit international pour d’autres, coup de force impérialiste ou acte nécessaire pour libérer un peuple. Dans cet entrelacs de discours, une bataille bien plus décisive s’est ouverte : celle du récit légitime et de la construction d’un sens partagé.
Les crises contemporaines ne se jouent plus seulement dans les arènes politiques, ou militaires. Elles se construisent désormais dans l’espace de l’information, là où se forment les perceptions, les émotions collectives et, in fine, les lectures du réel. Ce que met à nu l’affaire Maduro, c’est la centralité du narratif dans la production de légitimité politique à l’échelle mondiale.
Dans ce type de crise, la question n’est pas seulement que s’est-il passé ? mais comment devons-nous comprendre ce qui s’est passé ? et surtout, qui a la légitimité pour dire la vérité des événements ?
Un événement politique devenu immédiatement un événement informationnel
Dès l’annonce de l’arrestation, trois dynamiques se mettent en place simultanément.
Tout d’abord, une production institutionnelle du sens où gouvernements, chancelleries, organisations internationales émettent des positions, chacune arrimée à un cadre de légitimation (sécurité, souveraineté, droit, ordre international).
Ensuite, les médias ne se limitent pas à nommer l’événement : ils le scénarisent. Par le choix des images, des angles et des séquences narratives, ils transforment un fait politique en récit intelligible, assignant des rôles, des responsabilités et des émotions. Cette mise en scène médiatique contribue à stabiliser temporairement un sens partagé, participant ainsi à la construction de la légitimité.
Enfin, c’est une explosion numérique où circulent simultanément informations fiables, interprétations partisanes, contenus émotionnels et désinformation. Cette couche numérique loin d’être simplement périphérique structure la manière dont une large part du monde se représente les faits.
Ainsi, ce que nous observons n’est pas seulement la confrontation d’États, mais la confrontation de récits visant à imposer une lecture dominante de la réalité. La lutte ne porte plus uniquement sur ce qui s’est passé, mais sur la manière dont il convient de l’interpréter, de l’évaluer et de l’inscrire dans une mémoire collective.
Une guerre de narratifs : trois grands cadres concurrents
Un narratif états-unien sur l’ordre, la sécurité et la légitimité morale
Le discours états-unien mobilise une stratégie classique de sécurisation, en présentant Nicolas Maduro non plus comme un chef d’État souverain, mais comme un « indicted drug trafficker » (« trafiquant de drogue inculpé ») et leader d’un « vicious terrorist organization » (« organisation terroriste violente ») – le Cartel de los Soles –, fusionnant ainsi régime politique et entreprise criminelle transnationale.
Ce déplacement symbolique joue un rôle d’ampleur en reconstruisant une opération militaro-judiciaire potentiellement illégitime au regard du droit international (capture extraterritoriale, frappes ciblées) en action de maintien de l’ordre mondial, moralement justifiable au nom de la lutte contre le narcotrafic et la menace sécuritaire pour les États-Unis.
La rhétorique mobilise trois registres : le registre pénal avec la lutte contre le crime, la corruption ou le narcotrafic, un registre éthique avec la protection des peuples et la restauration d’une justice prétendument universelle, enfin un registre sécuritaire nourrit par l’argumentaire principal de stabilisation d’une région présentée comme dangereuse.
On retrouve ici ce que les chercheurs appellent l’« agenda setting » : en choisissant les mots et les thèmes dominants du débat (crime, menace, protection), le pouvoir politique influence directement la manière dont l’opinion publique perçoit l’événement. Le politologue américain Joseph Nye, professeur en relations internationales à Harvard, définit ce soft power comme la capacité d’un État à influencer les autres, non pas seulement par la force mais en façonnant leurs préférences grâce à l’attraction, à la crédibilité et à la perception de légitimité.
Un narratif contraire sur la souveraineté, le droit, et d’alerte sur l’ordre international
En face, un contre-récit s’est immédiatement imposé. Pour de nombreux États et observateurs, cette opération constitue une atteinte grave à la souveraineté et crée un précédent dangereux pour l’ordre international. Ce discours s’appuie sur le droit international, notamment l’article 2 (4) de la Charte des Nations unies, qui interdit le recours à la force contre l’intégrité territoriale ou l’indépendance d’un État. Il dénonce une action unilatérale qui contourne les règles collectives et menace l’équilibre du système multilatéral.
Il relève d’une rhétorique d’alerte : ce qui se produit au Venezuela pourrait devenir une norme globale, avec des échos immédiats dans d’autres débats sensibles – comme celui concernant des dirigeants tels que le président Poutine déjà visés par des procédures internationales.
Le narratif numérique par l’émotion, la polarisation et la fabrication du doute
Un troisième narratif se déploie sur les réseaux sociaux selon des logiques d’amplifications émotionnelles (diffusion d’images générées par IA montrant Maduro en pyjama et fausses informations visant son prédécesseur Hugo Chavez), de circulation accélérée et de simplification extrême. Il en résulte une fragmentation cognitive qui produit des réalités parallèles.
Les sciences de l’information et de la communication montrent que, à l’ère numérique, l’enjeu dépasse la seule désinformation. Il s’agit d’une concurrence des régimes de vérité où ne prime plus uniquement ce qui est vrai, mais ce qui est crédible, ce qui raisonne émotionnellement et ce qui s’aligne avec une vision préexistante du monde.
La construction d’un récit politique n’est jamais improvisée. Elle repose sur quelques mécanismes clés :
moraliser le discours en opposant « bien » et « mal » ;
aligner communication et gestes symboliques pour renforcer la crédibilité ;
exploiter l’économie de l’attention propre aux plateformes numériques.
L’objectif n’est pas seulement d’informer mais de rendre une lecture du réel évidente et acceptable pour le plus grand nombre.
Infographie fournie par l’auteur, Fourni par l’auteur
Ce que révèle cet événement
Trois enseignements majeurs se dégagent. Premièrement, l’effritement des cadres de référence communs. Le monde n’interprète plus les événements à partir d’un socle partagé. Les publics, les États et les institutions lisent la réalité selon des référentiels distincts. Ce qui renforce la conflictualité informationnelle.
Deuxièmement, la montée en puissance de la guerre cognitive est frappante. L’affaire Maduro illustre l’information warfare, c’est-à-dire l’usage stratégique de l’information pour influencer perceptions et décisions. Dans ce cadre, l’essor de l’IA agentique, fondée sur des systèmes d’IA autonomes et adaptatifs (par le biais d’agents), permet de produire et d’ajuster des narratifs ciblés à grande échelle. Combinées à la messagerie personnalisée, ces techniques orientent comportements et alliances, sans confrontation militaire directe. La bataille se joue désormais dans l’espace cognitif plus que sur le terrain physique.
Pour terminer, la centralité stratégique du narratif est construite. Aujourd’hui, gouverner, c’est raconter, c’est produire un récit qui donne sens, qui justifie, légitime et inscrit l’action politique dans une cohérence. Les États qui ne maîtrisent pas cette dimension sont désormais structurellement désavantagés.
L’arrestation du président Nicolas Maduro ouvre un débat juridique et politique immense. Mais elle montre surtout une transformation profonde de nos sociétés ; la légitimité ne repose plus seulement sur les normes ou la force. Elle se fabrique dans la capacité à imposer une vision du réel.
À l’heure où la confiance dans les institutions recule, où la circulation de l’information s’accélère et où les arènes numériques fragmentent nos représentations, la question centrale devient : qui raconte le monde ? Et surtout, quelles histoires sommes-nous prêts à croire ?
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Les enseignes de restauration rapide sont-elles la cause ou la conséquence de la désertification de certains centres-villes ? Comment expliquer ce phénomène ? Faut-il lutter contre ? Et comment s’y prendre ?
Nice-Matin rappelait dans son édition du 9 octobre 2025 que la France rurale voyait disparaître ses commerces alimentaires à un rythme alarmant. Ce sont près de 62 % des communes qui ne disposeraient d’aucune boulangerie, épicerie ni de bar. En 1980, on n’en dénombrait que 25 % dans la même situation. En quarante ans, ce phénomène a plus que doublé, illustrant la désertification progressive des campagnes françaises. Dans le même temps, la grande majorité des villes a vu le tissu de commerces de proximité évoluer drastiquement.
Le Parisien (2021) rapportait par exemple qu’à La Courneuve (Seine-Saint-Denis), on comptait 18 fast-food pour 12 pharmacies. À l’inverse, à Neuilly-sur-Seine (Hauts-de-Seine), on recense 18 pharmacies, six fast food ou sandwicheries auxquels s’ajoutent plusieurs bars à salade « premium ». Dans des villes de moindre taille, hors d’Île-de-France, l’équation se vérifie aussi. À Annonay (Ardèche), l’une des communes les plus touchées par la désertification commerciale, on recense aujourd’hui 13 enseignes de tacos, kebabs, burgers et pizzas à emporter, pour sept pharmacies, soit pratiquement le double. Même population, région différente : à Vire (Calvados), ce sont cinq enseignes pour sept pharmacies.
La comparaison entre le nombre de lieux de restauration rapide et le nombre de pharmacie permet de mieux appréhender l’âge moyen d’une population. En effet, plus la population est vieillissante, moins elle serait portée vers des offres comme le fast-food.
Certains travaux en urbanisme et en santé publique indiquent ainsi qu’il existe des liens indirects (mais réels) entre l’implantation d’enseignes de malbouffe (fast-food), la désertification des centres-villes (fermeture de commerces, baisse de diversité commerciale, L’aggravation des risques de santé et l’attractivité – ou le manque d’attractivité – pour certaines nouvelles populations. De façon synthétique, ces études montrent :
qu’il existe une association robuste entre l’exposition à la restauration rapide et des comportements alimentaires pouvant amener à de l’obésité …
qu’une surreprésentation des enseignes de malbouffe dans certains quartiers fragilisés est identifiée ;
que l’augmentation de la vacance commerciale va de pair avec une moindre diversité d’offre (plus d’enseignes standardisées, moins de commerces indépendants), contribuant à une image de dévitalisation.
Pouvoir capter facilement les flux
Pour comprendre ces mouvements, il faut mentionner que les enseignes de restauration rapide s’installent généralement dans des contextes précis, comme le suggère un travail en cours que nous menons avec la Métropole Rouen Normandie. On parle notamment de villes (ou des centres-villes) où les loyers sont abordables et où de nombreux espaces vacants existent (centres-villes en déclin ou friches commerciales). Ensuite, elles cherchent des lieux où les flux de passage sont faciles à capter, et ce même si le tissu commercial traditionnel faiblit. Enfin, elles s’épanouissent dans des contextes avec une faible concurrence locale, les commerces indépendants fermant. On peut donc voir dans leur présence comme un symptôme de la fragilisation commerciale, même s’ils n’en sont peut-être pas la cause principale.
Ensuite, il faut comprendre le phénomène de désertification. Rappelons tout d’abord qu’il n’a, malheureusement, rien de nouveau. La loi du 18 juin 2014 relative à l’artisanat, au commerce et aux très petites entreprises, se voulait un dispositif pour contrer ce phénomène. L’enveloppe d’un million d’euros débloquée l’année suivante pour financer les stratégies de développement urbain a bien montré son insuffisance. Les principaux acteurs se renvoyant la responsabilité de cette désertification.
Moins de diversité commerciale
Cette désertification se manifeste donc principalement par la fermeture de commerces indépendants. Ces fermetures entraînant naturellement une baisse de diversité dans l’offre (alimentaire, services, équipements…) qui va accélérer la disparition d’espaces de sociabilité.
Tout d’abord la croissance des zones commerciales périphériques. De plus en plus nombreuses et censées attirer plus de monde, elles ont l’effet inverse du point de vue de l’attractivité des consommateurs dans les centres-villes. Certes, ils vont consommer plus, mais en dehors des zones où les commerçants-artisans se trouvent.
Deuxièmement, les mairies se tournent vers d’autres modèles en transformant les locaux en logements ou bureaux.
Enfin, la montée constante de l’e-commerce. Autant il peut être un moteur de changement positif (les études du cercap.fr notamment montrent l’impact fort de la numérisation sur la performance et pérennité des commerçants-artisans), autant il agit aussi comme un concurrent important des commerces traditionnels.
Un cercle vicieux ?
Dans ce contexte, les chaînes de fast-food prospèrent car elles ont des modèles économiques standardisés et très résilients, capables d’absorber des fluctuations de clientèle. Ceci explique donc à terme leur plus grande présence dans les centres-villes. Et cette surreprésentation a un lien naturel sur l’attractivité.
En effet, l’image d’un centre-ville saturé de fast-food peut avoir un réel effet négatif pour certaines populations. Les classes moyennes et supérieures recherchent souvent dans leur centre-ville une offre locale, des circuits courts, des cafés indépendants, voire un marché alimentaire de qualité. Un centre-ville dominé par des franchises de fast-food peut ainsi être perçu comme peu authentique, peu qualitatif, ou en déclin.
Qui vit là ?
Mais il se peut aussi que l’effet soit plus neutre, voire positif pour d’autres publics. De manière un peu simplifiée, les étudiants, les jeunes actifs à faible revenu ou les populations précaires y voient eux des prix abordables, des horaires d’ouverture larges et une offre alimentaire à bas coût. Le fast-food peut donc contribuer à attirer ou stabiliser ces populations. En ce sens, l’impact sur l’attractivité dépend fortement du profil socio-économique des habitants potentiels d’une ville ou d’un centre-ville.
France 3 Hauts-de-France, 2025.
Autrement dit, les fast-food ne sont pas généralement la cause originelle de la désertification, mais ils s’y insèrent, y prospèrent, et peuvent amplifier ses effets. Ainsi, un cercle vicieux, observé dans de nombreuses villes moyennes, peut-être présenté :
les commerces traditionnels partent ou ferment,
la diversité diminue, ce qui génère une perte d’attrait du centre-ville,
les enseignes plus standardisées s’installent,
le centre-ville voit son image détériorée,
l’attractivité des ménages plus aisés se réduit,
le déclin commercial se poursuit.
Loin d’être l’unique cause du phénomène, l’installation de fast-food constitue un marqueur et parfois un accélérateur de cette dynamique.
Nouvelle dynamique
En tant que chercheurs, il est important d’étudier s’il est possible de changer la donne et de créer une nouvelle dynamique. Une approche plus vertueuse pourrait ainsi voir le jour en commençant par exemple à repenser la circulation des centres-villes en y redonnant une place principale aux piétons. Une approche hybride avec une augmentation de l’offre de stationnements en périphérie et une piétonnisation de l’hyper centre-ville paraît intéressante.
Ensuite, réinvestir sur les marchés alimentaires comme premier vecteur d’attractivité. De plus, relancer un soutien clair aux commerces indépendants (qui ne peuvent profiter de la force des réseaux des franchisés) est essentiel. Enfin, il est possible d’imaginer la mise en place d’une vraie politique de régulation de l’occupation commerciale, où les fast-foods deviennent simplement une composante parmi d’autres et ne nuisent plus à l’attractivité de l’ensemble.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Source: The Conversation – in French – By Anthony Fardet, Chargé de recherches HC, UMR 1019 – Unité de Nutrition humaine, Université Clermont Auvergne, Inrae
Manger végétal, vrai et varié et consommer plus de produits issus d’une agriculture régénérant le vivant. Ces quatre objectifs permettent de concilier une alimentation bénéfique pour notre santé comme pour celle des écosystèmes.
Faire ses courses ressemble souvent à un casse-tête. On souhaiterait trouver des produits bon pour la santé, si possible ne venant pas du bout du monde, pas ultratransformés ni cultivés avec force pesticides et engrais chimiques, tout en étant à un prix abordable.
Mais ces enjeux peuvent parfois entrer en contradiction : des produits considérés comme sains ne sont pas toujours issus d’une agriculture de qualité, et inversement. En outre, de bons produits pour la santé et l’environnement ne permettent pas nécessairement d’avoir un régime alimentaire équilibré.
Alors comment sortir de ces dilemmes et aiguiller le consommateur ?
La règle des 4V. Fourni par l’auteur
Nous proposons la règle simple des 4V, qui tient compte des modes de production agricoles et de la composition de l’assiette en invitant à une alimentation vraie, végétale, variée et régénérant le vivant.
Manger plus végétal est également meilleur pour la santé. Cela permet aussi une réduction importante de plusieurs impacts environnementaux : réduction de l’empreinte carbone de notre alimentation, car moins d’émissions de gaz à effet de serre (GES) en agriculture ; moindre consommation de ressources (terres, énergie, eau).
Outre la réduction de notre consommation de protéines qui excède en moyenne de 40 % les recommandations, il est proposé de ramener la part des protéines animales à moins de 50 % de l’apport protéique, au lieu de 65 % actuellement. Au final, cela revient à diviser par deux la consommation de viande et un peu celle des produits laitiers, notamment le fromage. L’augmentation de la consommation de protéines végétales provient alors surtout des légumineuses. La végétalisation de l’assiette passe aussi par une consommation accrue de fruits et de légumes peu transformés, de céréales complètes et de fruits à coque.
Manger varié est un atout pour la santé, notamment pour l’équilibre nutritionnel afin d’éviter les déficiences. Cela suppose de diversifier fruits, légumes, céréales complètes, légumineuses et fruits à coque qui sont une source importante de fibres, minéraux, vitamines, oligo-éléments, anti-oxydants et autres phytonutriments bioactifs protecteurs.
Pour cela, il faudrait idéalement consommer de tous les groupes d’aliments tout en variant dans chaque groupe : par exemple, blé, maïs et riz complets pour les céréales. Manger les différents morceaux de viande – en particulier des bovins (par exemple des entrecôtes et pas seulement du steak haché) – est aussi important pour ne pas déstabiliser les filières.
Manger des produits issus d’une agriculture régénérant le vivant permet d’améliorer la densité nutritionnelle des aliments, de réduire l’empreinte environnementale de l’assiette, notamment pour les émissions de GES et d’azote, et aussi d’augmenter les services fournis à la société (séquestration de carbone, épuration de l’eau…).
La regénération du vivant désigne l’ensemble des actions visant à restaurer ou renouveler la fertilité des sols, les cycles de l’eau et de l’azote, la diversité des espèces et la résilience face aux changements climatiques, tout en consommant avec parcimonie les ressources non renouvelables (le gaz qui sert à fabriquer les engrais, le phosphore…). Ainsi, au-delà de la production de nourriture, l’agriculture régénératrice vise à fournir des services à la société, tels que la séquestration du carbone dans les sols, l’augmentation de la densité nutritionnelle des produits.
Types d’agriculture contribuant à la régénération du vivant
L’agriculture conventionnelle, qui vise l’intensification durable en utilisant les technologies pour réduire ses impacts, ne peut cependant pas régénérer le vivant, car elle porte toujours sur des systèmes simplifiés avec un nombre limité de cultures, des sols souvent pauvres en matières organiques, peu d’infrastructures écologiques et de très grandes parcelles.
Cependant, caractériser les modes de culture et d’élevage pour leurs impacts négatifs, mais aussi pour les services qu’ils rendent (séquestration du carbone, densité nutritionnelle des produits) permet d’aller au-delà de la dichotomie usuelle bio/conventionnel.
L’élevage est critiqué, car il introduit une compétition entre feed (nourrir les animaux) et food (nourrir les humains). Cette compétition est bien plus faible pour les vaches, qui mangent de l’herbe, que pour les porcs et les volailles, qui sont nourris avec des graines. Elle est aussi d’autant plus faible que les élevages sont autonomes pour l’énergie et les protéines. Des exemples d’élevage contribuant à la régénération du vivant sont les élevages herbagers et biologiques, dont l’alimentation provient surtout des prairies, ainsi que les élevages Bleu Blanc Cœur pour lesquels l’ajout de lin, graine riche en oméga-3, dans la ration des animaux, a des effets positifs sur leur santé, la nôtre et la planète puisqu’il y a une réduction des émissions de GES en comparaison à des élevages courants.
Il s’agit d’agricultures agroécologiques, telles que l’agriculture biologique, l’agriculture de conservation des sols, s’il y a une réduction effective des pesticides, voire l’agroforesterie.
Des initiatives sont en cours pour évaluer l’impact environnemental des produits agricoles et alimentaires. Elles permettent de qualifier les modes de culture et d’élevage en termes d’impacts sur le climat, la biodiversité, en mobilisant la base de données Agribalyse. Elles tiennent compte aussi des services fournis comme la séquestration du carbone, la contribution à la pollinisation des cultures, comme le montre la recherche scientifique.
À ce jour, deux initiatives diffèrent par la manière de prendre en compte les services et de quantifier les impacts. La méthode à retenir dépendra de leur validation scientifique et opérationnelle.
Par ailleurs, les modes de production en agriculture sont très dépendants des intrants de synthèse (énergie, engrais, pesticides) dont les excès dégradent la qualité des sols, de l’eau, de l’air, la biodiversité ainsi que la densité nutritionnelle en certains micronutriments.
Nous sommes parvenus à un point où nos modes d’alimentation ainsi que les modes de production agricole qui leur sont associés génèrent des coûts cachés estimés à 170 milliards d’euros pour la France. La nécessité de refonder notre système alimentaire est maintenant reconnue par les politiques publiques.
Un cercle vertueux bon pour la santé et l’environnement
Manger varié encourage la diversification des cultures et le soutien aux filières correspondantes. Il en est de même pour manger vrai, car les industriels qui fabriquent des aliments ultratransformés n’ont pas besoin d’une diversité de cultures dans un territoire. Dit autrement, moins on mange vrai, moins on stimule l’agriculture contribuant à régénérer le vivant. Manger varié est également meilleur pour la santé mais aussi pour le vivant.
Par ailleurs, les pratiques agricoles régénératives permettent généralement d’avoir des produits de plus grande densité nutritionnelle. Même si le mode de production de l’agriculture biologique émet souvent plus de GES par kilo de produit que le mode conventionnel, il suffit de consommer un peu moins de viande pour compenser cet effet.
La règle des 4V (Figure 2) permet donc d’embarquer tous les acteurs du système alimentaire, du champ à l’assiette, ainsi que les acteurs de la santé. Ainsi, adhérer simultanément à vrai, végétal, varié a récemment été associé à une réduction de 27 % du risque de cancer colorectal.
Quant au concept de régénération du vivant, il demeure parlant pour tous les maillons de la chaîne. Vivant, varié et végétal s’adressent aux agriculteurs ; vrai concerne les transformateurs et, in fine, le distributeur qui peut offrir ou non du 4V aux consommateurs. Cette règle des 4V permet ainsi de sensibiliser les acteurs du système alimentaire et les consommateurs aux facteurs à l’origine des coûts cachés de l’alimentation, tant pour la santé que l’environnement.
Enfin, un tel indicateur qualitatif et holistique est facile d’appropriation par le plus grand nombre, notamment les consommateurs, tout en constituant un outil d’éducation et de sensibilisation au concept « Une seule santé » pour l’alimentation, comblant le fossé entre sachants et non-sachants.
Anthony Fardet est membre des comités scientifiques/experts de MiamNutrition, The Regenerative Society Foundation, Centre européen d’excellence ERASME Jean Monnet pour la durabilité, Projet Alimentaire Territorial Grand Clermont-PNR Livradois Forez et l’Association Alimentation Durable. Il a été membre du comité scientifique de Siga entre 2017 et 2022.
Michel Duru est membre du conseil scientifique de PADV (Pour une Agriculture Du Vivant)