Maladie d’Alzheimer et virus de l’herpès : que dit la science sur les liens possibles ?

Source: The Conversation – France in French (3) – By Benoît Delatour, Directeur de Recherche CNRS, Institut du cerveau (ICM), Sorbonne Université

Des études publiées dans des revues scientifiques de premier plan soutiennent l’hypothèse de liens entre la maladie d’Alzheimer et l’exposition au virus de l’herpès. Les travaux de recherche se poursuivent pour confirmer ou non ce scénario, sachant qu’Alzheimer est une pathologie complexe, très certainement déterminée par de multiples facteurs de risque.


La maladie d’Alzheimer est une pathologie neurodégénérative qui touche des sujets âgés dans sa forme la plus commune. On estime que 1 200 000 personnes souffrent de maladies neurodégénératives de type Alzheimer en France.

Découverte il y a un siècle, cette pathologie reste très largement énigmatique et les mécanismes exacts à l’origine de son déclenchement et de son évolution mal connus.

Parmi les hypothèses qui font l’objet de recherche, celle d’un lien entre Alzheimer et l’exposition au virus de l’herpès se voit renforcée par des publications récentes.

Des lésions cérébrales à l’origine d’un trouble cognitif majeur

La maladie d’Alzheimer est caractérisée par un ensemble de lésions microscopiques, initialement confinées dans certaines régions cérébrales. Les lésions se propagent ensuite, au fil de l’évolution de la maladie, dans de multiples aires du cerveau.


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Cette progression lente et stéréotypée des atteintes cérébrales s’accompagne de symptômes cliniques gradués (troubles de mémoire, perturbations du langage, difficulté à raisonner et planifier les actions, etc.). Les patients atteints de la maladie d’Alzheimer vont ainsi développer un trouble neurocognitif majeur (le terme de démence est parfois utilisé) menant à la perte d’autonomie, à l’isolement social et à la disparition des facultés mentales les plus complexes, évoluées et représentatives de l’espèce humaine.

Les lésions cérébrales qui entrainent ces manifestations cliniques dramatiques sont schématiquement de deux types :

  • 1) Certaines lésions sont présentes à l’intérieur des neurones sous forme d’enchevêtrements fibrillaires (on parle de « dégénérescence neurofibrillaire ») constitués d’une protéine, la protéine tau, qui s’accumule sous une forme anormale.

  • 2) D’autres lésions sont identifiées dans l’espace extracellulaire du tissu cérébral, sous la forme de plaques, dont la nature chimique est principalement composée d’une protéine (le peptide amyloïde-ß ou Aß) : les plaques amyloïdes.

Les dégénérescences neurofibrillaires et les plaques amyloïdes constituent la signature neuropathologique de la maladie d’Alzheimer. Toutefois, d’autres lésions sont observées dans les cerveaux des patients.

À ce jour, aucun traitement préventif ou curatif

Concernant les mécanismes à l’origine de la maladie, une avancée importante s’est produite au tournant des années 90 avec l’identification, chez certains patients, de mutations génétiques impliquées dans la production du peptide Aß.

Ces découvertes ont permis d’ébaucher l’hypothèse de la « cascade amyloïde » qui propose que l’accumulation de peptide Aß dans le cerveau est un événement princeps et fondateur qui va entrainer l’ensemble des autres lésions cérébrales et mener à la démence.

Cependant, les mutations responsables d’une surproduction d’Aß ne concernent qu’une très faible minorité de patients (moins de 1 %) et il est vraisemblable qu’une multitude d’autres facteurs causaux sont à l’œuvre dans la maladie.

Sans connaissance approfondie des mécanismes responsables de la maladie d’Alzheimer, il n’est pas illogique de constater qu’aujourd’hui aucun traitement préventif ou curatif efficace ne soit disponible, malgré l’effort de recherche thérapeutique très conséquent.

L’identification des déterminants causaux à l’origine de la maladie d’Alzheimer et des facteurs qui viennent moduler le risque de développer cette maladie ou qui en modifient la trajectoire est une priorité et mobilise de nombreuses équipes de recherche.

Des liens possibles entre Alzheimer et le virus de l’herpès

Récemment, un article scientifique publié dans la prestigieuse revue Neuron a rapporté des données inédites. Cette étude a analysé deux cohortes de plusieurs milliers de sujets finlandais ou anglais et montré qu’une encéphalite virale (une inflammation du cerveau consécutive à une infection virale) augmentait de 20 à 30 fois le risque de développer ultérieurement une maladie d’Alzheimer.

Ces travaux faisaient suite à d’autres études, dans différents pays, qui indiquaient un risque accru de développer une maladie d’Alzheimer après infection au virus de l’herpès (HSV-1), un virus hautement neurotrope (c’est-à-dire capable de pénétrer dans le cerveau). Ces mêmes études soulignaient l’effet protecteur (une réduction du risque de maladie d’Alzheimer) d’un traitement antiviral.

Plus récemment et de façon encore plus convaincante des études quasi expérimentales en population humaine ont montré, au Pays de Galles, en Australie et aux USA, que la vaccination contre le virus de la varicelle-zona (VZV), un virus de la même famille que le virus de l’herpès (HSV-1), réduisait de façon significative le risque de développer une démence.

Une hypothèse déjà défendue il y a 40 ans

L’hypothèse d’un rôle des virus, en particulier des virus de l’herpès, dans la maladie d’Alzheimer n’est pas nouvelle. Elle a été défendue, il y a plus de 40 ans, par un neurologue canadien, Melvyn Ball, qui suggérait que les réactivations du virus de l’herpès HSV-1 (le fameux bouton de fièvre) pourraient s’accompagner d’une neuroinvasion (c’est-à-dire une pénétration du virus dans le cerveau) et d’une dégénérescence des tissus cérébraux déclenchant une démence de type maladie d’Alzheimer.

Des travaux de recherche sont venus par la suite étayer l’hypothèse, en identifiant des « signatures virales » (correspondant aux protéines ou au génome du virus) qui marquent la présence de virus de l’herpès (HSV-1) dans les cerveaux des patients atteints de la maladie d’Alzheimer, notamment au niveau des plaques amyloïdes.

Ces observations, ainsi que les premières études épidémiologiques, peuvent cependant être critiquées : mettre en évidence une association entre infection et maladie d’Alzheimer n’est pas suffisant pour établir un lien de causalité !

On pourrait même postuler, de façon provocatrice, que c’est la maladie d’Alzheimer qui rend l’organisme permissif aux infections virales (et non l’inverse !), expliquant ainsi la présence de matériel viral dans les cerveaux des patients Alzheimer.

Alzheimer et HSV-1 : pourquoi la recherche rebondit aujourd’hui

L’hypothèse infectieuse de la maladie d’Alzheimer s’est néanmoins trouvée renforcée, plus récemment, par deux séries de résultats expérimentaux :

  • 1) la découverte que le peptide Aß qui précipite au cœur des plaques amyloïdes a des fonctions antimicrobiennes et pourrait ainsi participer à une réponse physiologique (immunitaire) en réaction à une infection virale,

  • 2) le fait de réussir à induire, après infection par le virus de l’herpès (HSV-1) in vitro (dans des cultures de cellules) ou in vivo chez l’animal, d’une surproduction de peptides Aß et de protéines tau pathologiques (la protéine tau étant, on le rappelle, l’autre marqueur moléculaire de la maladie d’Alzheimer).

L’hypothèse d’un scénario à plusieurs étapes

La compréhension des relations entre infections virales et maladie d’Alzheimer a donc progressé ces dernières années et de nouvelles hypothèses émergent.

Concernant HSV-1, le virus le plus étudié, un scénario en plusieurs étapes peut être proposé :

  • 1) l’infection au virus de l’herpès (HSV-1) est courante dans nos populations et le virus est capable d’entrer en sommeil (phase de latence) pendant plusieurs décennies dans certains ganglions nerveux,

  • 2) au cours du vieillissement l’organisme fait face à différents stress qui, combinés à une baisse d’efficacité des défenses immunitaires du sujet âgé, vont favoriser la sortie de latence du virus et sa propagation dans le cerveau,

  • 3) la présence de virus actifs dans le cerveau va engendrer une réponse Aß et tau locale, à bas bruit, dans les zones infectées,

  • 4) ces lésions Aß et tau, associées à une inflammation cérébrale, vont initier un cercle vicieux d’autoamplification menant à l’intensification et à la propagation des lésions dans d’autres régions cérébrales.

Ce scénario hypothétique va nécessiter un important effort de recherche pour être validé (ou déconstruit, ainsi va la science !). Des travaux expérimentaux sont nécessaires chez l’animal ou sur des préparations tissulaires tridimensionnelles (organoïdes cérébraux) pour étudier finement la relation causale entre infection et marqueurs biologiques de la maladie d’Alzheimer.

Les études se poursuivent

Les études épidémiologiques, dans les populations humaines, se poursuivent également et cherchent à affiner l’impact des niveaux d’infection sur l’apparition ou l’aggravation des biomarqueurs de la maladie d’Alzheimer.

Au final, c’est un ensemble de champs disciplinaires qui est convoqué et qui nécessite la communication et le partage de connaissances et d’idées entre virologues, neurologues, épidémiologistes, pathologistes, etc.

Confirmer le rôle d’agents viraux dans la maladie d’Alzheimer, mais aussi dans d’autres maladies neurodégénératives (comme la sclérose en plaques étroitement associée au virus Epstein-Barr, encore un herpès virus !) ouvrirait certainement la porte à de nouvelles pistes thérapeutiques préventives (vaccination) ou curatives (antiviraux).

Il faut néanmoins garder à l’esprit que la maladie d’Alzheimer est une pathologie extrêmement complexe et très certainement multidéterminée par différents éléments ou facteurs de risque, génétiques ou environnementaux.

Conclure à une cause unique de déclenchement de la maladie (comme celle d’une infection virale antérieure) est de toute évidence une ineptie. On rappellera à ce propos que bien qu’une grande partie (70-80 %) de la population humaine soit infectée par le virus de l’herpès (HSV-1), cette infection n’est pas une condition sine qua non pour développer la maladie !

The Conversation

Benoît Delatour a reçu une bourse de recherche de l’association France Alzheimer.

ref. Maladie d’Alzheimer et virus de l’herpès : que dit la science sur les liens possibles ? – https://theconversation.com/maladie-dalzheimer-et-virus-de-lherpes-que-dit-la-science-sur-les-liens-possibles-259811

Éducation à la sexualité : Sur les réseaux sociaux, apprendre à protéger son intimité

Source: The Conversation – France (in French) – By Prescillia Micollet, Doctorante en Sciences de l’Éducation et de la Formation , Université Lumière Lyon 2

Dans un contexte où les adolescents investissent de plus en plus tôt les réseaux sociaux et où les frontières entre vie privée et espace public se brouillent, l’éducation à la vie affective et sexuelle va de pair avec l’éducation aux médias. Il s’agit d’apprendre à prendre du recul sur les contenus qui circulent et à résister à la pression de groupe.


Le programme d’éducation à la vie affective, relationnelle et sexuelle (Evars) prévoit, dès le CM2, un lien avec l’éducation aux médias et à l’information (EMI). On y aborde des notions comme la liberté d’expression en ligne, la vie privée, le droit à l’intimité, ou encore la prévention du cyberharcèlement. L’objectif est clair : « Faire en sorte que les élèves apprennent à devenir des citoyens responsables. »

En effet, les adolescents investissent les réseaux sociaux de plus en plus tôt, souvent sans accompagnement suffisant. Cela soulève des enjeux cruciaux, notamment celui de l’« extimité », concept défini par le psychiatre Serge Tisseron comme

« le désir de rendre visibles certaines facettes de son intimité, parfois même à son insu, au risque de susciter indifférence ou rejet ».


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


À l’ère numérique, la frontière entre vie privée et espace public devient floue, rendant l’intimité exposable à tout moment, comme le rappelle Yaëlle Amsellem-Mainguy :

« L’accès facilité à la pornographie, l’exposition de la sexualité sur les réseaux sociaux ou le cyberharcèlement angoissent, car ils s’exerceraient dans des espaces incontrôlables. »

Dans ce contexte, quel rôle l’éducation entre pairs joue-t-elle dans la construction des comportements numériques adolescents ?

Pour explorer ces questions, appuyons-nous sur des observations en collège et sur une série d’entretiens qualitatifs dans 12 académies françaises auprès de formateurs intervenant dans l’éducation aux médias et l’éducation à la vie affective (infirmiers, conseillers principaux d’éducation, enseignants).

Insultes et moqueries sur les réseaux sociaux

« 75 % des jeunes de 11-12 ans utilisent régulièrement les réseaux sociaux. » Snapchat, Instagram, BeReal, WhatsApp ou TikTok ne sont plus de simples applications, mais des espaces de socialisation à part entière. Les adolescents y construisent leurs relations, leurs normes… et parfois leurs violences. Sur ces plateformes, les interactions sont rapides, souvent irréfléchies, avec un humour qui peut basculer dans l’humiliation.

Infirmière : « Mes camarades disent des choses méchantes sur moi sur les réseaux sociaux. Qu’en pensez-vous ? »

Un élève : « Il y a des insultes dans le groupe (WhatsApp), et quand on insulte, on t’affiche. »

Une élève : « Mes amis m’insultent et rigolent. »

Une autre : « Moi, je pense que ça fait partie de l’amitié, c’est pour taquiner. »

Un élève : « Avec mes potes, c’est drôle de faire ça. »

Insultes et moqueries deviennent des jeux anodins entre amis. L’écran agit comme un filtre émotionnel : il désinhibe, déresponsabilise. De plus « la plupart des mots sont violents et instaurent un climat malsain entre les sexes ». Les adolescents n’ont pas toujours conscience de la portée blessante de leurs paroles. Cette dynamique favorise aussi des propos sexistes.

Alors que certaines adolescentes pensaient l’égalité filles/garçons acquise, elles découvrent en ligne une forme de domination bien réelle. Comme le rappelle la sociologue Marie Duru-Bellat :

« Il y a encore la banalisation des moqueries sexistes sur le Net (avec par exemple la diffusion de vidéos à prétention humoristique donnant une représentation dégradante des femmes sur des plateformes comme TikTok), autant d’évolutions pointées par le Haut Conseil à l’égalité… Au total, 72 % des femmes de 15 à 24 ans considèrent que femmes et hommes ne sont pas traités de la même manière sur les réseaux sociaux. »

Une logique d’exposition

Un autre danger de cette socialisation numérique est le partage de photos intimes (« nudes ») qui sont vues comme une « normalisation » de pratiques par les adolescents. Beaucoup de jeunes sous-estiment les conséquences :

Un élève : « Il y a une personne, sa photo a circulé et c’est une photo intime. Un autre a demandé à plein de personnes de lui envoyer cette photo. »

Ce qui était perçu comme un échange privé devient une exposition massive, avec son lot de moqueries, de harcèlement et d’humiliation. Cette logique d’exposition est alimentée par l’imitation de modèles médiatiques, notamment issus de la téléréalité. Serge Tisseron l’exprime ainsi :

« Plus tu me regardes, plus tu crois me connaître, et moins tu en sauras. C’est à peu de chose près ce que chacun des candidats à la fameuse émission Loft Story, au printemps 2001, a dit et répété. »

Sur les réseaux, la socialisation entre pairs fonctionne par normes implicites : montrer, s’exposer, tout en risquant l’humiliation si l’on dépasse la « bonne » limite. Cette contradiction renforce une violence normalisée puisque les enfants et adolescents sont « submergés de données de toutes sortes sur la sexualité », souvent intégrées comme une manière ordinaire de faire groupe.

Réfléchir aux normes et à l’intimité

Pour amener les adolescents à réfléchir à leurs pratiques relationnelles, affectives et sexuelles, les professionnels de santé scolaire, les conseillers d’éducation ou encore les infirmières privilégient la discussion entre pairs afin « d’instaurer et assurer dans le groupe un climat de confiance » et d’inviter les élèves à respecter la parole de chacun, tant durant la séance qu’à son issue.

Interview de la sociologue Yaëlle Amsellem-Mainguy (Conseil économique social et environnemental, 2023).

L’objectif est de permettre aux adolescents de réfléchir ensemble, à partir de leurs représentations, expériences et en fonction « de leur âge », tout en les aidant à développer leur résistance à la pression du groupe, y compris face à des sujets sensibles comme la sexualité, l’alcool ou l’usage de substances.

Les séances révèlent souvent la force de l’émulation entre adolescents, qui peut favoriser des prises de conscience… mais aussi amplifier les comportements problématiques comme des « comportements sexuels violents ».

L’éducation à la vie affective s’appuie donc sur des méthodes actives pour travailler des « compétences psychosociales clés » comme l’écoute, la prise de recul, l’expression des émotions, l’analyse critique et l’empathie, mais aussi « des valeurs humanistes ». Ces compétences sont indispensables pour lutter contre les violences « relationnelles et le sexisme » ordinaire, mais aussi pour mieux comprendre l’impact de la socialisation de et par les réseaux sociaux.

Car, à travers la discussion en groupe, les élèves peuvent déconstruire certaines normes ou pratiques vues comme « banales » en ligne, et prendre conscience des effets réels de leurs paroles et de leurs actes sur les autres.

The Conversation

Prescillia Micollet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Éducation à la sexualité : Sur les réseaux sociaux, apprendre à protéger son intimité – https://theconversation.com/education-a-la-sexualite-sur-les-reseaux-sociaux-apprendre-a-proteger-son-intimite-259740

Le nationalisme mène-t-il toujours au fascisme ?

Source: The Conversation – France in French (3) – By Xosé M. Núñez Seixas, Professor of Modern and Contemporary History, Universidade de Santiago de Compostela

Souvent associé à l’extrême droite, le nationalisme peut aussi servir des projets progressistes d’autodétermination. La spécificité du fascisme réside dans la réappropriation ethnique et autoritaire du nationalisme à des fins de domination et d’exclusion.


Le nationalisme est généralement considéré comme l’apanage de la droite politique, et il a longtemps été un pilier des gouvernements autoritaires et fascistes à travers le monde. Dans les pays démocratiques, le terme « nationalisme » est associé au chauvinisme national – une croyance en la supériorité inhérente de sa propre nation et de ses citoyens –, mais la réalité est plus complexe qu’il n’y paraît.

Pour commencer, il y a peu de différence entre patriotisme et nationalisme, si ce n’est une question de degré d’intensité. La plupart d’entre nous reconnaissent cependant la distinction entre l’amour de son pays et les aspects plus durs, souvent exclusifs ou xénophobes, du nationalisme extrême. Le patriotisme est un nationalisme modéré, mais le nationalisme radical dérive souvent vers la xénophobie.

L’analyse devient encore plus complexe avec le nationalisme infra-étatique ou minoritaire, un phénomène tout à fait différent, souvent associé à des idéaux de gauche ou progressistes. De nombreux partis et idéologies – en Europe, dans les Amériques et ailleurs – utilisent le terme « nationaliste » sans connotation d’extrême droite. Ils présentent plutôt la nation comme une force d’émancipation visant l’autodétermination d’un territoire donné.

Ainsi, le National Party au Suriname, le Parti nationaliste basque, le Scottish National Party et le Bloc nationaliste galicien. Certains grands mouvements de gauche européens, comme le parti irlandais Sinn Féin, sont farouchement nationalistes, tandis que d’autres, comme le gallois Plaid Cymru, adhèrent à des principes éco-socialistes.

Cela ne signifie pas que les nationalismes minoritaires ou infra-étatiques soient à l’abri de l’influence de l’extrême droite. Le parti belge Vlaams Belang et l’Alliance catalane sont deux exemples contemporains de nationalisme minoritaire d’extrême droite. Si l’on remonte plus loin, l’Organisation des nationalistes ukrainiens et l’Union nationale flamande occupaient un espace politique similaire dans l’entre-deux-guerres.

Malgré ces nuances, l’idéologie nationaliste glisse souvent facilement vers le fascisme. La résurgence du nationalisme ethnique à la fin du XXe siècle a également renforcé cette association, souvent véhiculée par les concepts de nativisme et de populisme, donnant naissance à des mouvements aussi divers que le « Make America Great Again » de Trump, l’irrédentisme de Poutine ou le nationalisme hindou hindutva de Narendra Modi en Inde.

L’importance de la nation au sein du fascisme semble aller de soi, et le nationalisme constitue une base de toute idéologie fasciste. Cependant, la relation entre nationalisme et fascisme reste encore peu explorée. Mes recherches visent à combler cette lacune en étudiant de près le lien entre les diverses conceptions de la nation et le contenu idéologique du fascisme.

Nationalisme ethnique et naissance du fascisme

L’idéologie fasciste a souvent été comprise comme un prolongement inévitable des formes de nationalisme ethnique du XIXe siècle. Favorisé par l’impérialisme européen et la Première Guerre mondiale, le nationalisme est devenu de plus en plus chauvin, raciste et xénophobe.

Cette tournure ethnique du nationalisme a été déterminante pour en faire un instrument du fascisme, ainsi qu’un argument central pour diverses formes de droite radicale, allant d’un conservatisme « fascisé » à des régimes autoritaires plus affirmés.

Dans la plupart des théories sur le fascisme, le nationalisme est implicitement lié à une vision unifiée de la nation comme entité organique, avec des critères d’inclusion fondés sur des vérités « objectives » comme la langue, le sang et le sol, l’histoire et la tradition.

Cependant, des éléments comme l’ascendance, l’histoire et le territoire ne sont pas propres aux conceptions fascistes ou autoritaires de la nation. Beaucoup de ces composantes se retrouvent aussi dans des définitions libérales et républicaines de la nation, qui supposent l’existence d’une « communauté culturelle » au sein de laquelle la citoyenneté se construit.

En réalité, plusieurs mouvements progressistes en Europe – comme Sinn Féin en Irlande – s’enracinent dans un nationalisme radical au début du XXe siècle, et défendent aujourd’hui une vision tolérante et ouverte de la société, à l’opposé du fascisme.

Il est donc vrai que tout fasciste est nationaliste, mais tout nationaliste n’est pas nécessairement fasciste. Cela soulève la question suivante : comment le fascisme instrumentalise-t-il le nationalisme pour parvenir à ses fins ? À mon avis, il existe une conception et une utilisation spécifiquement fascistes du nationalisme.

Le nationalisme fasciste en cinq points

Les fascistes voient la nation comme une entité organique unique, unissant les personnes non seulement par leur ascendance, mais aussi par le triomphe de la volonté. Elle devient ainsi la force motrice et unificatrice des masses vers un objectif commun. Mais pour cela, les fascistes doivent réinterpréter le nationalisme à leur manière.

Pour servir le fascisme, le concept de nation doit s’aligner avec les principes fondamentaux de l’idéologie fasciste : l’idée de révolution, l’ordre social corporatiste, la pureté raciale (définie biologiquement ou culturellement) et la mise en avant de valeurs non rationnelles. La diversité des traditions nationalistes explique aussi la variété géographique du fascisme.

Bien que les éléments fournis par le nationalisme soient anciens, le fascisme les a recombinés pour créer quelque chose de nouveau. Cela a produit ce que l’on appelle une conception « générique » de la nation fasciste, qui peut être résumée en cinq points clés :

  1. Une vision paramilitaire des liens sociaux et du caractère national : la nation vit dans un état de mobilisation militaire permanente, où les valeurs martiales comme la discipline, l’unité de commandement et le sacrifice priment sur les droits individuels. L’ordre social tout entier et la nature de ses liens sont intégrés à un schéma paramilitaire, ce qui signifie que toute l’organisation sociale devient une sorte de caserne. Cela explique aussi la tendance expansionniste du fascisme, sa quête d’empire et ses guerres – autant de causes servant à garder la nation mobilisée en permanence et unie.

  2. Une vision darwinienne de la société nationale et internationale où survivent les meilleurs : cela entraîne l’exclusion des autres (définis selon la race, la langue, la culture, etc.), la croyance en la souveraineté absolue de sa nation, et la justification de la violence contre ses ennemis internes et externes. L’impérialisme devient la conséquence naturelle du nationalisme affirmatif.

  3. La nation au-dessus de tout, y compris la religion : les régimes fascistes se sont généralement déclarés indépendants de la religion. Là où ils sont arrivés au pouvoir, la plupart ont passé un accord avec l’Église, pourtant, le fascisme place toujours la nation au-dessus de Dieu et de la foi, de manière explicite ou implicite.

  4. L’unité de l’État, de la culture et de la nation : dans la vision fasciste, la nation ne domine ni ne sert l’État. Elle s’y identifie totalement tout en le dépassant : c’est ce qu’on appelle le national-étatisme.

  5. La croyance absolue dans un leader charismatique : la nation fasciste repose sur la confiance inconditionnelle envers un chef unique et tout-puissant. Dans l’Allemagne nazie, c’était le Führerprinzip selon lequel la parole du Führer surpassait toute loi écrite. Cette figure du chef fasciste transcende celle du héros national du XIXe siècle ou « père fondateur » de la nation. Le leader fasciste assimile et incarne les qualités de tous les héros nationaux qui l’ont précédé.

The Conversation

Xosé M. Núñez Seixas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le nationalisme mène-t-il toujours au fascisme ? – https://theconversation.com/le-nationalisme-mene-t-il-toujours-au-fascisme-259315

Des voiliers-cargos pour réimaginer le transport de marchandises

Source: The Conversation – France (in French) – By Sylvain Roche, Docteur en sciences économiques, Ingénieur de recherche et enseignant associé, Sciences Po Bordeaux

Long de 81 mètres et équipé de 3  000 m² de voilure, l’_Anemos_ de l’entreprise française TransOceanic Wind Transport (TOWT) est capable de transporter 1  200 palettes de marchandises. Ronan Gladu/TOWT

Depuis la fin du XIXe siècle, les marchandises voyagent à travers le monde grâce à des navires à moteur, alimentés par des combustibles fossiles. Pour décarboner le secteur, pourrait-on revenir à la voile ? C’est ce que proposent certaines entreprises, avec des voiliers-cargos modernisés, et l’objectif de changer les représentations du transport maritime.


Si elle a persisté à travers les sports nautiques et la navigation de plaisance, la voile se réinvente aujourd’hui dans le secteur du transport marchand pour répondre au triple enjeu de décarbonation, de réindustrialisation et de résilience.

Portée par des figures emblématiques de la course à la voile, de petites start-ups innovantes ou encore de grandes multinationales, elle apparaît comme un des choix technologiques les plus matures pour se projeter à long terme dans un contexte économique et géopolitique incertain. Le vent est une énergie verte, abondante et gratuite. En proposant un modèle alternatif, la voile inscrit le transport maritime dans un autre imaginaire, une autre modernité : celle de la sobriété.

Pour autant, l’alternative qu’elle propose n’est pas exempte de critiques. Pour ses défenseurs, le principal défi consiste à démontrer qu’elle a toute sa place dans un avenir décarboné. Dans un article publié en décembre 2024 dans la revue Développement durable et territoires, j’analyse comment le secteur doit proposer de nouveaux récits, adaptés à un monde écologiquement contraint.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un secteur dominé par l’imaginaire thermo-industriel

Utilisée dès l’Antiquité, la voile a connu un déclin croissant dès la fin du XIXe siècle dans le transport marchand, puis une disparition, au profit du moteur thermique, plus efficace dans le cadre du commerce international et des ambitions coloniales des nations occidentales.

Photo noir et blanc d’un voilier à quatre mâts
Le voilier France II inauguré en 1911. Long de 142 mètres, il fut le plus grand voilier du monde jusqu’en 1988.
State Library of Victoria, Malcolm Brodie shipping collection/Wikimedia

En poursuivant les imaginaires de puissance et de liberté, héritages des révolutions industrielles successives, le triptyque énergies thermique, chimique et électrique, structuré autour des énergies fossiles et fissiles, se définit toujours comme le modèle de référence, mais désormais sous un prisme écologique.

Aujourd’hui, le gaz naturel et les électro-carburants sont défendus par leurs promoteurs comme les solutions les plus rationnelles pour répondre aux objectifs de décarbonation des transports. Le cas emblématique est celui de l’hydrogène, totem de la croissance verte, entouré d’un imaginaire magique. L’énergie nucléaire, et son « mythe d’un monde affranchi de toutes contraintes naturelles » (à la différence des énergies renouvelables comme le vent), est aussi présentée comme solution technique pour le transport maritime de marchandises.

La filière au gaz naturel liquéfié (GNL) a connu un boom de 33 % entre 2023 et 2024, avec désormais plus de 700 navires en service dans le monde, dont un tiers de porte-conteneurs. Le GNL est devenu le carburant alternatif le plus employé dans le secteur maritime, et ceci, malgré les nombreuses études critiques soulignant ses limites écologiques.

Redéfinir le modèle du gigantisme…

Là où la complexité figure historiquement comme un gage de modernité technologique, la relative simplicité de la voile paraît hors sujet. Pour autant, comme mentionné par l’Ademe, « l’imaginaire dominant à l’origine de nos modes de vie modernes est aujourd’hui insoutenable puisqu’il met en péril l’habitabilité de la planète ».

Pour sortir de cette « fossilisation » des imaginaires, questionner la taille des navires du transport maritime devient légitime.

Les super-conteneurs sont devenus les emblèmes de l’industrie maritime moderne fondée sur les énergies fossiles. Artefacts répondant aux normes de « l’économie du gigantisme », ils incarnent un idéal de paix, porté par le « doux commerce » et son école de pensée libérale, et un idéal d’abondance : leur capacité de transport a été multipliée par plus de 20 en quarante ans.

Pour autant, ce modèle du gigantisme est aujourd’hui remis en question. Souvent, les ports secondaires ne sont pas équipés sur le plan logistique pour accueillir les mégacargos, qui font parfois plus de 400 mètres, ce qui représente un risque pour les infrastructures.

À l’inverse, les bateaux à voile font en moyenne entre 90 et 150 mètres. Citons, par exemple, le projet Windcoop et ses 91 mètres, ou encore le projet Neoline, considéré comme l’un des plus longs cargos à voile du monde, et ses 136 mètres.

La coopérative Windcoop lancera fin 2025 la construction d’un cargo à voile de 90 mètres de long, capable de transporter 210 conteneurs (environ 2 500 tonnes de marchandises). Le navire sera équipé de trois ailes rigides de 350 m² et pourra économiser jusqu’à 90 % de carburant selon ses promoteurs. Une mise à l’eau est envisagée pour mai 2027.
Windcoop

Le transport à voile visait jusqu’ici des produits à forte valeur ajoutée comme le vin, le café ou encore le chocolat. Mais l’arrivée de cargos à voile de plus en plus grands, à l’image du Williwaw de 160 mètres, annoncé par l’entreprise Zéphyr & Borée, permet d’augmenter les volumes de cargaison, de les diversifier et de réduire les coûts actuels par des économies d’échelle. La filière s’ouvre ainsi au transport de véhicules par exemple.

… et celui de l’hypervitesse

Le vent ne soufflant pas tout le temps, le transport maritime à voile reformule le paradigme de la grande vitesse contrôlée, qui figure comme une impasse énergétique : plus on va vite, plus on consomme. À titre indicatif, la majorité des porte-conteneurs actuels ont une vitesse de 15 à 23 nœuds (28 à 43 km/h), alors que le cargo à voile de Neoline de 136 mètres affichera une vitesse réduite de 11 nœuds (environ 20 km/h).

La résurgence du transport maritime à voile pose aussi la question du temps social, en repensant notre rapport au territoire et à nos rythmes de vie. D’ailleurs, à la différence des fantasmes qui ont émergé dans le monde du transport terrestre ou aérien avec, par exemple, l’Hyperloop ou l’avion supersonique, la vitesse n’est pas une question primordiale pour le transport maritime, l’enjeu de la ponctualité étant bien plus important.

À ce titre, l’ambition d’autonomie des cargos à voile (installation de grues de chargement/déchargement à bord pour gagner en fluidité, ouverture de lignes commerciales secondaires en dehors des grandes routes internationales congestionnées, etc.) remettrait en question l’hégémonie des méga porte-conteneurs thermiques dans cette course à la vitesse. Réduire la vitesse des navires est aussi une mesure en faveur de la biodiversité marine, puisque cela diminue le bruit sous-marin et les risques de collision avec des cétacés.

Une symbiose entre low-tech et high-tech

Avec la révolution des outils numériques disponibles à bord, des simulations en temps réel permettent de suivre les meilleures trajectoires. Déployer ou replier une voile se fait désormais de manière automatisée. Ces nouveaux cargos à voile sont des concentrés de technologies, et bien qu’ils exploitent une technique millénaire, ils s’appuient également sur des outils contemporains, à l’image de l’IA et des prévisions satellitaires qui permettent d’optimiser les trajectoires. Des technologies matures et éprouvées issues du secteur aéronautique et des sports nautiques (matériaux carbone) sont intégrées dans l’élaboration des nouveaux voiliers.

Le transport maritime à voile s’inscrit dans un choc de la vitesse. Le modèle de la décélération (à l’image aussi du retour des dirigeables dans le transport aérien de marchandises) côtoie de plus en plus celui de la grande vitesse. Pareillement, la filière connaît un choc de la conception innovante, où la low-tech (la voile) va s’associer avec la high-tech.

Le défi du changement d’échelle

Pour autant, l’incertitude et le risque associés au caractère pionnier de ces premiers cargos modernes rendent par nature la levée de fonds plus délicate.

Afin de s’assurer de la rentabilité économique du projet, les promoteurs des cargos à voile doivent trouver des clients (chargeurs ou logisticiens) qui s’engagent sur un nombre de conteneurs annuels pendant une durée généralement assez longue. Le processus de légitimation du transport à voile repose sur ces premiers clients qui parient sur la filière, parmi lesquels on peut trouver des start-ups/PME mais aussi des grands groupes.

Grand bateau blanc avec quatre mâts
Le cargo hybride Canopée amarré au port de Bordeaux en octobre 2024. Long de 121 mètres et conçu pour transporter la fusée Ariane-6, le navire est capable d’économiser de 30 à 40 % de carburant classique grâce à ses quatre mâts de 37 mètres de haut.
Sylvain Roche, Fourni par l’auteur

Le concours actif de ces premiers clients est dès lors crucial, tout comme le soutien des acteurs publics. Le moindre coût de carburant doit permettre d’amortir l’investissement supplémentaire propre à la construction de cargos à voile de nouvelle génération. Le processus de légitimation et d’innovation marketing oblige à jongler continuellement entre un imaginaire romantique véhiculé par les bateaux à voile au sein du grand public et un discours technique pragmatique de rentabilité financière.

Une réappropriation territoriale et citoyenne des échanges

Enfin, le changement de paradigme reste à effectuer en premier lieu du côté des citoyens et des consommateurs. Le surcoût lié à l’usage de la voile – la taille des méga porte-conteneurs thermiques permet des économies d’échelle – doit encore pouvoir être répercuté sur le prix des marchandises. Une évolution décarbonée du transport maritime se fera pour des raisons marchandes et citoyennes plus que technologiques.

L’évolution des usages et des mentalités est donc un élément structurant pour constituer un véritable marché. Le transport de marchandises restant un secteur opaque d’un point de vue social et environnemental, la voile pourrait lui donner une nouvelle éthique. À ce titre, de nombreux armateurs véliques ont fait le choix d’une rémunération juste de leurs marins.

En 2014, la navigatrice Isabelle Autissier rappelait que la mer est un vecteur de l’imaginaire où « le marin devient le porte-drapeau d’une humanité plus vraie et plus désirable ». Tout comme les éoliennes (avec toutes les controverses qu’elles provoquent), la résurgence des mâts des navires se présente dès lors comme un symbole paysager fort qui redonne à voir le monde maritime (les cargos étant les grands invisibles de la mondialisation) et le transport.

Sachant que la durée de vie d’un navire de commerce actuel est de vingt-cinq ans en moyenne, les bateaux en chantier aujourd’hui sont ceux qui devront réduire les émissions du secteur maritime dans le futur. Ainsi, bien que l’avenir énergétique du transport maritime se veuille pluritechnologique, une compétition est en cours autour de l’imaginaire du progrès.

The Conversation

Sylvain Roche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des voiliers-cargos pour réimaginer le transport de marchandises – https://theconversation.com/des-voiliers-cargos-pour-reimaginer-le-transport-de-marchandises-258344

Faut-il réviser les missions des banques centrales ?

Source: The Conversation – France (in French) – By Jean-Paul Pollin, Professeur émerite d’économie et de finance, Université d’Orléans

Les banques centrales sont incitées à prendre des décisions dont les motifs dépassent leurs objectifs traditionnels de stabilité des prix et des systèmes financiers. Mais en ont-elles la légitimité ? Cela ne risque-t-il pas d’affecter leur indépendance ? Ne faudrait-il pas alors engager une révision de leurs missions ?

Cet article est publié dans le cadre du partenariat les Rencontres économiques d’Aix–The Conversation. L’édition 2025 de cet événement a pour thème « Affronter le choc des réalités ».


On résume trop souvent les missions des banques centrales au maintien de la stabilité des prix, d’une part, et à la stabilité du système bancaire, d’autre part. Mais, en réalité, selon les mandats qui leur sont assignés et/ou selon la façon dont elles les interprètent, le champ de ces missions est généralement bien plus vaste.

Ainsi, la Fed est investie d’un « double mandat » : la stabilité des prix et niveau d’emploi maximum. D’autres banques centrales (dans des pays en développement) ont pour mission de stabiliser la parité de leur monnaie avec celle d’une devise étrangère… La Banque centrale européenne (BCE), de son côté, est censée, sans préjudice de l’objectif de prix, apporter un soutien aux politiques générales « en vue de contribuer aux objectifs de la Communauté ». Ce qui constitue un ensemble de missions potentiellement très (trop ?) large.

Par ailleurs, pour répondre aux crises qui se sont succédé, au cours des vingt dernières années, les autorités monétaires ont su modifier l’ordre de priorité de leurs missions et, parfois, en étendre le champ. Durant les crises financière puis sanitaire, elles ont accompagné les politiques budgétaires pour soutenir l’activité, mais aussi pour limiter le coût de l’endettement public en achetant massivement des titres de dettes publiques (des politiques dites non conventionnelles). Elles ont alors pris le risque d’accepter une « dominance budgétaire ». Ce qui a pu leur être reproché.




À lire aussi :
Quand les banques centrales s’emparent de la question du climat


Une liberté limitée

Mais ces observations ne signifient pas que les banques centrales ont toute liberté pour interpréter ou même compléter les termes de leurs mandats. Car l’aménagement de leurs missions se heurte au moins à deux contraintes majeures :

  • D’une part, on sait qu’il est sous-optimal de poursuivre plus d’objectifs que l’on a d’instruments (règle de Tinbergen). Or, même si les banques centrales peuvent (à la marge et si cela est pertinent) augmenter la gamme de leurs instruments, leur nombre est fatalement limité.

  • D’autre part, lorsque la politique monétaire pénètre dans un domaine qui relève aussi de la compétence d’autres volets des politiques économiques (par exemple, la politique budgétaire, industrielle ou sociale…), la coordination que cela suppose peut mettre en danger son indépendance et, donc, la crédibilité de ses objectifs censés orienter les anticipations des agents. Car toute collaboration avec d’autres décideurs (des agences ou le politique) ouvre l’éventualité de concessions susceptibles de dévier par rapport aux annonces. À cela s’ajoute le fait que l’indépendance en question met en cause la légitimité des autorités monétaires à prendre des décisions qui supposent des choix de nature politique, qui affectent par exemple la distribution des revenus ou des richesses. Peut-on, dès lors, laisser les banques centrales mener des politiques dérogeant à ce principe ? Notamment des politiques sélectives.

Aller au-delà de la régulation conjoncturelle ?

Comme bien d’autres institutions, les banques centrales ont été interpellées par la montée des désordres environnementaux et en particulier par leur probable influence sur la stabilité des systèmes financiers. Mais les réactions des autorités monétaires à cette sollicitation ont été divergentes voire discordantes : Jerome Powell (Fed), par exemple, a répondu que la Fed n’était pas un « climate policymaker »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Il n’empêche qu’en 2017, s’est constitué un réseau comprenant des banques centrales et des régulateurs, Network for Greening the Financial System, qui compte aujourd’hui 145 membres, afin d’étudier et de suggérer des solutions à cette question qui devrait devenir cruciale dans les années à venir. Il en ressort notamment des propositions visant à renforcer les réglementations prudentielles pour prendre explicitement en compte les risques portés par les actifs détenus par les institutions financières qui sont la contrepartie de financements d’investissements contribuant aux déséquilibres écologiques dits « investissements bruns ». Ce qui est théoriquement tout à fait justifié, même si la mise en pratique de cette idée est compliquée et prendra sans doute du temps.

Par ailleurs, certaines banques centrales se sont engagées dans des refinancements privilégiés pour les « actifs verts » (c’est-à-dire compatibles avec la transition écologique) et, plus généralement, dans le « verdissement » de leur bilan. Il s’agit alors d’une sorte de retour à une politique de crédit sélective du type de celles qui avaient été pratiquées dans l’après-guerre, avant d’être balayée par la vague de libéralisation financière des années 1970-1980. On a alors considéré que les banques centrales ne devaient pas contrarier le rôle des marchés dans l’allocation des capitaux et donc ne pas intervenir dans la formation des structures par terme et par niveaux de risque des taux d’intérêt. On se situe par conséquent ici aux limites, évoquées précédemment, des révisions envisageables.

France 24, 2025.

L’écueil des chocs d’offre

De façon plus générale, il est vraisemblable que, dans les années qui viennent, les politiques économiques vont se trouver davantage confrontées à des problèmes de régulation de l’offre plutôt que de la demande. Parce qu’il leur faudra principalement répondre aux chocs sur les conditions de production que vont entraîner les évolutions technologiques, les ruptures et la recomposition des échanges commerciaux et des chaînes de valeur, les éventuelles pénuries de matières premières… Au cours des années récentes, c’est bien à ce type de problèmes que les politiques conjoncturelles ont été confrontées : la crise sanitaire a provoqué une contraction de la production, puis des ruptures d’approvisionnement. Elle a été suivie du déclenchement de conflits armés occasionnant, entre autres, une hausse des prix de l’énergie et donnant lieu à un brusque retour de l’inflation.

Or, on sait que les politiques monétaires conventionnelles sont démunies pour répondre à des chocs d’offre, car dans ce cas l’ajustement des taux d’intérêt ne peut assurer à la fois la stabilité des prix et celle de l’activité. C’est d’ailleurs pourquoi plusieurs banques centrales ont souhaité flexibiliser leur objectif d’inflation en allongeant l’horizon de son calcul, en l’inscrivant dans une marge de fluctuation…

Au demeurant ces chocs d’offre génèrent des déséquilibres de caractère micro ou méso-économiques qui relèvent plutôt d’une politique du crédit apte à rétablir la compétitivité de la structure productive. Mais ceci nécessite alors une stratégie industrielle et des choix que des banques centrales indépendantes n’ont pas la légitimité (ni toutes les compétences) pour en décider. C’est, alors, qu’une coordination qu’une coordination entre les politiques économiques devient inévitable.

De nouvelles missions dans un système monétaire international en restructuration ?

D’un tout autre point de vue, ajoutons que nombre d’observateurs considèrent aujourd’hui que le dollar devrait perdre progressivement sa prédominance en tant que monnaie d’échange, de facturation et de réserve. La monnaie américaine tenait une place essentielle dans le système monétaire international qui avait été recomposé dans l’immédiat après-guerre. Mais cette place a été remise en cause par la fracturation, qui s’accélère, de cet ordre économique mondial, par la baisse du poids relatif de l’économie américaine et sans doute aussi par le fait que les États-Unis se sont affranchis des responsabilités qu’impliquait le « privilège exorbitant » dont bénéficie leur devise.

Dans le monde multipolaire qui semble se mettre en place, il serait juste et cohérent que d’autres monnaies, notamment l’euro et le yuan chinois, se substituent en partie à la monnaie américaine. C’est du reste une revendication ancienne de nombre de pays émergents, les BRICS+.

Ceci représenterait pour les monnaies considérées une « captation de privilège », mais imposerait aussi de nouvelles obligations. Il faudra faire en sorte que la parité de ces monnaies soit assez stable, libéraliser (en Chine) les mouvements de capitaux, introduire des monnaies numériques de banques centrales pour faciliter et réduire les coûts des règlements transfrontières…

Mais, aussi et surtout, assurer le développement de marchés financiers profonds et liquides, afin de rendre attractive la détention à l’étranger d’actifs émis dans les pays considérés. Ces exigences impacteront sans doute les missions des banques centrales, mais elles vont bien au-delà. Par exemple, la nécessité de conforter l’offre de placements suppose, en Europe, une unification des marchés de capitaux ainsi qu’une uniformisation des dettes publiques émises par les différents États de la zone. Ce qui renvoie à des initiatives que la banque centrale peut suggérer et accompagner, mais dont elle ne peut pas décider du fait de leur dimension politique.


Cet article est publié dans le cadre d’un partenariat de The Conversation avec les Rencontres économiques, qui se tiennent du 3 au 5 juillet, à Aix-en-Provence. Plusieurs débats y seront consacrés au rôle des banques centrales.

The Conversation

Jean-Paul Pollin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Faut-il réviser les missions des banques centrales ? – https://theconversation.com/faut-il-reviser-les-missions-des-banques-centrales-259461

Israël–Iran : la guerre économique a déjà un vainqueur

Source: The Conversation – France in French (3) – By Djamchid Assadi, Professeur associé au département « Digital Management », Burgundy School of Business

Alors qu’un cessez-le-feu, fragile et incertain, est entré en vigueur entre la République islamique d’Iran et Israël, une autre guerre, moins visible mais tout aussi décisive, gagne en intensité : la guerre économique. Car, au-delà des frappes et des missiles, ce sont les finances publiques, la stabilité monétaire et la résilience industrielle qui façonnent les rapports de force.


Le 20 juin, les États-Unis frappent le site de Fordo, une installation hautement sécurisée construite à flanc de montagne près de Qom, conçue pour résister à d’éventuels bombardements. Ce site incarne l’avancée clandestine du programme nucléaire iranien et sa destruction – inachevée selon plusieurs sources –marque une nouvelle étape dans l’escalade militaire entre Israël et la République islamique d’Iran (RII).

Les guerres ne se décident pas seulement sur le terrain militaire. Elles reposent sur les capacités économiques des États qui les mènent. Une armée peut tirer, avancer, frapper, seulement si son pays peut financer ses armes, entretenir ses troupes, réparer ses infrastructures et maintenir sa cohésion interne. Sans ressources, sans capacité de production et sans marge budgétaire, l’effort de guerre s’effondre, quelle que soit la stratégie militaire.

C’est ce que plusieurs économistes, issus de traditions intellectuelles variées, ont souligné avec force. Kenneth Boulding affirmait dès 1962 qu’un pays économiquement affaibli voit sa puissance militaire s’éroder mécaniquement. Duncan Weldon rappelle que les Alliés ont gagné la Seconde Guerre mondiale non seulement sur le front, mais surtout par leur supériorité industrielle. Brigitte Granville, dans What Ails France ?, montre comment les déséquilibres macroéconomiques prolongés fragilisent la souveraineté de l’État. Mark Harrison quant à lui insiste sur le lien entre puissance économique, capacité étatique et efficacité stratégique. J. Bradford DeLong, enfin, observe que les régimes autoritaires du XXe siècle ont souvent été défaits non pas par manque de volonté politique, mais par l’incapacité structurelle de leurs économies à soutenir une guerre prolongée.

Tous ces travaux convergent vers un même enseignement : la force militaire dépend de la solidité économique. Une économie dégradée limite les capacités d’armement, désorganise les chaînes logistiques, fragilise la mobilisation de la population – et réduit, in fine, les chances de victoire.

Dans cette perspective, et au-delà du verdict militaire encore incertain, une question s’impose dès aujourd’hui : dans le conflit ouvert entre Israël et la RII le 13 juin 2025 et interrompu 12 jours plus tard par un cessez-le-feu fragile et incertain qui ne garantit point l’apaisement des tensions, qui gagne la guerre économique – celle qui conditionne toute victoire sur le terrain ?

État des forces économiques des belligérants au seuil de la guerre

Lorsque la guerre éclate le 13 juin 2025, l’économie de l’Iran est déjà exsangue. Selon le FMI, sa croissance réelle du PIB pour l’année est estimée à seulement 0,3 %, contre 3,7 % pour Israël au premier trimestre.

Le chômage illustre également ce déséquilibre. En 2024, il atteint 9,2 % en Iran, chiffre bien en-deçà de la réalité, contre un taux contenu entre 3,0 et 3,5 % en Israël. Ce différentiel traduit une dynamique socio-économique défavorable pour la République islamique, dont la population appauvrie est bien moins mobilisable dans la durée.

L’inflation accentue encore cette asymétrie. Elle est projetée à 43,3 % en Iran contre seulement 3,1 % en Israël. L’érosion rapide du pouvoir d’achat rend la mobilisation sociale difficile à maintenir pour le régime, tant sur le plan logistique que politique.

Côté finances publiques, le déficit budgétaire iranien atteint 6 % du PIB, alourdi par des subventions ciblées et des dépenses idéologiques. Israël, de son côté, parvient à contenir son déficit à 4,9 %, malgré une forte hausse des dépenses militaires. Là encore, le contraste signale une dissymétrie stratégique structurelle.

La situation monétaire renforce ce déséquilibre. Le rial s’est effondré, passant de 32 000 IRR/USD en 2018 à près de 930 000 IRR/USD en 2025. À l’inverse, le shekel reste stable autour de 3,57 ILS/USD. Une monnaie stable permet à Israël de maintenir ses importations critiques et de financer son effort de guerre dans des conditions soutenables. La RII, au contraire, voit sa capacité de financement militaire minée par une défiance monétaire généralisée.

Enfin, l’ouverture économique creuse davantage l’écart. L’Iran reste largement isolé du système financier international, frappé par les sanctions et déserté par les investisseurs étrangers, évoluant ainsi dans une autarcie contrainte. Israël bénéficie au contraire d’une intégration industrielle et technologique consolidée par ses alliances stratégiques.

Au total, la République islamique d’Iran entre dans le conflit dans une position structurellement défavorable : faible croissance, inflation galopante, déficit public incontrôlé, monnaie en chute libre, isolement économique, et population précarisée mécontente. Israël s’engage quant à lui avec un socle économique solide, des indicateurs de résilience et une profondeur stratégique qui lui permettent d’envisager un effort militaire prolongé.

Le coût quotidien de la guerre : une pression inégale sur les économies

Le conflit entre Israël et la RII s’est caractérisé par des campagnes aériennes intensives, des bombardements ciblés, des tirs de missiles longue portée et des cyberattaques. Les frappes israéliennes ont prioritairement visé des infrastructures militaires et logistiques.

Les dépenses engagées sont considérables : munitions guidées, missiles, drones, avions de chasse, radars, systèmes antiaériens, dispositifs de guerre électronique, salaires et primes militaires, ainsi que toute la logistique liée au front. Selon le Middle East Monitor, s’appuyant sur des données relayées par le Wall Street Journal, le coût quotidien du conflit s’élèverait à environ 200 millions de dollars pour Israël.

Pour la RII, aucune estimation indépendante n’est disponible à ce jour dans des sources reconnues. Toutefois, certains observateurs avancent, sans vérification rigoureuse, une fourchette allant de 150 à 200 millions de dollars par jour. Cette hypothèse doit être prise avec prudence, en l’absence de sources publiques confirmées.

Mais ces montants, similaires en valeur absolue, n’ont pas du tout le même poids économique selon les pays. Leurs effets, leur soutenabilité et leur impact sur la durée dépendent directement de la structure et de la santé économique de chaque État. Là où Israël peut absorber le choc, l’Iran semble déjà en tension.

Financer la guerre : entre ressources disponibles et épuisement des leviers

Israël soutient son effort de guerre grâce à un environnement financier solide, un accès complet aux marchés internationaux et un tissu productif performant. Il bénéficie aussi d’un appui logistique et stratégique direct des États-Unis (ravitaillements, batteries THAAD, intercepteurs, présence navale) et de renforts britanniques. L’OECD Economic Survey : Israel 2025 conclut qu’Israël conserve une stabilité macroéconomique robuste malgré les tensions géopolitiques.

La RII, en revanche, reste privée d’aide bilatérale et exclue des marchés de capitaux. Son financement de guerre repose sur :

1) Des exportations pétrolières résiduelles ;

2) Un endettement intérieur via des bons du trésor ;

3) Des collectes informelles religieuses (ṣadaqa maḏhabī, naḏr o niyāz) depuis l’été 2025.

Dans le budget 2025, l’augmentation des crédits alloués aux Gardiens de la Révolution et aux entités religieuses dépasse 35 %, tandis que les salaires publics grimpent de 18 à 20 %, dans un contexte d’inflation estimée à plus de 40 %. Ainsi, l’Iran oriente ses ressources vers la survie idéologique plutôt que la soutenabilité économique à long terme.

Conclusion : l’Iran mène la guerre dans une fragilité croissante – sans marges fiscales, sans soutien extérieur et dans un climat de défiance généralisée – tandis qu’Israël conserve pour l’heure une capacité d’action durable.

Une asymétrie stratégique à portée systémique

À l’issue de cette analyse, un constat s’impose : Israël est en train de remporter la guerre économique, indépendamment de l’évolution militaire immédiate.

Le pays s’appuie sur des alliances solides, des marges budgétaires substantielles et un environnement financier stable qui lui permettent de soutenir son effort de guerre dans la durée. Ce socle est consolidé par un soutien logistique et diplomatique direct des États-Unis – et, dans une moindre mesure, du Royaume-Uni – qui étend sa profondeur stratégique bien au-delà de ses frontières.

La République islamique d’Iran, en revanche, mène ce conflit dans un isolement quasi total, sans appui extérieur et avec des ressources internes de plus en plus fragiles : exportations pétrolières limitées, endettement intérieur peu soutenable, captation de fonds religieux. Cette situation ne reflète pas seulement deux modèles économiques distincts, mais deux trajectoires institutionnelles divergentes, désormais soumises à l’épreuve d’une guerre prolongée.

L’histoire récente – de la Yougoslavie des années 1990 à la Russie de 1917, en passant par l’Allemagne impériale en 1918 ou la Syrie après 2012 – montre que l’effondrement économique peut précipiter la défaite, même sans effondrement militaire immédiat.

Dès lors, la question centrale devient celle de la soutenabilité. La République islamique d’Iran peut-elle poursuivre son engagement militaire sans déclencher de ruptures budgétaires, monétaires ou sociales ? Israël, malgré sa solidité, pourra-t-il maintenir le soutien de sa population dans le cas d’un enlisement ou d’un choc stratégique externe ?

Dans ce face-à-face, l’économie ne joue pas un rôle secondaire. Elle est le révélateur du déséquilibre stratégique – et peut-être, à terme, le facteur décisif du basculement. Une stratégie comparable à la « guerre des étoiles » de Reagan, qui avait épuisé l’URSS en l’entraînant dans une course aux dépenses militaires insoutenables, semble aujourd’hui appliquée à la République islamique d’Iran.

The Conversation

Djamchid Assadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Israël–Iran : la guerre économique a déjà un vainqueur – https://theconversation.com/israel-iran-la-guerre-economique-a-deja-un-vainqueur-259627