Nintendo : « Super Mario Bros. », quarante ans de jeunesse éternelle

Source: The Conversation – France (in French) – By Arnault Djaoui, Doctorant en Science de l’Information et Communication – Laboratoire LIRCES, Université Côte d’Azur

L’iconique plombier à moustaches, mascotte de la firme Nintendo, célèbre, le 13 septembre, le quarantième anniversaire de sa première aventure vidéoludique. Cet emblème intergénérationnel n’en finit pas de séduire de nouveaux adeptes en réussissant à se renouveler constamment. Alors, d’où ce sympathique personnage puise-t-il son secret de jouvence ?


Avant qu’il ne soit Mario, le personnage est d’abord introduit sous le sobriquet de Jumpman dans le jeu d’arcade Donkey Kong, en 1981. La figure mythique du petit plombier espiègle – à cette époque charpentier et aujourd’hui sans profession attitrée – montrait déjà la volonté du fabricant Nintendo d’installer une mécanique de jeu simple et audacieuse. Le joueur incarne, dans cette première mouture, un personnage haut en couleur évoluant sur des plateaux urbains ascensionnels. Le but du jeu est de déjouer les assauts du gorille Donkey Kong au moyen de sauts allègres, exécutables à l’aide d’une simple pression sur une touche jusqu’à atteindre le vil primate et libérer une demoiselle en détresse.

La fantaisie de l’action et des éléments narratifs affiche d’emblée une forte envie de proposer un univers durable, amusant et identifiable. Plus encore, la volonté initiale du concepteur, Shigeru Miyamoto, est de conférer à son personnage une stature marquée et une vraie personnalité. Ainsi, cette vedette en devenir synthétise dès sa première apparition les attributs d’une entité originale et attractive, qui se démarque de ses prédécesseurs, Pacman ou les space invaders. C’est donc après une seconde incursion dans les salles d’arcade que l’élu de Nintendo va réellement marquer le début de sa légende, durant l’année 1985.

Le raz-de-marée « Super Mario Bros. »

L’arrivée de son propre jeu attitré marque un tournant dans le jeu de plateformes et plus globalement dans l’industrie du jeu vidéo. Désormais baptisé Mario, cet attachant héros dispose alors de tout un « lore » (l’ensemble des éléments relatifs à l’univers d’un jeu) qui lui est propre, jonché de créatures alliées (la princesse Peach, Toad le champignon, etc.) ou ennemies (Bowser, les Koopas, etc.) qui définissent également le caractère incontournable de cette mythologie.

En plus de parcourir des dizaines de niveaux, tous plus colorés, riches en animation et périlleux dans les dangers dont ils sont parsemés, le joueur découvre au cours des péripéties du plombier une approche bien plus enchanteresse du challenge dans le jeu vidéo. Le médium, qui reposait jusqu’ici sur des principes réitératifs et contenus dans des parties courtes, trouve avec Super Mario Bros. la possibilité de combiner le sens de l’amusement machinal et le sentiment pur de voyage immersif. Les effets de jouabilité, simples d’utilisation mais extrêmement exigeants dans ce qu’ils invoquent de dextérité et d’attention, inaugurent également une nouvelle manière de ressentir la difficulté graduelle des épreuves au fil de cette odyssée d’un genre nouveau.

Un univers qui inspire et qui s’exporte

Très rapidement, le modèle instauré par cet opus fondateur cristallise une nouvelle ère vidéoludique, qui se caractérise par une réutilisation appuyée du système simple et efficace des fondements de Mario. Outre les innombrables créations qui s’inspirent directement de cette œuvre instauratrice (Castle of Illusion, Disney’s Duck Tales, Castlevania II: Simon’s Quest, etc.), de nouveaux volets de la saga Mario vont être logiquement mis en chantier. Le personnage évolue continuellement au gré de nombreuses modifications de modélisation (character design), de nouveaux pouvoirs à sa disposition (feu, glace, agilité féline, etc.) et de nouvelles rencontres de personnages en tout genre, en même temps que le public grandit aussi de son côté.

Cette proximité entretenue entre les joueurs et le personnage de fiction marque une permanence de cet espace de dérivation, d’époque en époque. Telle une saga cinématographique ou une série télé, l’univers de Mario se décline en plusieurs épisodes (Super Mario Land, en 1989, Super Mario World, en 1990, etc.) qui apportent tous leurs lots de nouveautés tant sur la technique que sur l’agrandissement du lore.

Ainsi, de nouvelles figures incontournables de l’estampille Nintendo sont introduites pour la première fois dans les jeux Mario. C’est le cas de l’attendrissant dinosaure Yoshi, dans la série Super Mario World, ou du patibulaire double maléfique Wario, dans Super Mario Land 2 en 1992, qui bénéficieront par la suite de leurs propres jeux à succès.

De son côté, Mario ne va cesser d’asseoir son hégémonie et d’étendre sa galaxie. Au cinéma, avec une première adaptation en prises de vue réelles en 1993, à la télévision, avec une série animée datant de 1989, en jeux de société ou en produits dérivés, la machine tentaculaire de Nintendo entend bien investir tous les secteurs du divertissement. L’amélioration substantielle des graphismes au gré de chaque génération de consoles va ensuite permettre la réalisation des ambitions les plus folles des concepteurs.

L’avènement de nouveaux enjeux

L’exploitation du monde de Mario se ressent donc avant tout dans la sphère vidéoludique. Chacune de ses nouvelles apparitions est synonyme d’une version soit alternative, soit sublimée de sa dialectique. Les séries secondaires, telles que le jeu de course Mario Kart 64 (1996) ou le jeu de plateau et minijeu Mario Party (1998), deviennent par conséquent des ouvrages aussi appréciés que les opus de la série mère.

Par la suite, le plombier et sa myriade de compagnons s’inviteront dans toutes sortes de genres vidéoludiques (football, basketball, jeux olympiques, jeux de réflexion, jeux de rôle, jeux de modélisation, etc.) pour définir une mosaïque où l’universalité est au centre du propos. C’est pourtant bel et bien avec son arrivée dans la sphère du jeu de plateformes en 3D que l’égérie de Nintendo marque une nouvelle révolution à l’aube du XIXe siècle.

Jouissant désormais d’une technique graphique permettant de profiter des environnements de façon totale avec une profondeur de champ à 360°, Mario s’illustre dans Super Mario 64 (1996) de façon homérique.

La 3D polygonale, qui était jusqu’à présent l’adage de créations globalement plus sérieuses, atteint avec ce titre des sommets de liberté, de dépaysement et d’enivrement pour l’époque. Les contrées visitées par le plombier (déserts, volcans, plaines enneigées, îles tropicales, etc.), dans ses anciennes aventures, sont remises au goût du jour pour permettre au joueur de redécouvrir leur exotisme à travers un prisme complètement remanié. Le fait de pouvoir aborder ces surfaces en profitant des nouvelles aptitudes du héros, désormais fort de 28 mouvements distincts, configure une ergonomie de l’exploration encore jamais atteinte dans un jeu de ce type.

Cette étape d’innovation marque un tournant dans l’approche du jeu de plateformes et d’aventure dans le secteur du jeu vidéo, qui deviennent des références en matière de prouesses interactives.

Un personnage qui mute dans le sens du perfectionnement

Chaque nouvelle sortie devient ainsi l’occasion de faire évoluer cette formule dans le sens de la modernité, en capitalisant toujours sur l’effet d’originalité et d’amélioration. Les différents gameplay (jouabilité) mis en œuvre participent à cet état de réinvention puisqu’ils mettent à l’honneur une thématique différente à chaque aventure. Super Mario Sunshine (2002) fait la part belle au maniement d’un jetpack (réacteur dorsal) aquatique, qui propulse le personnage pour parcourir les environnements tropicaux de l’île Delfino, pendant que Super Mario Galaxy (2007) mise sur la découverte de plusieurs planètes en mettant au centre du gameplay la gravitation.

Des tonalités atypiques qui composent l’effet de dérivation – un concept qui désigne l’agentivité des règles de fonctionnement et de participation du jeu – et qui créent par conséquent des attentes fortes dans le public quant aux prochaines trouvailles. En 2017, un nouveau cap d’immersion et d’ambition artistique est franchi pour la franchise. Mario s’essaye au genre révolutionnaire de l’open-world (jeu en monde complètement ouvert) avec Super Mario Odyssey, qui propose d’arpenter différentes époques et différents pays (Égypte ancienne, Japon féodal, mégapole américaine, etc.) à la façon des voyages dans le temps. Cette vision de l’épopée spatio-temporelle résonne comme l’aboutissement suprême des prédispositions originelles de la formule Mario.

Le personnage s’est développé au fil du temps, il a éveillé de nouvelles capacités, il a rencontré de nouveaux compagnons puis quitté son royaume Champignon natal pour découvrir le reste du monde jusqu’aux tréfonds de l’espace.

Cette empreinte impérissable démontre la virtuosité de la série à garder constamment en vue les changements de la modernité pour se les approprier sans pour autant perdre l’essence traditionnelle qui a construit la légende de ses premiers triomphes.

La postérité toujours en ligne de mire

Dans son sillage, il laisse une multitude d’influences conceptuelles qui se ressentent jusque dans l’actualité la plus récente. Kirby et le monde oublié (2022) et le tout nouveau Donkey Kong Bananza (2025), des studios Nintendo, réutilisent clairement le système de jeu libre instauré dans Super Mario Odyssey.

Les chiffres parlent d’eux-mêmes. En 2025, la saga Mario Bros. (sans les séries secondaires) a franchi le seuil des 400 millions d’exemplaires vendus depuis ses débuts en 1985. Plus encore, le blockbuster cinématographique de 2023 produit par le studio américain Illumination enregistre la même année plus de 1,3 milliard de dollars de recette, devenant le second long-métrage d’animation le plus rentable au monde.

Aujourd’hui plus que jamais, Super Mario montre son statut d’œuvre indéfectible du jeu vidéo et de la pop culture mondiale, avec ce que cela implique d’adaptation permanente au public et aux transformations sociales. Comme Mickey Mouse en son temps, Mario a littéralement ouvert des portes à tout un espace de création et de rêverie aux yeux du monde. Il est devenu l’ambassadeur légitime de ces contrées virtuelles où s’animent l’ivresse d’un instant stimulant, la féerie d’un univers facétieux, la joie d’un défi relevé.

The Conversation

Arnault Djaoui ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Nintendo : « Super Mario Bros. », quarante ans de jeunesse éternelle – https://theconversation.com/nintendo-super-mario-bros-quarante-ans-de-jeunesse-eternelle-264230

Quand l’intelligence artificielle bouscule le journalisme

Source: The Conversation – in French – By Vincent Pasquier, Professeur en GRH et relations professionnelles, HEC Montréal

L’intelligence artificielle (IA) semble aujourd’hui offrir à la profession de journaliste le meilleur… comme le pire.

D’un côté, des usages portés par la rigueur et l’excellence, comme en témoignent plusieurs finalistes et lauréats du prestigieux prix Pulitzer. Par exemple, le New York Times a utilisé l’IA pour détecter des cratères de bombes sur images satellites à Gaza, prouvant des frappes en zones civiles.

De l’autre, des usages plus préoccupants : production de contenus trompeurs, standardisation du travail et suppressions de postes dans des rédactions déjà fragilisés par plus d’une décennie de crise.

Depuis 2022, ce tournant technologique s’est nettement accéléré avec la diffusion massive d’outils d’IA générative accessibles au grand public, dont ChatGPT est devenu la figure de proue.

Nous sommes des chercheurs et professeurs au sein du département de Département de gestion des ressources humaines de HEC Montréal. Notre équipe a mené, à la fin de l’année 2024, une enquête auprès de 400 journalistes canadiens et internationaux. Cinq enjeux en ressortent, qui dessinent autant de défis à venir pour les journalistes et les rédactions.

Enjeu #1 : un risque de polarisation de la profession

L’IA générative est déjà bien implantée dans les rédactions. Deux journalistes sur trois déclarent y avoir déjà eu recours et près d’un tiers l’utilisent au moins trois fois par semaine. Son adoption reste toutefois inégale : les jeunes journalistes et les pigistes en font un usage plus fréquent.

Ces écarts générationnels et statutaires laissent entrevoir une possible fracture au sein du métier. D’un côté, les journalistes les plus stables, souvent mieux rémunérés et plus encadrés, pourraient tirer profit de ces outils pour gagner du temps ou améliorer leur production. De l’autre, les professionnels plus jeunes et plus précaires risqueraient davantage d’être mis en concurrence avec la machine pour l’exécution de tâches routinières ou peu valorisées. Une telle polarisation de la profession pourrait constituer un premier enjeu de taille pour les journalistes, d’autant que ce type de phénomène a déjà été largement documenté dans d’autres secteurs suite à l’introduction de nouvelles technologies.




À lire aussi :
L’intelligence artificielle à la rescousse du journalisme


Enjeu #2 : à qui profiteront les gains de productivité ?

Les journalistes qui utilisent l’IA en tirent souvent des bénéfices concrets. Ils évoquent les gains de temps et l’amélioration de la qualité du travail produit, en particulier pour la collecte et l’analyse de données, ainsi que pour la production et l’édition de textes.

Mais ces bénéfices perçus soulèvent un enjeu central : comment serait utilisé le temps nouvellement « libéré » par la machine ? Servirait-il à produire mieux, ou simplement plus ? Profiterait-il aux journalistes, ou aux organisations qui les emploient ? Cet enjeu du partage des gains de productivité se posera avec d’autant plus d’acuité que, dans certains cas, les journalistes participeront eux-mêmes à l’entraînement de ces outils.

Enjeu #3 : le risque d’une diminution de l’effort intellectuel

Malgré son apparition récente, l’IA générative suscite déjà un sentiment de dépendance chez près d’un quart des journalistes. Cette tendance est particulièrement marquée chez les jeunes journalistes, pour qui ces outils sont présents dès le début de carrière.

En déléguant régulièrement des tâches telles que la structuration d’un raisonnement ou l’organisation d’un récit, les journalistes risqueraient d’affaiblir certaines compétences fondamentales, voire d’en retarder l’acquisition. Des recherches menées dans d’autres professions évoquent même le risque d’une « paresse métacognitive » : une diminution de l’effort intellectuel induite par une confiance excessive dans la machine.

Enjeu #4 : plus on s’en sert, moins on s’en méfie

De nombreux journalistes sondés expriment des craintes liées à l’usage de l’IA générative, notamment en ce qui concerne la qualité et l’authenticité des contenus produits.

Toutefois, ces craintes ne sont pas réparties de manière homogène au sein de la profession. Elles sont particulièrement vives chez les non-utilisateurs, au point de s’apparenter, dans certains cas, à une forme de résistance.

À l’inverse, elles tendent à s’atténuer chez les utilisateurs réguliers : plus l’usage devient fréquent, plus la vigilance éthique diminue. Plus frappant encore, les journalistes se déclarant les plus dépendants à l’IA générative sont aussi ceux qui expriment le moins de craintes vis-à-vis de cette technologie.

Enjeu #5 : une régulation qui reste largement à construire

La régulation de l’IA générative dans les rédactions reste embryonnaire. Seul un tiers des journalistes déclarent que leur rédaction dispose d’une politique claire encadrant l’usage de ces outils. Plus étonnant, ils sont encore plus nombreux (36 %) à ne pas savoir si une telle politique existe.

Nos résultats montrent pourtant que, lorsque ces politiques sont connues, elles influencent directement les usages de l’IA générative. En revanche, la présence syndicale ne semble pas jouer, à ce stade, un rôle significatif dans l’appropriation de ces outils. Cette absence de balises collectives s’explique notamment par le manque de recul, mais aussi par la prudence des employeurs, qui hésitent à freiner l’innovation.

Quel avenir pour le journalisme à l’heure de l’IA générative ?

Sans verser dans l’alarmisme, cette étude met en lumière des transformations rapides et encore insuffisamment encadrées. L’IA générative peut faire gagner du temps et améliorer la qualité des contenus, mais elle pourrait aussi, selon les usages, renforcer la précarité, affaiblir certaines compétences ou accentuer les inégalités professionnelles.

Face à ces enjeux – qu’ils touchent à l’emploi, à l’autonomie, à la rémunération ou aux conditions de travail – la mise en place de garde-fous collectifs apparaît essentielle pour préserver un avenir souhaitable pour la profession.


Nous tenons à souligner l’importance des contributions de Xavier Parent-Rocheleau, Nicolas Turcotte-Légaré, Marie-Claude Gaudet et Antoine Bujold à la réalisation du rapport.

La Conversation Canada

L’équipe coordonnées par Vincent Pasquier a reçu des financements de l’Obvia (Observatoire sur les impacts sociétaux de l’IA et du numérique) pour réaliser ce projet .

Catherine Lespérance ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’intelligence artificielle bouscule le journalisme – https://theconversation.com/quand-lintelligence-artificielle-bouscule-le-journalisme-256729

Le dernier accord de paix vacille en RDC : pourquoi ces échecs à répétition

Source: The Conversation – in French – By Kristof Titeca, Professor in International Development, University of Antwerp

Une série d’initiatives de paix lancées depuis 2021 ont cherché à remédier à l’escalade du conflit dans l’est de la République démocratique du Congo (RDC) à la suite d’une nouvelle offensive du groupe rebelle M23.

Les origines de cette crise remontent à la première guerre du Congo en 1996. Depuis lors, l’intensité du conflit dans l’est de la RDC a connu des hauts et des bas. L’offensive actuelle du M23 représente l’une de ses phases les plus violentes.

Au cours de près de trois décennies, de nombreux efforts de paix ont été entrepris, mais aucune intervention locale, régionale ou internationale n’a réussi à instaurer une stabilité durable. Elles n’ont surtout pas réussi à s’attaquer aux dynamiques profondes qui sous-tendent cette violence dans l’est du pays, riche en minerais, où au moins 120 groupes armés seraient actifs.

Parmi ces efforts récents, on peut citer le processus de Nairobi lancé en avril 2022 par la Communauté de l’Afrique de l’Est, et le processus de Luanda en juin de la même année, lancé par le président angolais João Lourenço.

La Communauté d’Afrique de l’Est a déployé sa force régionale en RDC en novembre 2022. Elle a été suivie par la Communauté de développement de l’Afrique australe, qui a déployé des troupes en décembre 2023. Ces troupes se sont retirées respectivement en 2023 et 2025.

Plus récemment, des pourparlers de paix ont eu lieu à Doha, après une rencontre entre les présidents du Congo et du Rwanda en mars 2025. Les États-Unis ont joué le rôle de médiateur à Washington à partir d’avril 2025.

Le conflit a continué de s’intensifier. Plus de 7,8 millions de personnes sont désormais déplacées à l’intérieur de la RDC orientale. Environ 28 millions de personnes supplémentaires sont confrontées à l’insécurité alimentaire, dont près de quatre millions se trouvent dans une situation d’urgence.

Pourquoi tous ces processus de paix n’ont-ils pas réussi à instaurer la stabilité et que pourrait-on faire pour les renforcer ?

J’ai étudié les dynamiques des conflits en Afrique centrale pendant des décennies et, à mon avis, la persistance des conflits dans l’est de la RDC n’est pas due à un manque d’initiatives de paix. Je soutiens que certaines initiatives souffrent d’une conception défaillante, d’autres d’une mise en œuvre difficile, et certaines d’une combinaison des deux.

Une profonde méfiance, des engagements au point mort, l’exclusion d’acteurs clés, des efforts de médiation fragmentés, une importance excessive accordée aux incitations économiques et une faible légitimité nationale ont entravé les progrès.

Idéalement, les processus de paix devraient remédier de manière globale à ces lacunes et jeter les bases d’une stabilité durable.

Mais les conditions idéales sont rares.

Le défi consiste donc à recourir à une diplomatie soutenue pour rendre les cadres imparfaits actuels plus efficaces, tout en instaurant progressivement la confiance et l’inclusivité nécessaires à une paix plus durable.

Ce qui a mal tourné

1. Profonde méfiance entre les parties

Depuis 2021, les processus de paix se sont concentrés sur les négociations de paix entre le gouvernement de la RDC, les représentants du M23 (et leur branche politique Alliance Fleuve Congo) et le gouvernement rwandais. L’ONU et de nombreux autres acteurs ont montré que le Rwanda soutenait le M23, une accusation que Kigali niée à plusieurs reprises.

Au cœur de l’échec de ces processus se trouve un profond manque de confiance. Les relations entre Kinshasa, le M23 et Kigali sont marquées par l’hostilité, la méfiance mutuelle et les promesses non tenues.

De plus, le M23, l’Alliance Fleuve Congo et le Rwanda ne peuvent être considérés comme des acteurs interchangeables. Parmi ces acteurs, des divergences subsistent quant aux objectifs ultimes de la rébellion : marcher sur Kinshasa, prendre le contrôle des territoires clés de l’est du pays ou renforcer leur influence à travers les structures étatiques congolaises plutôt que par le biais d’une administration séparée de facto.

Les atrocités qui continuent d’être commises sur le terrain renforcent la méfiance. Des rapports récents de l’ONU, Human Rights Watch et Amnesty International documentent les meurtres et les exécutions sommaires continus de civils congolais par les rebelles du M23 soutenus par le Rwanda, soulevant des inquiétudes de nettoyage ethnique. Ces atrocités s’ajoutent aux abus commis par les forces congolaises et les milices alliées (regroupées sous le nom de Wazalendo).

2. Mesures de mise en œuvre insuffisantes

En raison de cette méfiance, les parties hésitent à faire le premier pas dans la mise en œuvre des accords. La Déclaration de principes de Doha du 19 juillet 2025, par exemple, engageait les deux parties à procéder à des échanges de prisonniers et à rétablir l’autorité de l’État dans les zones contrôlées par les rebelles. Cependant, Kinshasa a refusé d’échanger des prisonniers avant un règlement définitif, une condition que le M23 considérait comme essentielle.

3. Échec à inclure tous les acteurs régionaux

La guerre dans l’est de la RDC implique plusieurs États voisins. L’Ouganda, en particulier, dispose d’une présence militaire importante et partage les préoccupations et les motivations du Rwanda : tous deux considèrent la région comme une menace pour la sécurité et une opportunité économique, notamment grâce aux exportations d’or et au commerce transfrontalier. Pourtant, l’Ouganda a été exclu de certaines négociations.

Début août 2025, les États africains ont annoncé qu’ils fusionneraient les structures de médiation de la Communauté de l’Afrique de l’Est, de la Communauté de développement de l’Afrique australe et de l’Union africaine en un processus consolidé dirigé par l’Union africaine. Cela pourrait potentiellement impliquer ces acteurs régionaux, en particulier l’Ouganda.

4. Duplication et fragmentation des initiatives

Depuis la reprise du conflit en 2021, un problème récurrent est la prolifération d’initiatives de paix parallèles et qui se chevauchent. Elles impliquent divers acteurs et manquent souvent de cohérence.

5. Le rôle et les limites de la pression extérieure

Le succès des négociations dépend dans une certaine mesure de la marge de manœuvre diplomatique dont disposent les acteurs de la médiation.

Dans le contexte actuel, la pression exercée par les États-Unis est essentielle. Et en effet, à la lumière de la reprise des combats à la mi-août 2025, les États-Unis ont publié une série de déclarations et de sanctions contre les parties impliquées, principalement le M23. Cependant, les attentes d’une intervention musclée des États-Unis, y compris l’idée irréaliste d’un « déploiement de troupes américaines sur le terrain », ont suscité la déception de nombreux acteurs, en particulier en RDC.

6. Les incitations économiques ne suffisent pas

Le processus de Washington a mis fortement l’accent sur la promotion du commerce avec les États-Unis, présentant la croissance économique comme une voie vers la stabilité. Mais la paix nécessite plus que des accords économiques. Cette approche risque de réduire un conflit multidimensionnel, enraciné dans des griefs politiques, sécuritaires et sociaux, à une question de marchés. Elle risque également de donner la priorité aux intérêts économiques américains plutôt que de répondre aux réalités locales.

7. Faible légitimité interne

Enfin, la légitimité des accords de paix actuels en RDC reste contestée. L’intensification du conflit a coïncidé avec une montée des critiques internes à l’encontre du président Félix Tshisekedi, dont l’autorité a été sapée par son incapacité à mettre fin à la violence. Les accords ont été critiqués par la société civile congolaise comme étant dictés par l’extérieur et insuffisamment inclusifs. Ils n’ont pas été ratifiés par le Parlement et n’ont pas impliqué la société civile ni les acteurs locaux.

Que faut-il changer ?

L’est de la RDC reste en proie à des conflits malgré les initiatives de paix. Les promesses non tenues, la mise en œuvre insuffisante et la profonde méfiance freinent les progrès. Les incitations économiques ne peuvent à elles seules résoudre une crise qui trouve ses racines dans des enjeux politiques, la sécurité et les revendications sociales.

Les puissances extérieures ne peuvent qu’exercer une influence. Une paix durable doit être négociée et approuvée par les parties elles-mêmes. Sans un soutien plus large, les processus de paix risquent de ne servir que de mécanismes d’apaisement, et non de véritables voies vers une résolution.

The Conversation

Kristof Titeca does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Le dernier accord de paix vacille en RDC : pourquoi ces échecs à répétition – https://theconversation.com/le-dernier-accord-de-paix-vacille-en-rdc-pourquoi-ces-echecs-a-repetition-264556

La France, championne de la lutte mondiale contre le VIH/sida ? Retour sur 40 ans de diplomatie face à la pandémie

Source: The Conversation – France in French (3) – By Marion Aballéa, Historienne, maître de conférences en histoire contemporaine, Sciences Po Strasbourg – Université de Strasbourg

Depuis la découverte du VIH par une équipe de l’Institut Pasteur en 1983, Paris s’est trouvé à l’origine de plusieurs initiatives diplomatiques notables visant à endiguer l’épidémie. Pour autant, ses contributions financières n’ont pas toujours été à la hauteur des grandes déclarations qu’ont multipliées ses dirigeants et ses diplomates.


« La France veut bien avoir les lauriers et devenir […] la championne de la santé mondiale. En revanche, quand il s’agit de mettre les financements sur la table, il n’y a personne. »

Au cœur de l’été, l’association Aides mettait la pression sur le gouvernement français. Alors que le Fonds mondial de lutte contre le sida, la tuberculose et le paludisme organisera fin 2025 sa huitième levée de fonds, Aides réclame que la France porte à 2 milliards d’euros sa contribution pour les trois prochaines années, soit une augmentation de 25 % par rapport à son engagement précédent.

Dans un contexte d’incertitudes, marqué par le probable désengagement des États-Unis – premier contributeur du Fonds – et par la réduction de l’aide au développement de plusieurs donateurs européens, l’association appelle la France, elle-même engagée dans une politique de réduction des dépenses, à intensifier son engagement pour se hisser à la hauteur du rôle que le pays prétend historiquement jouer en matière de santé globale, particulièrement en matière de lutte contre le VIH/sida.

Au moment où l’administration Trump réduit drastiquement les aides extérieures de Washington, où l’attention internationale se réoriente sur les enjeux sécuritaires et militaires, et où la France est le théâtre d’une crise budgétaire et politique inédite, cet appel doit être compris dans la longue durée : voilà 40 ans que la France se rêve en championne de la lutte mondiale contre le VIH/sida, sans toujours mettre sur la table les moyens qui lui permettraient de réaliser pleinement cette ambition.

L’ambition précoce de construire un leadership français

L’engagement français dans ce qui allait devenir « la diplomatie du sida » remonte à l’apparition de la pandémie au début des années 1980. Il trouve son point de départ dans l’identification, début 1983, du virus responsable de la maladie par une équipe française – celle coordonnée, à l’Institut Pasteur de Paris, par Luc Montagnier, Jean-Claude Chermann et Françoise Barré-Sinoussi.

Cette découverte constitue une opportunité diplomatique : elle permet de faire rayonner l’excellence de la science française et de nouer des coopérations avec divers pays touchés par l’épidémie.

En 1986, la tenue à Paris de la deuxième Conférence mondiale sur le sida témoigne déjà d’une reconnaissance internationale. Et lorsque, au même moment, la primauté de la découverte pastorienne est remise en cause par une équipe américaine, c’est l’ensemble de l’appareil politico-administratif français qui se met en action pour défendre tant les retombées symboliques et financières que l’honneur national. Jusqu’à l’Élysée où François Mitterrand ordonne au Quai d’Orsay d’« agir énergiquement » et d’« engager une campagne » pour défendre la cause française (Archives nationales, 5AG4/5801, « Le point sur le problème du sida », note de Ségolène Royal, 3 septembre 1985, annotation de la main de François Mitterrand).

Sur fond de contentieux franco-américain, le président s’engage personnellement dans la diplomatie du sida. Il pousse à ce que la question soit mise à l’agenda du G7 de Venise en 1987 et préside à la création d’un Comité international d’éthique sur le sida, dont la première réunion se tient à Paris, en 1989.

Alors que discriminations et violations des droits des malades et des séropositifs sont dénoncées internationalement par les associations, se placer en pionnier d’une réflexion sur les enjeux éthiques associés au sida est non seulement un moyen de conforter le leadership français, mais également de se distinguer du rival américain, critiqué pour les mesures discriminatoires et attentatoires aux droits imposées par l’administration Reagan dans sa réponse à l’épidémie.

Cinq ans plus tard, le 1er décembre 1994, le Sommet mondial de Paris sur le sida, porté notamment par Simone Veil, vise à consolider la place singulière que la France pense s’être construite dans la mobilisation internationale face au sida.

Ouverture du Sommet mondial de Paris sur le sida par Édouard Balladur, alors premier ministre, le 1erdécembre 1994.

Le Sommet débouche sur la « Déclaration de Paris », signée par 42 gouvernements, qui acte notamment le principe d’une plus grande implication des personnes malades ou vivant avec le VIH dans la réponse à la maladie. La France se pose en moteur de la diplomatie du sida, et fait de la défense des droits des malades le cœur d’un engagement qui est aussi l’outil d’une stratégie d’influence à l’échelle globale.

Un engagement financier critiqué

Toutefois, la réussite du Sommet de Paris n’est pas à la hauteur des attentes françaises. On pensait y réunir chefs d’État et de gouvernement, mais peu répondent finalement à l’appel. Les États-Unis, l’Allemagne ou le Royaume-Uni n’y envoient, par exemple, que leur ministre de la santé. Les associations dénoncent, par ailleurs, des engagements décevants sur l’inclusion et les droits des malades. Surtout, au printemps 1995, au lendemain de l’élection de Jacques Chirac à la présidence de la République, le nouveau gouvernement dirigé par Alain Juppé revient sur la promesse faite lors du Sommet de mobiliser 100 millions de francs pour la mise en œuvre des projets qui y avaient été discutés.

Ce renoncement vient conforter ceux qui dénoncent déjà, depuis plusieurs années, les postures françaises sur la scène internationale du sida : celles d’une diplomatie qui veut jouer les premiers rôles, qui s’épanouit dans les grands discours et la défense de grands principes, mais qui refuse de contribuer de manière proportionnelle à l’effort global contre la maladie.

Entre 1986 et 1991, la France a consacré environ 38,5 millions de dollars au combat international contre le sida : c’est infiniment moins que le leader américain (273 millions), mais aussi nettement moins que le Royaume-Uni (59,5 millions), et à peine plus qu’un « petit » pays comme le Danemark (36,9 millions) (Source : Commission européenne, « AIDS Policy of the Community and the Member States in the Developing World », 7 janvier 1994). Encore cette enveloppe est-elle très majoritairement consacrée à des aides bilatérales (notamment à destination de pays africains francophones) et très peu aux programmes multilatéraux mis en place pour répondre à la pandémie. Ce qui donne prise aux accusations de diplomatie opportuniste, utilisant le sida pour conforter son influence en Afrique au lieu de s’engager pleinement dans le nécessaire effort commun.

Dans un contexte bouleversé, en 1996, par l’arrivée de multithérapies efficaces pour neutraliser le VIH, la diplomatie française continue pourtant, au tournant du XXIe siècle, à se prévaloir de la découverte française du VIH, socle à ses yeux d’une légitimité et d’une responsabilité historiques, pour prétendre à une place singulière sur la scène internationale du sida, tout en restant discrète sur ses propres contributions.

En décembre 1997, à Abidjan (Côte d’Ivoire), Jacques Chirac est le premier dirigeant occidental à dénoncer le fossé des traitements entre Nord et Sud, et à appeler la communauté internationale à se mobiliser pour que les nouveaux traitements soient accessibles à tous. Une déclaration qui change la face du combat contre le sida, mais que la France est évidemment incapable de financer.

C’est, dès lors, moins en mettant de l’argent sur la table qu’en participant à imaginer de nouveaux mécanismes de financement que la diplomatie française parvient, à partir des années 2000, à maintenir son influence de premier plan.

Paris joue un rôle important dans la création du Fonds mondial, en 2002, dont un Français, Michel Kazatchkine, est entre 2007 et 2012 le deuxième directeur exécutif.

Jacques Chirac et son homologue brésilien Lula sont par ailleurs à l’origine, en 2006, de la création d’Unitaid, un mécanisme affectant à la lutte internationale contre le sida le produit d’une nouvelle taxe sur les billets d’avion. Le leadership français paraît aussi se décliner à l’échelle locale : la maire de Paris Anne Hidalgo est à l’initiative, en 2014, d’une nouvelle « Déclaration de Paris », fondant un réseau de métropoles mondiales engagées à devenir des « villes zéro-sida ».

Conférence de lancement d’Unitaid en 1996. Jacques Chirac, aux côtés du président brésilien Lula, au centre, entourés par le président des États-Unis Bill Clinton et le secrétaire général de l’ONU Kofi Annan.
UN Photo/Paulo Filgueiras

Dans un souci de cohérence, la France réoriente alors vers les programmes multilatéraux la majeure partie de l’aide internationale qu’elle consacre à la lutte contre le sida. Elle est, depuis sa création, la deuxième contributrice au Fonds mondial, (loin) derrière les États-Unis. En octobre 2019, elle accueille à Lyon la réunion des donateurs en vue de la sixième reconstitution du Fonds. Emmanuel Macron y ravive la tradition de l’engagement personnel des présidents français en annonçant une contribution française en hausse de 25 %. La promesse étant renouvelée trois ans plus tard, les engagements triennaux français sont passés d’un peu plus de 1 milliard d’euros en 2017-2019 à près de 1,6 milliard en 2023-2025.

Au 31 août 2025, à quatre mois de l’échéance, la France n’a toutefois versé qu’un peu plus de 850 millions d’euros sur les 1,6 milliard promis pour 2023-2025.

2025 : une ambition réalisée, ou enterrée

Marion Aballéa a récemment publié Une histoire mondiale du sida, 1981-2025, aux éditions du CNRS.

La France peut-elle dès lors être considérée comme une « championne » de la diplomatie du sida ? Depuis quarante ans, le Quai d’Orsay et l’Élysée, relayés par le ministère de la santé, ont voulu construire cette posture et en faire un levier d’influence internationale. Paris a été au cœur de plusieurs des grandes mobilisations ayant érigé la pandémie de VIH/sida en un défi global. Mais en rechignant à aligner ses contributions financières avec ses déclarations, la France s’est aussi attiré des critiques dénonçant l’instrumentalisation cynique de la pandémie à des fins purement diplomatiques.

En 2011, elle semblait encore chercher à contourner la logique multilatérale du Fonds mondial en instituant L’Initiative, un mécanisme vers lequel elle dirige 20 % de sa contribution et dont elle pilote l’attribution à des pays francophones.

L’appel d’Aides à porter la contribution française au Fonds mondial à 2 milliards d’euros doit être lu à la lumière de ce positionnement historique. À l’heure où le leader états-unien fait défection, et alors que les Nations unies n’ont pas renoncé à l’objectif de « mettre fin à la pandémie » d’ici à 2030, la France peut endosser pleinement le rôle de leader auquel elle prétend. Selon la réponse de Paris à cet appel, l’ambition affirmée il y a quarante ans sera réanimée ou, à l’inverse, durablement enterrée…

The Conversation

Marion Aballéa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La France, championne de la lutte mondiale contre le VIH/sida ? Retour sur 40 ans de diplomatie face à la pandémie – https://theconversation.com/la-france-championne-de-la-lutte-mondiale-contre-le-vih-sida-retour-sur-40-ans-de-diplomatie-face-a-la-pandemie-264297

Échec du présidentialisme, retour au parlementarisme ?

Source: The Conversation – in French – By Nicolas Rousselier, professeur d’histoire politique, Sciences Po

Après la chute des gouvernements Barnier et Bayrou, le nouveau premier ministre Sébastien Lecornu saura-t-il obtenir le soutien des parlementaires ? La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ?


Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.

Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.

Dès le Moyen Âge, le Parlement contre le prince

L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.

Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.

Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.

Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.

Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.

Une domination de l’exécutif fondée sur l’expertise et sur le règne des partis

Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).

D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.

Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec).

La « forme-parti » pour reprendre l’expression du politiste italien, Paol  Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.

Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.

Le parlementarisme a fonctionné sous la IIIᵉ et la IVᵉ République

Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.

L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.




À lire aussi :
Loi Duplomb, A69 : Comment le gouvernement Bayrou a contourné l’Assemblée nationale pour faire passer ses projets. La démocratie malmenée ?


Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.

La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.

The Conversation

Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Échec du présidentialisme, retour au parlementarisme ? – https://theconversation.com/echec-du-presidentialisme-retour-au-parlementarisme-264996

L’Allemagne face à Trump : le vrai poids du déséquilibre commercial

Source: The Conversation – France (in French) – By Damien Broussolle, Maître de conférences, Sciences Po Strasbourg – Université de Strasbourg

Le président des États-Unis Donald Trump s’est beaucoup inquiété de la place prise par les importations « Made in Germany » dans son économie. Qu’en est-il en réalité ? Dans quels secteurs l’Allemagne a-t-elle pris des parts de marché aux entreprises états-uniennes ? Quelle part occupent les biens et les services ?


La réélection de Donald Trump en 2024 a relancé une politique protectionniste à vocation mercantiliste aux États-Unis. Déjà la politique America First, lancée par le président Trump en 2018-2019, visait à réduire le déficit commercial américain en trois vagues de mesures, augmentant les droits de douanes jusqu’à 25 %. Si cette première offensive avait pu sembler surmontable, puisque finalement des aménagements avaient été trouvés, celle de l’administration Trump 2 apparaît extravagante.

En imposant des droits de douane exorbitants, prétendument réciproques, tous azimuts, elle déclare une guerre commerciale au monde entier. Dans ce combat, l’Union européenne (UE), et surtout l’Allemagne, avec ses excédents commerciaux élevés, sont présentées comme des profiteuses et des adversaires. La question se pose néanmoins de savoir dans quelle mesure ces accusations sont fondées. Cela conduit à examiner le commerce bilatéral entre l’Allemagne et les États-Unis.

Près de 247 milliards d’euros d’excédent

Avec un excédent du compte des transactions courantes de près de 247 milliards d’euros en 2024, proche du produit intérieur brut (PIB) de la Grèce, l’Allemagne apparaît comme un géant naturel du commerce international. Pourtant, jusqu’au début des années 1990, elle ne se distinguait que modestement de ses principaux concurrents de l’Organisation de coopération et de développement économiques (OCDE). On a ainsi oublié que le solde commercial allemand fut fragile jusqu’au début des années 1980.

La croissance prodigieuse date surtout de l’accentuation de la mondialisation consécutive à la crise de 2008. C’est à ce moment-là que l’économie allemande s’est franchement tournée vers la Russie, vers la Chine et vers les États-Unis, pays où les entreprises d’outre-Rhin avaient identifié de nouvelles sources de croissance des exportations pour les points forts du commerce allemand (automobile, équipement industriel,chimie-pharmacie).




À lire aussi :
Trump impose des droits de douane sur les automobiles : quels constructeurs ont le plus à perdre ?


Depuis le début des années 2000, l’Allemagne tutoie la part des États-Unis dans les exportations mondiales de marchandises, qui avoisine les 8 %. Depuis 2015, ils sont devenus son premier partenaire commercial. En 2024, le commerce vers les États-Unis représentait 10,4 % de ses exportations (1re position), et 6,9 % de ses importations (2e position). La même année, 3,7 % des exportations des États-Unis étaient destinés à l’Allemagne (7e position), alors que 4,9 % des importations (4e position) en provenaient, nous y reviendrons.

Dans les deux cas, le décalage entre exportations et importations illustre l’importance du surplus du commerce extérieur allemand. Sa valeur a d’ailleurs nettement augmenté depuis le premier mandat du président Trump, pour atteindre les 70 milliards d’euros en 2024 (Graphique 1). Ce chiffre est en grande partie dû à l’excédent de marchandises. Depuis plusieurs années, combiné avec les services, il se maintient aux environs de 1,75 % du PIB allemand.

Hausse des revenus des investissements

Les revenus des investissements allemands aux États-Unis renforcent l’excédent commercial. Ils ont augmenté de façon sensible depuis 2022. En 2024, l’Allemagne est le troisième investisseur aux États-Unis pour un montant de 677 millions de dollars. Du côté américain, le poids du déficit commercial bilatéral dans le PIB est globalement stable depuis plusieurs années, à 0,25 % du PIB : environ 10 % du déficit commercial des États-Unis est attribuable au commerce avec l’Allemagne.

Graphique 1 : Solde des échanges de biens et services de l’Allemagne avec les États-Unis

Première partie de la balance des paiements : échanges de biens et de services et flux des revenus primaires et secondaires.


Fourni par l’auteur

Source : Destatis (N. B. En noir, années du premier mandat de Trump marquées par la crise du Covid-19).

L’ampleur du déficit américain de marchandises apparaît spectaculaire. Depuis près de vingt-cinq ans, bon an mal an, les entreprises installées en Allemagne vendent aux États-Unis le double de la valeur des marchandises qu’elles y achètent (Graphique 2).

Graphique 2 : Commerce bilatéral de marchandises (en milliards de dollars réels)


Fourni par l’auteur

Source : Census Bureau of USA. Poids du solde échelle de droite, inversée ; (20) = – 20.

_Lecture : En 2024, le déficit des marchandises atteint -50 % du commerce bilatéral.

Dollars US réels : hors inflation (déflateur du PIB, Banque mondiale)_.

Un concurrent industriel de premier plan

Au cours de cette période, la plupart des lignes de la nomenclature de produits marquent une dégradation pour les États-Unis. De sorte qu’actuellement, mis à part les produits pétroliers et ceux tirés de l’agriculture ou de la pêche, toutes les grandes rubriques sont excédentaires pour l’Allemagne (Graphique 3).

Graphique 3 : Contribution au solde des échanges de marchandises, moyenne 2022-2024 (en %)


Fourni par l’auteur

Source : Destatis. Le solde global équivaut à 100 %.

_Lecture : En moyenne, sur les trois années 2022-2024, le solde des échanges de métaux et articles en métal contribue au solde global positif pour +8,1 %.

N. B. Certains soldes étant volatils, la moyenne sur trois ans a été utilisée pour lisser les données_.

Ces constats confirment, s’il en était besoin, que l’Allemagne est une redoutable concurrente industrielle, fournissant des produits de qualité peu sensibles aux prix du fait de leurs caractéristiques, avec une spécialisation dans les machines, dans les équipements industriels, dans l’automobile et dans la chimie. Moins connue est, toutefois, sa position dans le domaine des échanges de services.

Il convient, tout d’abord, de souligner que les spécificités des échanges de services font que les volumes enregistrés dans la balance commerciale sont habituellement modestes. Le commerce entre les deux pays ne déroge pas à ce constat général. Ainsi, en 2024, leurs échanges de services représentaient pour chacun d’entre eux moins de 30 % du commerce extérieur. Pour autant, l’Allemagne bénéficie depuis au moins deux décennies d’un excédent dans le domaine des services. Il est revenu, en 2024, à un étiage proche de celui du premier mandat de Trump, à moins de 4 milliards d’euros (Graphique 4). Cet excédent résulte d’un tableau contrasté avec de forts déficits bilatéraux, compensés par des excédents encore plus élevés (graphique n°5).

Graphique 4 : Échanges de services de l’Allemagne avec les États-Unis (milliards de dollars courants)


Fourni par l’auteur

Source : OCDE, Balanced trade in services (BaTIS).

Les États-Unis plus forts que l’Allemagne pour le tourisme

L’Allemagne est un pays moins touristique que les États-Unis, qui, du fait de leur spécialisation internationale, ont, en outre, des surplus dans les services de télécommunications et d’information, dans les services financiers, dans les services aux entreprises et, enfin, dans les services récréatifs et culturels. Plusieurs de ces excédents américains ont néanmoins subi une érosion entre 2005 et 2023. Cumulées, ces rubriques font plonger le solde allemand des échanges de services (Graphique 5).

France 24, 2025.

Toutefois l’impact des échanges de marchandises sur les flux de services contrebalance quasiment cette chute (transports de marchandises, services de réparation, revenus de la propriété intellectuelle sur les produits industriels, chimiques et pharmaceutiques). Ces catégories rétablissent déjà quasiment l’équilibre. S’ajoute une catégorie hybride, excédentaire depuis des années, qui recense l’ensemble des échanges des administrations gouvernementales et de leur personnel (ambassades, organisations internationales, bases militaires…) et englobe essentiellement des mouvements de marchandises. Son excédent est donc aussi en relation avec la puissance industrielle allemande.

Graphique 5 : Contributions au solde des échanges de services de l’Allemagne avec les États-Unis en 2023 (en %)


Fourni par l’auteur

Source : OCDE (BaTIS). Le solde global équivaut à 100 %.

Lecture : Le solde des échanges de services de télécommunications et d’information contribue pour -61 % au solde global.

Une dernière rubrique largement excédentaire (près de +70 % en 2023), illustre la compétitivité de l’Allemagne dans le secteur de l’assurance. Finalement, si de nombreuses rubriques de la balance des services sont défavorables à l’Allemagne, sa force dans le domaine industriel lui permet de les compenser presque entièrement. Ceci étant dit, l’image donnée est probablement incomplète.

Le rôle de l’optimisation fiscale

Comme le souligne la Bundesbank, les principales économies des pays de l’UE ont toutes une balance des services excédentaires vis-à-vis des États-Unis, alors que l’UE, considérée globalement, est largement déficitaire (-109 milliards d’euros en 2023). Les stratégies d’optimisation fiscales des entreprises américaines d’Internet pourraient expliquer cette étrangeté.

Ce tour d’horizon du commerce entre l’Allemagne et les États-Unis illustre le fait que, malgré ses outrances et son comportement apparemment incohérent, le président Trump ne choisit pas ses attaques ni ses points de blocage au hasard. Il y a, en effet, un important déséquilibre commercial entre les deux pays. Cela n’en valide pas pour autant sa méthode ou son raisonnement, qui bafouent les principes des négociations commerciales internationales menées depuis 1947, sous l’égide des États-Unis, avec la création du GATT.

Ce « problème » bilatéral nourrit un différend européen puisque le commerce international est du domaine communautaire. L’UE tout entière s’est donc trouvée placée dans le collimateur de Trump 2, en partie du fait de l’ampleur de l’excédent allemand.

De 2022 à 2024, à elle seule, l’Allemagne expliquait quasiment 40 % de l’excédent européen vis-à-vis des États-Unis. Les pays déficitaires avec les États-Unis (Espagne, Belgique, Pays-Bas), ou à faible excédent comme la France, se sont alors trouvés indûment frappés des mêmes droits prétendument réciproques que l’Allemagne, qui en revanche a pu s’abriter derrière sa situation commerciale moins problématique du point de vue américain. Cette « solidarité » européenne s’est retrouvée dans les négociations commerciales, qui ont surtout consisté, du côté européen, à éviter à l’automobile et à la chimie-pharmacie allemande les conséquences les plus désastreuses des outrances trumpiennes (DGTES 2025).

The Conversation

Damien Broussolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’Allemagne face à Trump : le vrai poids du déséquilibre commercial – https://theconversation.com/lallemagne-face-a-trump-le-vrai-poids-du-desequilibre-commercial-264499

Quelles solutions de dépollution contre les PFAS dans les sols et les eaux souterraines ?

Source: The Conversation – in French – By Maxime Cochennec, Chercheur site et sols pollués, BRGM

Les PFAS, ou substances per- et polyfluoroalkylées, sont souvent appelées « polluants éternels ». Dans les Ardennes françaises par exemple, les habitants de plusieurs communes ont, depuis juillet 2025, interdiction de consommer l’eau du robinet pour les boissons ou la préparation des biberons.

Ces substances posent un problème de pollution environnementale qui tient du casse-tête. Le cœur du problème tient aux coûts élevés de dépollution et au fait que les techniques de traitement ne permettent pas, à l’heure actuelle, de détruire de façon certaine et systématique ces composés sans risquer de déplacer le problème en produisant d’autres PFAS plus petits et potentiellement aussi dangereux.


La pollution des sols et des eaux souterraines par les substances perfluoroalkylés et polyfluoroalkylés (acronyme anglais PFAS) représente l’un des défis environnementaux et sanitaires majeurs de notre époque. Une enquête menée par le Monde et plusieurs autres médias partenaires révélait, début 2025, l’ampleur de la contamination des sols et des eaux par les PFAS.

Comment s’y prendre pour dépolluer les milieux ? Face à cette famille de composés dont certains sont classés « polluants organiques persistants et cancérogènes », des solutions de dépollution des milieux existent déjà, quoique coûteuses. Les techniques de destruction des PFAS, en revanche, sont encore en cours de maturation dans les laboratoires. État des lieux.

Ne pas confondre traitement et élimination

La distinction entre le traitement des milieux et l’élimination (ou dégradation) des PFAS n’est peut-être pas évidente, mais elle est pourtant essentielle.

Les sols aussi sont un réservoir de pollution aux PFAS.
Victor Dueñas Teixeira/Unsplash, CC BY, CC BY-NC-ND

Pour les sols et pour les eaux souterraines, le traitement des PFAS consiste à diminuer suffisamment les concentrations mesurables afin de retrouver un état le plus proche possible de l’état avant la pollution, avec un coût technico-économique acceptable.

En revanche, ce traitement n’implique pas forcément la dégradation des PFAS, c’est-à-dire l’utilisation de techniques physiques, thermiques, chimiques ou biologiques permettant de transformer les PFAS en molécules moins dangereuses.

L’alternative consiste à en extraire les PFAS pour les concentrer dans des résidus liquides ou solides.

Toutefois, ce processus n’est pas entièrement satisfaisant. Bien que l’état des milieux soit rétabli, les résidus issus du traitement peuvent constituer une nouvelle source de pollution, ou tout au moins un déchet qu’il est nécessaire de gérer.

Un exemple typique est le traitement de l’eau par circulation dans du charbon actif granulaire, capable de retenir une partie des PFAS, mais une partie seulement. Le charbon actif utilisé devient alors un résidu concentré dont la bonne gestion est essentielle pour ne pas engendrer une nouvelle pollution.




À lire aussi :
PFAS et dépollution de l’eau : les pistes actuelles pour traiter ces « polluants éternels »


Les ingénieurs et les chercheurs développent actuellement des méthodes pour décomposer ou éliminer les PFAS in situ, directement dans les sols et dans les eaux souterraines.

Pour le moment, la principale difficulté est d’ordre chimique. Il s’agit de rompre la liaison carbone-fluor (C-F), caractéristique des PFAS et qui leur procure cette incroyable stabilité dans le temps. En effet, il faut 30 % plus d’énergie pour casser la liaison carbone-fluor que la liaison carbone-hydrogène, que l’on retrouve dans beaucoup de polluants organiques.

Certaines techniques semblent amorcer une dégradation, mais il est crucial d’éviter une dégradation incomplète, qui pourrait générer comme sous-produits des PFAS de poids moléculaire plus faible, souvent plus mobiles et d’autant plus problématiques que leurs impacts sur la santé et sur l’environnement sont encore peu ou pas connus.

Ce n’est pas tout : les méthodes basées sur la chimie impliquent le plus souvent d’ajouter des réactifs ou de maintenir localement des conditions de température et/ou de pression potentiellement néfastes pour l’environnement.

D’autres approches envisagent la biodégradation des PFAS par des microorganismes, mais les résultats sont pour le moment contrastés, malgré quelques travaux récents plus encourageants.




À lire aussi :
PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?


Les solutions éprouvées

On l’a vu, la dégradation des PFAS directement dans les sols et dans les eaux implique de nombreux verrous scientifiques à lever.

Un certain nombre de techniques permettent toutefois de séparer les PFAS des eaux après pompage (c’est-à-dire, ex-situ), et cela à l’échelle industrielle. Les trois techniques les plus matures sont le charbon actif granulaire, les résines échangeuses d’ions et la filtration membranaire – en particulier la nanofiltration et l’osmose inverse.

Le charbon actif et les résines échangeuses d’ions reposent sur une affinité chimique des PFAS beaucoup plus grande pour le substrat (charbon ou résine) que pour le milieu aqueux : ce sont des techniques dites d’adsorption.

Charbon actif après utilisation (dans le cadre d’un autre précédé que la dépollution aux PFAS).
Olivier Lemoine, CC BY-SA

L’adsorption ne doit pas être confondue avec l’absorption, dans la mesure où il s’agit d’un phénomène de surface. Les PFAS s’accumulent alors sur la surface, plutôt qu’à l’intérieur, du substrat, notamment via des interactions électrostatiques attractives. Heureusement, la surface disponible pour du charbon actif en granulés est importante grâce à sa porosité microscopique. Pour 100 grammes de produit, elle représente l’équivalent d’une dizaine de terrains de football.

La filtration, enfin, repose principalement sur l’exclusion par la taille des molécules. Or, les PFAS les plus préoccupants sont des molécules relativement petites. Les pores des filtres doivent donc être particulièrement petits, et l’énergie nécessaire pour y faire circuler l’eau importante. Cela constitue le principal défi posé par cette technique appliquée au traitement des PFAS.

Les défis pour les PFAS à chaînes courtes et le traitement des sols

Les techniques qui précèdent sont déjà connues et utilisées de longue date pour d’autres polluants, mais qu’elles demeurent efficaces pour de nombreux PFAS. Ces techniques sont d’ailleurs parmi les rares ayant atteint le niveau 9 sur l’échelle TRL (Technology Readiness Level), un niveau maximal qui correspond à la validation du procédé dans l’environnement réel.

Néanmoins, de nombreuses recherches sont en cours pour rendre ces techniques plus efficaces vis-à-vis des PFAS à chaînes courtes et ultra-courtes – c’est-à-dire, qui comportent moins de six atomes de carbones perfluorés. En effet, ces molécules ont moins d’affinités avec les surfaces et sont donc plus difficiles à séparer du milieu aqueux.

Quant aux techniques pour traiter les sols, l’approche doit être radicalement différente : il faut récupérer les PFAS adsorbés sur les sols. Pour ce faire, des solutions basées sur l’injection d’eau sont à l’étude, par exemple avec l’ajout d’additifs comme des gels et des solvants.

Ces additifs, lorsqu’ils sont bien choisis, permettent de modifier les interactions électrostatiques et hydrophobes dans le système sol-eau souterraine afin de mobiliser les PFAS et de pouvoir les en extraire. Le principal défi est qu’ils ne doivent pas générer une pollution secondaire des milieux. L’eau extraite, chargée en PFAS, doit alors être gérée avec précaution, comme pour un charbon actif usagé.

Les pistes pour détruire les PFAS

Reste ensuite à savoir quoi faire de ces déchets chargés en PFAS. Outre le confinement dans des installations de stockage, dont le principal risque est d’impacter à nouveau l’environnement, l’incinération est actuellement la seule alternative.

Le problème est que les PFAS sont des molécules très stables. Cette technique recourt aux incinérateurs spécialisés dans les déchets dangereux ou incinérateurs de cimenterie, dont la température monte au-dessus de 1 000 °C pour un temps de résidence d’au moins trois secondes. Il s’agit d’une technique énergivore et pas entièrement sûre dans la mesure où la présence éventuelle de sous-produits de PFAS dans les gaz de combustion fait encore débat.

Parmi les autres techniques de dégradation, on peut citer l’oxydation à l’eau supercritique, qui a pu démontrer son efficacité pour dégrader un grand nombre de PFAS pour un coût énergétique moindre que l’incinération. La technique permet de déclencher l’oxydation des PFAS. Elle repose néanmoins sur des conditions de température et de pression très élevées (plus de 375 °C et plus de 218 bars) et implique donc une dépense importante d’énergie.

Il en est de même pour la sonocavitation, qui consiste à créer des bulles microscopiques à l’aide d’ultrasons qui, en implosant, génèrent des pressions et des températures à même de dégrader les PFAS en générant un minimum de sous-produits.

Le panel de techniques présenté ici n’est évidemment pas exhaustif. Il se concentre sur les techniques les plus matures, dont le nombre reste relativement restreint. Des dizaines d’autres méthodes sont actuellement à l’étude dans les laboratoires.

Que retenir de cet inventaire ? Le traitement des milieux, en particulier les eaux et les sols, n’implique pas systématiquement la dégradation des PFAS. Pour y parvenir, il faudra mobiliser des nouvelles approches encore en cours de recherche et développement.

De plus, la dépollution devra d’abord se concentrer sur le traitement des zones sources (sols directement impactés avec des produits contenant des PFAS, etc.) afin d’éviter les pollutions secondaires. En effet, une dépollution à très grande échelle engendrerait un coût gigantesque, estimé à 2 000 milliards d’euros sur vingt ans.

En conséquence, même si des techniques de dépollution existent déjà et que d’autres sont en développement, elles ne suffiront pas. Elles doivent être couplées à une surveillance accrue des milieux, à une évolution des réglementations sur l’usage et sur la production de PFAS et à un effort de recherche soutenu pour restreindre ou pour substituer ces substances lorsque cela est possible.

The Conversation

Maxime Cochennec a reçu des financements de l’Agence de la transition écologique (ADEME) et du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS.

Clément Zornig et Stefan Colombano ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Quelles solutions de dépollution contre les PFAS dans les sols et les eaux souterraines ? – https://theconversation.com/quelles-solutions-de-depollution-contre-les-pfas-dans-les-sols-et-les-eaux-souterraines-260117

L’alexithymie : pourquoi certaines personnes ne comprennent pas leurs émotions

Source: The Conversation – in French – By Jimmy Bordarie, Docteur, Maitre de conférences, Université de Tours

L’alexithymie correspond à des difficultés majeures pour identifier, traiter et exprimer ses émotions. Étudié depuis plusieurs décennies dans différents champs de la psychologie, ce trait de la personnalité reste méconnu du grand public. Mieux le comprendre aiderait à l’inclusion des personnes concernées dans la société.


Les émotions font partie de nous et s’imposent à nous tout en façonnant nos relations aux autres, et ce alors même qu’elles restent souvent un mystère. Pour certaines personnes, la difficulté à les identifier et les comprendre peut avoir des répercussions sur la santé.

On a souvent tendance à penser que nous comprenons plutôt bien nos émotions. Pourtant, en utilisant certains instruments de mesure (les échelles de Toronto), on estime qu’entre 17 et 23 % de la population rencontre des difficultés majeures pour identifier et exprimer ses états émotionnels. C’est ce que l’on appelle alors l’alexithymie.

Malgré sa fréquence, cette particularité reste méconnue du grand public, bien qu’elle puisse impacter négativement la santé mentale, les relations interpersonnelles et de façon plus générale, la qualité de vie des personnes concernées.

À noter qu’à ce jour, l’alexithymie n’est pas considérée comme une maladie. Elle n’est pas mentionnée dans la dernière édition du Diagnostic and Statistical Manual of Mental Disorders (DSM-5), le manuel de l’American Psychiatric Association qui classifie les pathologies mentales, ni dans la classification internationale des maladies (CIM-11) de l’Organisation mondiale de la santé (OMS).

Étymologie et histoire du mot « alexithymie »

Le terme « alexithymie », dérivé du grec a (sans), lexis (mot) et thymos (humeur, émotion), signifie « absence de mots pour les émotions ». Il a été introduit dans les années 1970 par le psychiatre Peter Sifneos. Il désigne un ensemble de difficultés à identifier, décrire et traiter ses propres émotions.

Pour illustrer cela, imaginez que l’on vous demande de décrire une couleur que vous n’avez jamais vue – c’est une situation assez proche de l’expérience vécue par une personne alexithymique lorsqu’elle tente d’expliquer ce qu’elle ressent.

Des difficultés pour identifier et décrire ses émotions

Des recherches montrent que l’alexithymie est liée à des spécificités dans le fonctionnement cérébral, notamment dans des zones impliquées dans le traitement émotionnel et la conscience de soi, telles que l’insula antérieure et le cortex préfrontal.

Des études par neuroimagerie ont révélé une connectivité réduite entre ces régions chez les personnes alexithymiques, ce qui pourrait représenter une piste pour expliquer, en partie, leur difficulté à identifier et traiter les émotions.

Deux types d’alexithymie sont principalement identifiés. L’alexithymie primaire est considérée comme un trait de personnalité stable. Des facteurs génétiques ou neurobiologiques et développementaux semblent jouer un rôle majeur.

L’alexithymie secondaire, en revanche, apparaît à la suite de traumatismes, de stress psychologique, de maladies ou troubles de la santé mentale comme la dépression. Elle se développe plus tard dans la vie et affecte le traitement émotionnel auparavant intact.

Des émotions dans la relation aux autres et dans le corps

L’alexithymie représente ainsi, soit un facteur primaire de personnalité qui conditionne une réaction inadaptée au stress, soit un facteur secondaire à des situations stressantes, auquel cas elle a une valeur plus défensive. Dans tous les cas, cette déconnexion émotionnelle peut affecter les relations interpersonnelles.

Il peut être difficile pour une personne alexithymique de soutenir émotionnellement un proche alors même qu’elle ne comprend pas ses propres sentiments. Pour autant, ne pas comprendre ses émotions ne signifie pas forcément que l’on est alexithymique et cela n’a pas systématiquement des répercussions sur la santé physique ou psychopathologique.

Les personnes concernées savent que les émotions existent, mais elles ont du mal à les discerner ou à les exprimer. Plutôt que décrire des émotions spécifiques comme la tristesse, la joie ou la colère, elles parlent souvent d’un malaise général ou se sentent en décalage, sans savoir pourquoi.

Parfois, elles ressentent même des symptômes physiques liés à ces émotions incomprises. Car même si elles peinent à verbaliser leurs émotions, les personnes alexithymiques les ressentent bel et bien. Ces émotions non reconnues peuvent se traduire par des symptômes physiques tels que des maux de tête, des douleurs à l’estomac ou de la fatigue – un phénomène appelé somatisation.

En effet, lorsque les émotions ne peuvent être exprimées par les mots, elles se manifestent souvent alors dans le corps, par des inconforts ou des douleurs plus ou moins localisées. D’ailleurs, certaines études ont montré que l’alexithymie est un facteur de vulnérabilité qui affecte l’état de santé général, favorise la dépression, l’anxiété, et peut constituer un facteur de risque pour l’alcoolodépendance par exemple.

Manque de chaleur émotionnelle ou mécanisme de défense ?

Une idée reçue est de penser que l’alexithymie équivaut à un manque de chaleur émotionnelle. Les difficultés rencontrées sur le plan émotionnel constituent deux composantes de l’alexithymie (la première est liée à l’identification des émotions, la seconde est liée à leur description), toutes deux associées à une troisième composante (la pensée opérationnelle ouverte sur l’extérieur). Cette dernière correspond à une façon de penser tournée vers l’opérationnel plutôt que l’émotionnel.

Bien que les personnes concernées puissent sembler détachées, ce n’est pas un choix délibéré. L’alexithymie est une difficulté cognitive qui rend la reconnaissance et l’expression des émotions intrinsèquement complexes. Ces individus n’évitent pas intentionnellement leurs émotions, leurs cerveaux les traitent différemment. Si les recherches sur l’implication du cerveau dans l’alexithymie ont pu conduire à des résultats contradictoires, de récentes méta-analyses confortent l’hypothèse d’une base neurobiologique de l’alexithymie.

Dans sa conception secondaire, elle pourrait même constituer un mécanisme de défense inconscient, utilisé pour atténuer les émotions négatives et douloureuses et/ou pour contrecarrer les conséquences problématiques de certains facteurs de stress.

En « guérir » ou apprendre à vivre avec ?

Bien que l’alexithymie ne soit généralement pas guérissable puisqu’il ne s’agit pas d’une maladie mais d’un trait de personnalité, au même titre que l’hypersensibilité à laquelle elle est associée, il existe des moyens de mieux vivre avec.




À lire aussi :
Vous avez dit « hypersensibilité » : que nous dit la science ?


Parmi les travaux sur le sujet, certaines études soulignent que la psychothérapie, en particulier les thérapies basées sur les compétences, montre des résultats prometteurs. Ces thérapies aident les individus à reconnaître leurs émotions en se concentrant sur leurs sensations physiques et comportements observables.

Par ailleurs, des thérapies de groupe ou individuelles peuvent apprendre aux personnes alexithymiques à observer leurs états internes sans jugement, les aidant progressivement à faire le lien entre leurs sensations corporelles et leurs émotions. Les recherches se poursuivent sur d’autres approches thérapeutiques.

D’autres études s’intéressent à des thérapies moins centrées sur l’expression verbale, comme l’art-thérapie ou la musicothérapie. Ces approches pourraient offrir aux personnes alexithymiques une manière de mieux explorer et comprendre leurs émotions, en s’affranchissant du côté parfois intimidant des thérapies traditionnelles.

Comprendre l’alexithymie pour une vision plus inclusive

Mieux comprendre l’alexithymie, ses causes et ses conséquences, est un pas vers une vision plus inclusive et nuancée de la diversité émotionnelle. Si les émotions sont universelles, notre manière de les vivre et de les exprimer est très individuelle. Reconnaître ces différences permet de créer des environnements bienveillants et soutenants pour ceux qui peinent à être en contact avec leurs émotions.

Sensibiliser à l’alexithymie peut aussi aider à mieux comprendre les défis uniques que cette caractéristique implique, notamment dans les relations interpersonnelles, et essayer de cerner son origine permettrait de mieux comprendre ses effets.


Cet article a été coécrit par Alizée Richalley, Jimmy Bordarie, Amandine Deloustal et Caroline Giraudeau.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’alexithymie : pourquoi certaines personnes ne comprennent pas leurs émotions – https://theconversation.com/lalexithymie-pourquoi-certaines-personnes-ne-comprennent-pas-leurs-emotions-247603

Le commerce et la démocratie restent les principaux remparts contre les guerres inter-étatiques

Source: The Conversation – in French – By Dominic Rohner, Professor of Economics and André Hoffman Chair in Political Economics and Governance, Geneva Graduate Institute, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

L’escalade des guerres commerciales et l’obsession croissante pour le contrôle des territoires stratégiques sont les deux faces d’une même médaille. Des recherches universitaires récentes révèlent un lien évident entre ces tendances et soulignent la combinaison de politiques qui garantit le mieux la sécurité nationale. Les conclusions sont frappantes et leurs implications pour la trajectoire actuelle du monde sont profondément préoccupantes.


De nos jours, on se souvient d’une époque plus sombre où les grandes puissances n’hésitaient pas à intensifier les tensions militaires pour prendre le contrôle de territoires stratégiquement importants. Pensons à la ruée vers l’Afrique à la fin du XIXe siècle ou à la série de conflits par procuration pendant la guerre froide, et à l’ampleur inimaginable des souffrances humaines qu’ils ont entraînées.

Considérons maintenant la rivalité croissante entre la Chine et les États-Unis au sujet du canal de Panama ou le regain d’intérêt géopolitique pour le Groenland. Un discours courant suggère que le contrôle d’un territoire stratégique renforce la sécurité nationale. Si cet argument est facile à comprendre, il présente toutefois un défaut fondamental : il est tout simplement faux.

Le commerce international, un rempart contre les guerres

Des recherches scientifiques montrent que, historiquement, les principaux points d’étranglement du transport maritime international, tels que le détroit de Gibraltar, le canal de Suez, le canal de Panama et le golfe d’Aden, sont devenus des zones de conflit armé principalement lorsque le commerce mondial était faible.

À l’inverse, pendant les périodes de forte mondialisation, ces passages vitaux avaient tendance à être plus stables et plus sûrs que la plupart des autres endroits. La raison est simple : lorsque le commerce est en plein essor, les enjeux sont suffisamment importants et les grandes puissances ont des intérêts en jeu ; elles veillent donc à ce que les routes maritimes restent sûres et accessibles. Le coût d’opportunité imminent d’une perturbation du commerce les oblige à protéger ces artères commerciales vitales.

En d’autres termes, si certains pays peuvent estimer accroître leur sécurité en étendant leur contrôle territorial, l’impact global de tels agissements sur le système international est profondément néfaste. Cela met en évidence une vérité fondamentale sur la guerre et la paix : si la prise de contrôle militaire de zones riches en ressources ou stratégiquement importantes peut offrir un sentiment de sécurité éphémère, la stratégie la plus sûre consiste à promouvoir le commerce international. Des liens économiques solides créent une interdépendance entre des rivaux potentiels, rendant les conflits beaucoup plus coûteux et renforçant les incitations à la paix, un effet confirmé par des études statistiques de pointe.

L’autre face de la même médaille dans les relations internationales est le rôle de la démocratie. Comme le soulignent des travaux universitaires récents, la démocratie n’est pas seulement une garantie contre les guerres civiles ; elle réduit également de manière significative le risque de guerres entre États. Une tendance frappante dans les données, connue sous le nom de « paix démocratique », a même été décrite comme la chose la plus proche d’une « loi » en sciences sociales : les démocraties entrent rarement, voire jamais, en guerre les unes contre les autres, alors que les guerres à grande échelle sont beaucoup plus fréquentes entre deux États autocratiques ou entre une démocratie et une autocratie.

La paix démocratique

La logique derrière cela est simple. Si les autocrates et les élites au pouvoir peuvent tirer un bénéfice personnel de la guerre, la population en général subit des pertes immenses. Des estimations récentes montrent que les guerres entraînent non seulement des milliers de morts, mais aussi, en moyenne, une baisse d’environ 20 % du PIB des pays concernés, la reprise économique étant extrêmement lente.

Conscients de ces conséquences, les citoyens, lorsqu’ils ont la possibilité de s’exprimer, sont généralement réticents à soutenir une agression sans justification convaincante. Et lorsque les deux pays impliqués dans un conflit potentiel sont gouvernés par des électorats peu enclins à prendre des risques, les chances que les différends dégénèrent en guerre deviennent extrêmement faibles.

Sans surprise, l’efficacité de la paix démocratique est particulièrement notable lorsque les gouvernements démocratiques ne sont pas proches de la fin de leur mandat, car les incitations à la réélection maintiennent les actions des gouvernements démocratiques en phase avec les préférences de l’électorat.

Les principes démocratiques, tels que l’État de droit, les freins et contrepoids contre les abus de pouvoir, et la protection des droits politiques favorisent également la paix lorsqu’ils s’appliquent aux relations entre les nations, et pas seulement entre les individus. Une analyse à long terme des conflits internationaux révèle une tendance frappante. Si la Seconde Guerre mondiale et les guerres de décolonisation ont été caractérisées par des affrontements interétatiques extrêmement violents, depuis un demi-siècle les guerres de très haute intensité entre États ont été relativement rares (même si, malheureusement, les guerres civiles se sont multipliées).

Cette ère de paix entre les États a coïncidé avec l’apogée de l’ordre international fondé sur des règles, dans lequel les normes mondiales, telles que l’inviolabilité des frontières souveraines et le droit à l’autodétermination nationale, ont été largement considérées comme sacro-saintes.

Bien sûr, les grandes puissances ont parfois violé ces normes et cherché à influencer les petites nations par des moyens indirects et le revers de la médaille de la raréfaction des guerres interétatiques directes fut un nombre plus élevé de conflits civils par procuration comme au Vietnam ou en Corée.

Cependant, comme l’annexion pure et simple et l’absorption d’États plus faibles ont été largement condamnées, les incitations à déclencher des guerres ont été considérablement réduites. En conséquence, l’âge d’or du multilatéralisme a considérablement diminué l’attrait de la guerre.

Une approche plus transactionnelle de la diplomatie, dans laquelle les grandes puissances utilisent leur influence pour conclure des « accords » ponctuels avec des constellations changeantes d’alliés et d’adversaires, peut apporter des gains à court terme, mais elle crée des vulnérabilités à long terme.

L’histoire nous en offre un exemple éloquent. À la fin du XIXe siècle, l’habileté d’Otto von Bismarck à nouer des alliances a permis à l’Allemagne de rester à l’écart des grands conflits. Cependant, après son renvoi, le leadership impulsif et erratique de l’empereur Guillaume II a conduit l’Allemagne à s’aliéner rapidement ses principaux alliés, laissant le pays de plus en plus isolé et exposé au début du XXe siècle. Cette dissolution des alliances a été un facteur crucial dans la chaîne d’événements qui a conduit à la Première Guerre mondiale.

Si l’histoire peut nous servir de guide, s’emparer de territoires stratégiquement importants et abandonner des alliés de longue date pour des avantages éphémères ne garantit ni la paix ni la prospérité. Une stratégie bien plus sage consiste à investir dans le multilatéralisme, à renforcer les relations commerciales et à défendre un ordre international fondé sur des règles.

The Conversation

Dominic Rohner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le commerce et la démocratie restent les principaux remparts contre les guerres inter-étatiques – https://theconversation.com/le-commerce-et-la-democratie-restent-les-principaux-remparts-contre-les-guerres-inter-etatiques-262246

Israël peut-il invoquer la légitime défense pour justifier sa frappe au Qatar ?

Source: The Conversation – in French – By Shannon Bosch, Associate Professor (Law), Edith Cowan University

Un État est autorisé par le droit international à frapper des adversaires situés sur le territoire d’un autre État, mais seulement à des conditions précises, qui ne semblent pas réunies dans le cas de la frappe israélienne visant des responsables du Hamas à Doha.


Israël a effectué mardi une frappe aérienne visant des dirigeants du Hamas à Doha, la capitale du Qatar. Six personnes auraient été tuées, dont le fils d’un haut responsable du Hamas.

Les condamnations internationales n’ont pas tardé. Le gouvernement qatari a qualifié la frappe de « violation flagrante des règles et principes du droit international », un sentiment partagé par de très nombreux leaders du monde entier – de Recep Tayyip Erdogan à Emmanuel Macron en passant par Keir Starmer et le secrétaire général de l’ONU Antonio Guterres, qui a estimé qu’Israël s’était rendu coupable d’une violation flagrante de la souveraineté et de l’intégrité territoriale du Qatar.




À lire aussi :
La contestation croissante de l’accord entre l’UE et Israël ira-t-elle jusqu’à sa suspension ?


Même Donald Trump, le plus fervent allié d’Israël, a pris ses distances par rapport à cette attaque :

« Bombarder unilatéralement le Qatar, une nation souveraine et un proche allié des États-Unis, qui travaille très dur et prend courageusement des risques avec nous pour négocier la paix, ne sert ni les intérêts d’Israël, ni ceux des États-Unis. »

De son côté, le premier ministre israélien Benyamin Nétanyahou a justifié cette frappe en affirmant qu’elle avait visé des dirigeants politiques du Hamas en représailles à deux attaques commises par le groupe islamiste : une fusillade à Jérusalem le 8 septembre qui a fait six morts et un assaut contre un camp militaire à Gaza le même jour qui a coûté la vie à quatre soldats.

Il a déclaré :

« Le Hamas a fièrement revendiqué ces deux actions. […] Ce sont les mêmes chefs terroristes qui ont planifié, lancé et célébré les horribles massacres du 7 octobre. »

Déclaration de Benyamin Nétanyahou sur la frappe israélienne à Doha.

Mais qu’en dit le droit international ? L’attaque d’Israël contre le Hamas sur le territoire d’un autre pays était-elle légale ?

Le texte international de référence

L’article 2(4) de la Charte des Nations unies interdit le recours à la force contre « l’intégrité territoriale ou l’indépendance politique » d’un autre État.

Tout recours à la force nécessite soit l’autorisation du Conseil de sécurité des Nations unies, soit une justification selon laquelle la force est utilisée strictement à des fins d’autodéfense et conformément à l’article 51 de la Charte des Nations unies.

Cela implique-t-il donc qu’Israël pourrait invoquer la légitime défense contre les dirigeants du Hamas se trouvant au Qatar si le mouvement islamiste avait effectivement ordonné les deux attaques contre ses citoyens à Jérusalem et à Gaza ?

Il n’est pas si facile de répondre à cette question.

Comment définir la légitime défense face à des groupes tels que le Hamas ?

La Cour internationale de justice (CIJ) a à plusieurs reprises souligné l’importance primordiale de la souveraineté territoriale en droit international.

À ce titre, elle a limité le recours à la légitime défense aux réponses à des attaques armées pouvant être attribuées à un État, et non pas simplement à des acteurs non étatiques opérant à partir du territoire de cet État.

Après les attentats du 11 septembre 2001, les États-Unis et d’autres pays ont affirmé qu’ils pouvaient recourir à la force en légitime défense contre des acteurs non étatiques (tels que des groupes terroristes) ayant trouvé refuge et opérant à partir du territoire d’un autre État, même si cet État n’était pas directement impliqué dans l’organisation et la mise en œuvre des attentats.

En réponse à ces développements, Sir Daniel Bethlehem, expert en droit international et conseiller en politique étrangère du gouvernement britannique, a proposé plusieurs principes visant à limiter l’invocation de cette justification dans le cadre de l’article 51.

Les « principes Bethlehem », qui restent contestés, soutiennent que l’article 51 peut couvrir les attaques réelles ou imminentes perpétrées par des groupes terroristes, mais uniquement si les conditions de nécessité (le recours à la force en légitime défense est vraiment un dernier recours) et la proportionnalité sont respectées.

De plus, en règle générale, le recours à la force sur le territoire d’un autre État nécessite le consentement de cet État. Les seules exceptions limitées concernent les cas où il existe une conviction raisonnable et objective que l’État hôte est complice avec le groupe terroriste ou est incapable ou refuse de l’empêcher de mener ses projets à bien, et où aucune autre option raisonnable n’existe hormis le recours à la force.

Israël soutient que les dirigeants du Hamas basés à l’étranger, dans des pays tels que le Qatar, le Liban et l’Iran, continuent de faire partie de la structure de commandement qui orchestre des attaques contre ses soldats à Gaza et ses citoyens en Israël.

Toutefois, cette affirmation ne suffit pas à justifier le recours à la légitime défense selon les principes énoncés par Bethlehem.

De l’aveu même de Nétanyahou, l’objectif de la frappe contre le Qatar était de riposter, et non d’empêcher une attaque en cours ou imminente.

On peut également se demander si le principe de proportionnalité a été respecté, compte tenu du contexte diplomatique dans lequel s’inscrit cette frappe contre un État souverain et du risque de dommages disproportionnés pour les civils dans cette partie de Doha, qui abrite de nombreuses résidences diplomatiques.

Israël a ciblé des dirigeants politiques se trouvant dans un État tiers, alors que cet État est engagé dans une médiation entre Israël et le Hamas : voilà qui invite tout particulièrement à se demander si la force était le seul moyen possible pour faire face à la menace posée par le Hamas.

De plus, en vertu de ces principes, Israël devrait démontrer que le Qatar est soit de mèche avec le Hamas, soit incapable ou peu disposé à l’arrêter, et qu’il n’existait aucun autre moyen efficace ou raisonnable de réagir à la situation.

Il est vrai que le Qatar accueille les bureaux politiques du Hamas depuis 2012 et est l’un des principaux bailleurs de fonds du mouvement depuis son arrivée au pouvoir à Gaza.

Mais il est tout aussi vrai que le Qatar joue un important rôle de médiateur depuis les attentats du 7 octobre 2023.

Il est donc difficile d’affirmer que le Qatar ne souhaite pas ou ne peut pas neutraliser des opérations commanditées par le Hamas depuis son territoire. Sa médiation suggère également qu’il existe une alternative raisonnablement efficace à la force pour contrer les actions du Hamas.

Le verdict

Conduites sans l’autorisation du Conseil de sécurité des Nations unies, les frappes israéliennes contre le Qatar semblent constituer une violation de la souveraineté territoriale, voire un acte d’agression au sens de la Charte des Nations unies.

Cette interprétation est renforcée par l’approche restrictive adoptée par la Cour internationale de justice en matière de légitime défense contre des acteurs non étatiques dans des États tiers, et par ses exigences strictes en matière de proportionnalité et de nécessité – exigences qui ne semblent pas avoir été respectées dans le cas présent.

The Conversation

Shannon Bosch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Israël peut-il invoquer la légitime défense pour justifier sa frappe au Qatar ? – https://theconversation.com/israel-peut-il-invoquer-la-legitime-defense-pour-justifier-sa-frappe-au-qatar-265008