Malgré les plans loup successifs, une cohabitation toujours délicate dans les Alpes du Sud

Source: The Conversation – France (in French) – By Nathalie Couix, Chercheure en Sciences des Organisations, Inrae

Le dernier « plan loup » 2024-2029 entre en vigueur en France alors que le statut d’espèce strictement protégée du prédateur a été affaibli au sein de la convention de Berne. Nos recherches sur le terrain montrent que les mesures mises en place aggravent les conflits d’usage sur le territoire. Au-delà de la question emblématique des tirs létaux sur l’animal, celle des chiens de protection des troupeaux est centrale.


Que ce soit à travers leurs paysages, leur culture ou leur économie, les Alpes du Sud sont marquées par les activités pastorales, c’est-à-dire l’élevage basé sur un pâturage extensif. Véritable patrimoine culturel ou élément du folklore vendu aux touristes, le pastoralisme est omniprésent dans les images de ces montagnes du sud de la France. Depuis les années 1990, elles sont aussi devenues un territoire recolonisé par le loup gris (Canis lupus italicus).

Jusqu’à très récemment, l’espèce placée sur la liste rouge mondiale des espèces menacées de l’Union internationale pour la conservation de la nature (UICN) était strictement protégée au niveau européen. Elle a récemment perdu le statut d’espèce strictement protégée au sein de la convention de Berne, malgré les protestations des naturalistes et de nombreux scientifiques.

Aujourd’hui, son aire de répartition s’étend au-delà des seules Alpes du Sud. Cette région reste toutefois le secteur en France qui connaît le plus de prédation sur les troupeaux. Ainsi, des mesures de protection des troupeaux ont été mises en place dans le cadre de plans nationaux d’action loup successifs depuis les années 1990. Une nouvelle version de ce « plan loup » portant sur la période 2024-2029 a récemment été publiée par le gouvernement.

Ces mesures facilitent-elles la cohabitation ? Les travaux que nous menons dans une vallée des Alpes de Haute-Provence ont révélé une nette dégradation du climat social. En particulier, entre les éleveurs et bergers d’une part et les autres acteurs du territoire d’autre part.

Aujourd’hui, ce n’est plus seulement le loup qui cristallise les tensions, mais les chiens de protection des troupeaux (par exemple patou, kangal…) mis en place dans le cadre du plan loup pour protéger les troupeaux. Les éleveurs et bergers en sont le plus souvent tenus pour responsables.

Deux éléments sont centraux pour bien comprendre la situation : d’abord, le moment particulier où survient le retour du loup, dans un contexte où l’activité pastorale traditionnelle peine à redéfinir son rôle dans la société. Mais aussi certaines mesures du « plan loup » en elles-mêmes, qui peuvent contribuer à un climat social de plus en plus délétère, car elles ne tiennent pas compte de leurs propres conséquences. Par exemple, celles liées à la mise en place de chiens de protection des troupeaux, qui doivent partager les mêmes espaces que les promeneurs et les touristes.




À lire aussi :
Comprendre la diversité des émotions suscitées par le loup en France


Le pastoralisme, une pratique aujourd’hui questionnée

Les conséquences du retour du loup sur l’élevage ovin pastoral sont connues et étudiées depuis le retour du loup sur le sol français dans les années 1990. Il en découle un certain nombre de conflits entre le monde du pastoralisme, qui voit le loup comme une menace pour les troupeaux et le monde de l’environnement, qui voit le grand prédateur comme une espèce menacée à protéger.

Nos travaux ont permis de mettre en évidence (au cours d’entretiens, d’ateliers participatifs avec les acteurs du territoire et de débats publics) des tensions qui semblent avoir gagné du terrain. D’un côté, les autres acteurs que les éleveurs et bergers du territoire (riverains, promeneurs…) reconnaissent des dimensions patrimoniale et économique au pastoralisme, qui a un rôle positif pour les paysages et la biodiversité. Souvent, il leur apparaît même comme indispensable.

Pour autant, le pastoralisme leur semble trop développé. Le temps de présence des troupeaux en estive (période de l’année où les troupeaux paissent sur les pâturages de montagne) est par exemple perçu comme trop long et vu comme à l’origine de dégradation (sentiers, végétation, etc.). Tous les acteurs du territoire s’accordent à dire que leurs relations se sont progressivement dégradées, du fait en particulier de la présence des chiens de protection, de plus en plus nombreux.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


La peur des chiens contribue ainsi à transformer les pratiques et les usages (loisirs, tourisme…) que ces acteurs pouvaient avoir des espaces pastoraux ou forestiers. Les élus redoutent la survenue d’un accident grave, tandis que les éleveurs et les bergers expriment leurs craintes de la marginalisation et que leurs activités soient remises en cause. Face à des injonctions multiples au changement, ces derniers peinent à redonner un sens à leur métier.

Le divorce entre défenseurs du pastoralisme et de l’environnement

Ces conflits autour du loup se matérialisent à un moment charnière où l’activité pastorale doit redéfinir sa place dans la société. Pour comprendre ce qui se joue, il faut revenir sur l’histoire récente du pastoralisme.

La modernisation agricole d’après-guerre a permis une nette augmentation de la productivité des terres, mais de fortes disparités ont persisté entre plaines et montagnes. Les secteurs de montagne se sont alors repliés sur les activités pastorales, les seules en mesure de valoriser les vastes étendues d’un territoire aux conditions difficiles (pentes, végétation, climat, etc.).

Ce (re)développement des activités pastorales est apparu d’autant plus pertinent, au début des années 1990, que montaient alors de nouvelles préoccupations en termes d’entretien des paysages et de protection de l’environnement. Celles-ci ont donné lieu à des aides au pastoralisme via les mesures dites agri-environnementales de la politique agricole commune européenne (PAC). Ainsi promus « jardiniers de l’espace », les éleveurs, bon gré mal gré, ont peu à peu acquis une certaine légitimité. Celle-ci a participé à transformer le regard porté sur leurs activités et, pour certains, l’image qu’ils avaient de leur propre métier.

Mais le début des années 90 a également marqué le retour du loup, d’abord discret, puis massif. Les éleveurs les bergers ont alors été confrontés à des attaques de troupeaux de plus en plus fréquentes et à des dégâts de plus en plus importants. Alors qu’elles tendaient peu à peu à se consolider, les alliances entre acteurs des activités pastorales et ceux de l’environnement se sont alors fortement dégradées.

Cette fracture s’est d’autant plus marquée depuis une réforme de la PAC en 2012. Les outils d’incitation économiques ont alors été revus de sorte à limiter les pratiques agricoles néfastes à l’environnement plutôt qu’à encourager les pratiques les plus vertueuses.

Les « impensés » du plan national loup

Enfin, certaines mesures du « Plan loup » peuvent contribuer à un climat social de plus en plus délétère faute de tenir compte de leurs conséquences concrètes. En effet, celui-ci contient notamment des préconisations sur les moyens de protection à mettre en œuvre par les éleveurs dans les zones où le loup est présent. Celles-ci sont codifiées et donnent droit à des soutiens publics.

Les trois mesures phares portent :

  • sur une présence humaine accrue auprès du troupeau au pâturage,

  • le regroupement nocturne des animaux dans des parcs de nuit

  • et enfin la présence de chiens de protection évoluant en permanence avec le troupeau.

Les mesures de protection et de gestion des attaques prévoient aussi, dans le cas d’attaques répétées malgré la mise en place des mesures précédentes, des autorisations de tirs létaux – autorisations qui pourraient devenir plus nombreuses en raison du changement de statut de l’espèce.

L’autorisation de tir létal est la mesure emblématique qui suscite les réactions les plus vives de la profession agricole et des associations environnementales. Par contre, l’utilisation des chiens de protection est sans doute celle qui, à bas bruit, cristallise le plus de problèmes dans les interactions entre monde de l’élevage et société locale.

Les frayeurs engendrées par la présence de ces chiens, avec quelquefois des incidents pouvant être sérieux sans parler des dégâts faits par ces chiens sur la faune sauvage, sont à l’origine de nombreuses récriminations – voire de plaintes – de la part des usagers de la montagne autres que les éleveurs.

À ces récriminations, les éleveurs et bergers opposent souvent que la présence des chiens leur est imposée par le plan loup pour bénéficier de soutiens publics en cas d’attaque et que les incidents sont essentiellement causés par un comportement inapproprié des plaignants. Ils arguent aussi que les estives sont leur lieu de travail, qu’ils sont donc prioritaires sur l’usage de ces espaces et qu’ils se doivent de protéger leur troupeau, autant pour leur revenu que parce qu’ils y sont fortement attachés.

De plus en plus de moyens sont dédiés à la sensibilisation du public au pastoralisme et à la conduite à tenir face à des chiens de protection. Des stratégies d’évitement se développent.. A la fois de la part des usagers de la montagne, qui s’informent sur les endroits à éviter en fonction des périodes, et de la part des bergers, dont certains vont préférer éviter certains secteurs. Mais de telles stratégies d’évitement questionnent le vivre-ensemble au sein du territoire.

Les mesures prises pour maintenir les activités pastorales là où la présence du loup est forte tendent ainsi à ignorer que ces activités – tout comme le loup lui-même – s’inscrivent non seulement dans des écosystèmes biologiques, mais également dans des socioécosystèmes. Les définitions précises de ce concept varient en fonction des approches utilisées, mais on peut dire en première approximation que les socio-écosystèmes sont ce qui résulte des interactions complexes entre dynamiques écologiques et dynamiques sociales.

Or, concrètement, le plan loup repose surtout sur la prise en charge de la valeur économique des animaux tués. Les conséquences écologiques des pratiques d’élevage que ces mesures suscitent, ou encore leur impact sur les interactions entre les différentes activités, ne sont quant à elles jamais considérées.

Ces conséquences peuvent pourtant être à l’origine de conditions difficiles d’exercice des métiers d’éleveurs et de bergers (conflits, mise en cause permanente, dégradation de la végétation sur certains secteurs, etc.), ce qui paraît contradictoire avec la volonté de soutien de ces activités. Elles sont également à l’origine de frustrations et de mécontentements de la part des différents usagers des espaces pastoraux et des habitants. Elles peuvent même, à terme, nuire au développement d’un certain tourisme dont ces territoires dépendent au plan économique.

Ainsi, selon nous, le plan national d’action loup ne favorise pas le développement de formes de cohabitation apaisées entre loups et activités pastorales. Trop souvent circonscrite aux relations entre le monde du pastoralisme et celui de l’environnement, la question de la présence du loup en territoire pastoral mérite d’être abordée à l’aune des socio-écosystèmes.

The Conversation

Jacques Lasseur a reçu des financements de Agropolis Fondation ainsi que des soutiens interne a INRAE (metaprogramme biosefair).

Nathalie Couix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Malgré les plans loup successifs, une cohabitation toujours délicate dans les Alpes du Sud – https://theconversation.com/malgre-les-plans-loup-successifs-une-cohabitation-toujours-delicate-dans-les-alpes-du-sud-259728

Comment le tourisme et les loisirs de plein air ont modifié notre rapport aux animaux sauvages

Source: The Conversation – France (in French) – By Antoine Doré, Sociologue des sciences, techniques et politiques environnementales et agricoles., Inrae

Le développement des pratiques récréatives en pleine nature (loisirs, sport…) est-il compatible avec le maintien de conditions de vie et de conservation convenables pour la faune sauvage ? Cela nécessite en tout cas de s’interroger sur la façon dont ces nouveaux usages intermédient nos relations à la nature.


Alors que les vacances d’été approchent, nombreux sont ceux qui rêvent d’évasion en pleine nature. Et, peut-être, de pouvoir admirer la faune sauvage : rapaces, marmottes, chamois, lynx… Ce qui pose la question de notre rapport au « sauvage ». La transformation de nos pratiques récréatives (notamment en matière de sport et de loisirs de pleine nature) est-elle compatible avec le maintien de conditions de vie et de conservation appropriées pour la faune sauvage ?

Loin d’être anodines, nos activités de loisirs de plein air façonnent nos représentations et notre capacité à cohabiter avec les autres êtres vivants. L’histoire et la sociologie des pratiques récréatives montrent que la nature est souvent perçue comme un décor à admirer plutôt qu’un espace partagé avec des animaux sauvages. C’est ce que j’explore également dans le chapitre d’un ouvrage à paraître courant 2025 aux éditions Quae.

La nature comme décor de nos loisirs

Dans nos sociétés dites « modernes », les relations avec la nature se déroulent principalement en dehors du travail. Pour la plupart des gens, cela se fait à travers les loisirs : la part des personnes qui travaillent à son contact est désormais très minoritaire.

Parallèlement, plusieurs enquêtes montrent que la nature prend une place croissante dans les activités récréatives. Alors que les milieux naturels sont envisagés comme des lieux pour se ressourcer, la manière dont nous les investissons détermine aussi leur pérennité. Les espaces sauvages deviennent des territoires aménagés pour répondre aux attentes des visiteurs. Pour ces derniers, la nature n’est plus perçue comme un milieu habité ou exploité, mais comme un cadre récréatif destiné à l’évasion.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


On comprend l’importance colossale des loisirs dans l’évolution de nos relations contemporaines à la nature : l’« écologisation » des pratiques récréatives de plein air devient est devenu un enjeu crucial, qui ne peut être bien compris sans un détour par l’histoire, la sociologie et l’économie politique et morale du « temps libre ».

Une nature mise en scène par la « classe de loisirs »

L’histoire de la protection de la nature est indissociable de celle de la « classe de loisir ». Dès le XIXe siècle, une élite sociale urbanisée promeut l’idée de « nature sauvage » et initie la création de réserves et de parcs pour protéger les paysages… et leur propre expérience du sauvage. En France, les premiers appels à la création de parcs nationaux sont portés par le Touring Club de France et le Club alpin français, soucieux de préserver leur terrain de jeu.

À cette époque, la valorisation du sauvage repose avant tout sur des critères esthétiques. On protège d’abord les paysages et non les espèces. La forêt de Fontainebleau est ainsi classée en 1861 pour ses qualités picturales.

La création des parcs nationaux dans les années 1960 prolonge cette logique :

« protéger des paysages exceptionnels […] favoriser et réglementer leur fréquentation touristique. »

Or, cette mise en scène de la nature se fait souvent au détriment des usages ruraux de ces espaces. Entre nature sauvage et paysages champêtres, « l’environnement » se constitue comme un milieu temporaire de distraction, voire de consommation, pour des sociétés de plus en plus urbaines qui ne font qu’y passer et qui valorisent des rapports contemplatifs à la nature, au détriment de rapports plus directement utilitaristes – vivriers ou productifs – tels que l’agriculture, la chasse, la pêche ou la cueillette.

Une faune sauvage entre protection et spectacle

Si la protection de la nature s’est renforcée avec le temps, elle s’est aussi accompagnée d’un paradoxe : les espèces emblématiques (tels que les grands prédateurs : loup, panthère des neiges, orques…) sont davantage préservées, mais elles sont souvent réduites à des images spectaculaires dans les médias et les documentaires animaliers.

Dès les années 1970, l’essor du cinéma de nature et des productions télévisées consacrées au vivant transforme les animaux sauvages en icônes esthétiques. « Les gens protègent et respectent ce qu’ils aiment, et pour leur faire aimer la mer il faut les émerveiller autant que les informer », déclarait ainsi Jacques-Yves Cousteau.

Le développement de l’industrie audiovisuelle va ainsi contribuer à sensibiliser le grand public à la protection des animaux sauvages en instaurant, par le truchement des écrans, un sentiment de familiarité à leur égard.

Tout cela participe au succès de l’idée moderne de « nature sauvage » qui tend, paradoxalement, à court-circuiter – ou du moins altérer – toutes possibilités de cohabitation avec les animaux, au profit d’un rapport scopophile à ces derniers, c’est-à-dire un rapport centré sur le plaisir de les regarder, souvent de manière distanciée et esthétisante ; ils sont alors vus comme des objets d’admiration, davantage que des êtres avec lesquels peuvent se nouer des rapports de cohabitation ; ils sont envisagés comme une source d’excitation visuelle, des personnages d’un décor d’autant plus authentique qu’il est spectaculaire.

Vers une écologie de l’attention

L’essor des activités de plein air, amplifié par la crise sanitaire du Covid depuis 2020, témoigne d’un désir croissant de « retour à la nature ». Mais celui-ci s’accompagne d’une pression accrue sur la nature, en particulier sur la faune.

Il est donc capital de revoir en profondeur les manières de cohabiter avec les animaux sauvages dans nos sociétés de loisir. L’histoire de la protection de la nature est solidaire d’une histoire sociale du temps libre. Tout ceci a concouru à l’instauration d’une nature « récréative » conçue principalement comme support de projection émotionnelle.

On touche ici du doigt un rapport problématique à l’environnement, vu comme un décor peuplé de figurants humains et non-humains, qui se rapproche du voyeurisme. Dans ces conditions, l’écologisation des pratiques récréatives ne peut se résumer à simplement convenir de nouvelles « règles du jeu » avec la nature. Il s’agit aussi de parvenir à instaurer de nouveaux styles d’attention aux vivants et, en particulier, à la faune sauvage.

Par exemple, quels sont les régimes d’attention propres à telle ou telle activité récréative de nature ? Qu’est-ce qui est valorisé ou dévalorisé par telle manière de pratiquer la randonnée ou la pêche à la mouche et quelles places y tiennent les vivants ? Au-delà des interactions « ici et maintenant » entre faune et usagers des espaces naturels, par l’intermédiaire de quels genres de médiateurs nos rapports aux animaux sauvages sont-ils organisés, à travers quels médiateurs humains (un guide, un enfant), techniques (montre connectée, jumelles) ou non-humains (chien de chasse, cheval) ?

Reconsidérer nos rapports à la nature dans la société de loisir suppose de déplier tout l’« échosystème » au sein duquel résonnent – ou non – les coprésences directes et indirectes entre humains et animaux sauvages

Alors que les plus privilégiés d’entre nous s’apprêtent à partir en montagne ou en forêt pour quelques jours de vacances, nous pouvons nous interroger sur la manière dont nos pratiques récréatives façonnent nos rapports à la nature. Voulons-nous continuer à la considérer comme un décor, ou sommes-nous prêts à repenser nos interactions avec elle ? Peut-être est-il temps de ne plus seulement chercher à voir les animaux sauvages, mais à véritablement apprendre à cohabiter avec eux.

The Conversation

Antoine Doré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment le tourisme et les loisirs de plein air ont modifié notre rapport aux animaux sauvages – https://theconversation.com/comment-le-tourisme-et-les-loisirs-de-plein-air-ont-modifie-notre-rapport-aux-animaux-sauvages-259196

État du climat en 2024 : les voyants toujours au rouge malgré le ralentissement des émissions mondiales

Source: The Conversation – France (in French) – By Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL

Malgré le ralentissement des émissions globales de gaz à effet de serre (GES), les voyants du climat restent dans le rouge, nous rappelle le rapport Indicators of Global Climate Change 2024 récemment publié. Ce rapport permet également d’identifier trois leviers d’action à mettre en œuvre pour stabiliser le stock atmosphérique de GES à l’origine du réchauffement global.


L’univers virtuel des réseaux sociaux est celui de l’immédiateté. Un utilisateur de TikTok y navigue en moyenne 95 minutes chaque jour, avec à la clé plusieurs centaines de clics. En politique, la vague populiste surfe sur ce courant d’informations en continu qui submerge notre quotidien.

Dans ces mondes virtuels, on prend les décisions en fonction des aléas du moment, quitte à revenir rapidement en arrière en cas de réactions inattendues. Une telle soumission aux humeurs du court terme n’est pas compatible avec l’action face au réchauffement planétaire et à la dégradation de la biodiversité.

Le premier antidote à la tyrannie de l’immédiat doit être la science. C’est pourquoi le Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC) joue un rôle si structurant en matière d’action climatique. Depuis 1990, le GIEC a publié six rapports d’évaluation. Ces rapports fournissent des balises précieuses, documentant l’état des connaissances scientifiques sur le système climatique, les impacts et les adaptations possibles face au réchauffement, les leviers d’atténuation pour le stabiliser.

Chiffres-clés du changement climatique en 2024.
Indicators of Global Climate Change 2024, Fourni par l’auteur

Le temps de navigation entre deux balises tend cependant à augmenter. De cinq ans entre le premier et le second rapport du GIEC, il est passé à neuf ans entre les deux derniers rapports. Pour éviter que les décideurs ne se perdent en route, un collectif de chercheurs publie chaque année un tableau de bord annuel, reprenant les méthodologies utilisées par le GIEC.

J’ai lu leur rapport sur l’année 2024, rendu public le 17 juin 2025. Voici ce que j’en ai retenu.

Les voyants au rouge, malgré le ralentissement des émissions

Le tableau de bord annuel actualise en premier lieu les informations sur les émissions de CO₂ jusqu’en 2024 (et jusqu’à 2023 pour les autres gaz à effet de serre, GES). Sans surprise, cette actualisation confirme le ralentissement de l’augmentation des émissions mondiales observé depuis 15 ans, principalement provoqué par celles de CO2.

Ralentissement de la hausse des émissions sur les quinze dernières années.
Fourni par l’auteur

Ce ralentissement est toutefois insuffisant pour stabiliser ou même freiner l’accumulation du stock de GES dans l’atmosphère. Le rythme de croissance de ce stock se maintient, et s’est même accéléré pour le méthane depuis le début des années 2020.

Or c’est ce stock qui est le moteur anthropique du réchauffement climatique. Il joue d’autant plus fortement que les rejets d’aérosols (principalement le dioxyde de soufre), à l’effet refroidissant à court terme pour la planète, se réduisent du fait du resserrement des contraintes sur les polluants locaux, en particulier dans le transport maritime international et en Chine.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


De ce fait, le réchauffement ne connaît pas de répit. Il a franchi pour la première fois la ligne de +1,5 °C en 2024. Les facteurs anthropiques en ont expliqué 1,36 °C, le reste étant attribué à la variabilité naturelle du climat, en particulier l’épisode El Niño de 2024.

Réchauffement des 10 dernières années.
Indicators of Global Climate Change 2024, juin 2025, Fourni par l’auteur

Sur les dix dernières années connues, le réchauffement global a atteint +1,24 °C par rapport à l’ère préindustrielle. Sur l’océan, il dépasse désormais 1 °C. Sur terre, il se situe à 1,79 °C, pratiquement à équidistance entre 1,5 et 2 °C.

Sans surprise la poursuite du réchauffement alimente la montée du niveau de la mer, sous l’effet de la dilatation thermique de l’eau et de la fonte des glaces continentales. La hausse du niveau moyen de l’océan est estimée à 22,8 cm depuis le début du siècle dernier. Entre 2019 et 2024, elle a été de 4,3 mm/an, bien au-dessus de la tendance historique (1,8 mm/an).

Quels leviers d’action ?

Pour stabiliser le réchauffement, il faut en premier lieu drastiquement réduire les émissions de carbone fossile. Comme le notait déjà le Global Carbon Budget à l’automne 2024, le budget carbone résiduel pour avoir une chance sur deux de limiter le réchauffement à 2 °C ne représente plus que 28 années des émissions actuelles. Pour viser 1,5 °C, c’est désormais moins de cinq années !

Le tableau de bord montre également l’impact de la réduction des rejets d’aérosols, qui contribue significativement au réchauffement. Moins d’aérosols dans l’atmosphère, c’est certes moins de problèmes sanitaires à terre, mais aussi plus de réchauffement car les aérosols voilent le rayonnement solaire et agissent sur la formation des nuages. Or, comme les aérosols ne séjournent pas longtemps dans l’atmosphère, une réduction de leurs émissions se répercute rapidement sur le volume de leur stock dans l’atmosphère.

Que faire ? Pour contrarier cet impact, la meilleure voie est de réduire les émissions de méthane. Le méthane ayant une durée de séjour dans l’atmosphère plus courte que celle des autres gaz à effet de serre, sa réduction agit nettement plus rapidement sur le réchauffement qu’une réduction équivalente de CO2 ou de protoxyde d’azote, qui séjourne en moyenne 120 ans dans l’atmosphère.

Le tableau de bord met enfin en avant l’apparition de « rétroactions » climatiques dont les effets s’ajoutent à l’impact direct des émissions anthropiques sur la température. Ainsi, le réchauffement global stimule les émissions de méthane dans les zones humides tropicales et risque, demain, d’accentuer celles résultant de la fonte du permafrost. Conjugué aux épisodes de sécheresses, il accentue également les émissions générées par les mégafeux de forêt et altère la capacité de croissance des arbres et les rend plus vulnérables face aux ravageurs.

Dans les deux cas, ces rétroactions amplifient le réchauffement. Agir contre ces rétroactions, par exemple en adaptant les stratégies de gestion forestière, répond donc à une double logique d’adaptation et d’atténuation du changement climatique.




À lire aussi :
Changement climatique : les forêts ont-elles besoin de nous pour s’adapter ?


Feux de forêt, carbonatation du ciment et gaz fluorés

Si le tableau de bord se fixe comme règle de correspondre au plus près aux méthodes des rapports d’évaluation du GIEC, il apporte également des compléments utiles. J’ai particulièrement apprécié ceux concernant les émissions provoquées par les mégafeux, les gaz fluorés et l’absorption du CO2 atmosphérique par le ciment.

Trois mesures des émissions mondiales de gaz à effet de serre (GES).
Indicators of Global Climate Change 2024, Fourni par l’auteur

Dans la figure ci-dessus apparaissent trois façons de comptabiliser les émissions mondiales de GES.

  • À 55,4 milliards de tonnes (Gt) équivalent CO2, le premier bâtonnet visualise les émissions de l’année 2023 et la marge d’incertitude associée, calculées suivant les normes retenues par le GIEC.

  • L’agrégation des données d’inventaires nationaux recueillies sur le site des Nations unies donne des émissions de seulement 47,1 Gt pour la même année. L’écart entre les deux grandeurs est principalement lié à la façon de comptabiliser les émissions liées aux changements d’usage des terres, en particulier à la frontière retenue entre les émissions-absorptions d’origine anthropique et celles d’origine naturelle. Par exemple, le carbone stocké grâce à la replantation d’arbre est clairement d’origine anthropique, mais faut-il également comptabiliser celui résultant de la repousse naturelle d’arbre après des incendies ?

  • La figure du milieu est une innovation du tableau de bord, qui a élargi les sources et les absorptions de CO2 prises en compte, pour aboutir à un total d’émissions de 56,9 Gt d’équivalent CO2 (+1,5 Gt relativement à l’évaluation standard). La prise en compte de la séquestration du carbone par les ouvrages en ciment ( « carbonatation » du ciment) représente un puits de carbone de 0,8 Gt de CO2. Mais elle est plus que compensée par les émissions de méthane et de protoxyde d’azote par les feux de forêt et la combustion de biomasse (1 Gt d’équivalent-CO2) et celles provenant des CFC et autres gaz fluorés non couverts par la convention climat (UNFCCC), à hauteur de 1,3 Gt d’équivalent CO2 en 2023.

L’inertie des stocks de gaz à effet de serre

Sur la période récente, les émissions de gaz fluorés (F-gaz) répertoriées dans le cadre de l’UNFCC, dépassent celles des gaz fluorés dont la régulation a été mise en place par le protocole de Montréal (1987) destiné à protéger la couche d’ozone. Mais cette situation est relativement récente. Quand la lutte pour la protection de la couche d’ozone a démarré, les émissions de CFC et des autres gaz fluorés détruisant cette couche exerçaient un réchauffement équivalent à pratiquement 12 Gt de CO2, soit la moitié des émissions de carbone fossile de l’époque (22 Gt d’équivalent CO2).

Evolution des émissions de gaz fluorés.
Indicators of Global Climate Change 2024, Fourni par l’auteur

La diminution spectaculaire des émissions de gaz fluorés réalisée pour protéger la couche d’ozone a ainsi eu un impact majeur sur l’action climatique, malgré le développement de substituts à ces gaz – comme les HFC – pour couvrir les besoins de climatisation et réfrigération. Ce résultat s’observe aujourd’hui dans la diminution de la concentration atmosphérique des CFC, qui contribue à atténuer le réchauffement climatique.

Compte tenu de la durée de séjour des gaz CFC dans l’atmosphère, de l’ordre du demi-siècle, cet effet d’atténuation devrait se prolonger pendant quelques décennies. Une bonne illustration de l’inertie du stock par rapport au flux, qui joue désormais de façon bénéfique pour l’action climatique dans le cas des gaz fluorés.

A l’inverse, cette inertie joue encore à la hausse du thermomètre pour le CO2 et le méthane, malgré le ralentissement des émissions. D’où les voyants au rouge du tableau de bord. Demain, si on parvient à durablement inverser leur trajectoire d’émission, cette inertie pourra également jouer à sa baisse. Mais pour cela, il faut accélérer la transition bas carbone et ne pas succomber aux sirènes de ceux qui voudraient rétrograder.

The Conversation

Christian de Perthuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. État du climat en 2024 : les voyants toujours au rouge malgré le ralentissement des émissions mondiales – https://theconversation.com/etat-du-climat-en-2024-les-voyants-toujours-au-rouge-malgre-le-ralentissement-des-emissions-mondiales-260126

Recherche participative en santé : rapprocher les citoyens et les scientifiques au sein de projets de recherche

Source: The Conversation – France in French (3) – By Mélissa Mialon, Inserm, Université Paris Cité

Maladies rares, cancers, VIH, troubles « dys » de l’enfant… dans différents domaines de la santé, la recherche participative permet une collaboration fructueuse entre des scientifiques et des citoyens concernés par la thématique étudiée. Cette approche innovante, qui se développe notamment à l’initiative de l’Institut national de la santé et de la recherche médicale (Inserm), ambitionne de rapprocher la société civile et le monde de la recherche académique.


La recherche participative dans le domaine de la santé progresse petit à petit en France. Afin de développer cette manière de faire recherche, l’Institut national de la santé et de la recherche médicale (Inserm), au travers de son service « Sciences et Société », a organisé une journée sur cette thématique en juin 2024 à Lyon.

L’objectif était de favoriser les interactions entre le monde de la recherche scientifique et la société civile, de présenter des projets de recherche participative déjà en cours à l’Inserm, et de susciter l’émergence de nouveaux projets. Un des ateliers thématiques de la journée portait sur « Comment créer des échanges fructueux entre Sciences et Société ? » Voici quelques-unes des réflexions qui en ont émané.

Impliquer société civile, recherche académique et pouvoirs locaux

La recherche participative est une approche reposant sur l’implication active, à chaque étape du processus de recherche, de citoyens concernés par la problématique explorée. Elle valorise les savoirs issus de l’expérience et vise à créer un dialogue entre les chercheurs et les autres citoyens afin de co-construire des savoirs et des actions.

La recherche participative implique différents acteurs, tels que :

  • la société civile, en particulier les populations concernées par la question de recherche ;

  • la recherche académique ;

  • les pouvoirs publics locaux, afin d’assurer une mise en pratique concrète.

La participation citoyenne s’exerce tout au long du processus de recherche : identification de la problématique, collecte et analyse des données, diffusion des résultats et éventuelle existence du collectif après la fin du projet.

Une approche avec des retombées parfois concrètes

Dans la pratique quotidienne, les savoirs et méthodes des différents acteurs peuvent diverger, ce qui favorise un apprentissage mutuel. Chacun s’enrichit des connaissances et expériences des autres. Cela contribue ainsi à une production de savoirs plus ancrée dans les réalités sociales.

Les retombées de cette approche sont parfois très concrètes. Caroline Huron, chercheuse à l’Inserm, mène ainsi une recherche-action participative avec des enfants dyspraxiques et leurs familles, étudiant par exemple la qualité de vie des parents.

La chercheuse a même créé une association, « Le cartable fantastique », « pour concevoir des ressources pédagogiques adaptées aux enfants dyspraxiques ».

Démocratiser la science

La participation citoyenne répond à certains problèmes (d’environnement, de santé publique, etc.) par des approches transdisciplinaires et inclusives. La diversité des perspectives favorise l’émergence d’idées nouvelles et de solutions inédites.

La recherche participative participe à la démocratisation de la science en rendant le savoir plus accessible et en facilitant l’appropriation des résultats par les acteurs concernés. Elle permettrait ainsi, dans l’idéal, de favoriser l’inclusion des populations marginalisées dans les processus de décision. Inscrite dans une démarche éthique, elle met l’accent sur le bien-être collectif et une science plus ouverte.

Recrutement, engagement, temps : les défis à relever

Mener une recherche participative nécessite une gestion attentive des relations de pouvoir et une réelle volonté de collaboration. Divers défis peuvent ainsi se présenter en cours de route :

  • le recrutement : un des défis importants en matière de recherche participative concerne le recrutement des citoyens-chercheurs. La recherche participative ne doit pas être élitiste, là où il peut être difficile d’atteindre certains groupes d’individus ;

  • l’engagement : un autre défi, plus insidieux, est l’épuisement et la démobilisation des citoyens. Lorsqu’on sollicite intensément des participants sans reconnaissance adéquate (financière, symbolique ou professionnelle), cela peut créer une lassitude et réduire leur engagement sur le long terme. Or, parfois, les financements disponibles ne sont pas mobilisables à cette fin, pour des questions juridiques – la recherche participative ne peut pas se traduire en contrat de travail pour le citoyen – ou sont insuffisants pour une indemnisation ;

  • le temps : les délais et démarches pour l’établissement des conventions, ou encore l’approbation éthique concernant l’aspect participatif des projets, représentent également des barrières à l’implication citoyenne.

En somme, il est nécessaire d’imaginer de nouvelles formes de rapprochement permettant d’aller vers les personnes qui ne connaissent pas la recherche, ou vers les chercheurs qui ne sont pas sensibilisés à la recherche participative, en organisant des formations adéquates sur ce sujet.

Faire connaissance pour faciliter la recherche participative

Il est important que les chercheurs soient accessibles et prennent le temps de découvrir les acteurs de la société civile, pas seulement pour des raisons lucratives (obtention de financements), mais également afin d’être à l’écoute des besoins de chacun. Un des moyens d’apprendre à se connaître passe par l’organisation de rencontres fréquentes, au travers des visites de laboratoire, d’évènements où les associations peuvent se présenter, ou même de ciné-débats.

Ces rencontres multiples doivent se tenir dans des lieux publics, sans hégémonie de savoir (mairies, bibliothèques, maisons de quartier), où chacun se sente légitime d’entrer. Les boutiques des sciences, par exemple, ont vocation à créer ce type de rapprochement. Ces rencontres aussi doivent conduire à une meilleure connaissance et reconnaissance de l’expertise de l’autre, un des piliers nécessaires à la co-construction de projets de recherche participative.

Appels à projets et autres modes de financement

Il faut souligner que les financeurs européens de la recherche incitent à la participation de la société civile dans les projets. En France, plusieurs dispositifs de financement soutiennent cette approche de la recherche : des plates-formes de financement participatif ou bien des services et appels à projets comme au sein de l’Inserm. De plus, des appels à projets sont lancés par des organismes publics comme l’Agence Nationale de la Recherche pour encourager l’implication citoyenne dans la recherche. Toutefois, le financement de ces initiatives demeure souvent limité (en nombre de projets lauréats) et plus modeste que celui des recherches classiques.

Les projets de recherche participative voient parfois le jour à l’initiative des chercheurs : c’est le cas de l’étude sur la constitution d’une cohorte de patients atteints de polypose adénomateuse, une maladie rare qui se caractérise par le développement d’adénomes (ou tumeurs bénignes) dans le côlon, le rectum, puis le duodénum, qui induisent un risque majeur de cancer du côlon.

Ils peuvent aussi émaner des citoyens. Chercheur en neurosciences cognitives, Guillaume Sescousse raconte ainsi une expérience de recherche participative avec des collégiens, à l’initiative d’un de ses amis :

« Mon impact a été plus fort en une journée de recherche participative qu’avec mon dernier article », rapporte-t-il.

On citera aussi les recherches de Marie Préau concernant l’identification de troubles cognitifs qui impactent le quotidien de personnes souffrant d’un cancer du sein, également autour du partage du diagnostic par les personnes séropositives.

Enfin, les projets peuvent être coconstruits, comme pour la recherche participative menée par Caroline Huron avec les familles d’enfants dyspraxiques mentionnée plus haut.

Une dérive possible : minimiser la parole citoyenne

Le premier écueil sur lequel la vigilance des chercheurs ne devrait faiblir à aucun moment est l’instrumentalisation des citoyens. En effet, l’effort et le temps que représente l’apprentissage de l’approche participative peuvent mener l’équipe de recherche à abaisser le degré de participation citoyenne dans la prise de décision.

Cette minimisation de la parole citoyenne est souvent symptomatique d’une hiérarchisation des savoirs à laquelle il faut prêter attention, pour ne pas rompre la confiance des citoyens.

Il apparaît aussi crucial de se soucier de l’appropriation des résultats par la société et donc de leur traduction : la rencontre entre la recherche et la société civile fait inévitablement émerger de nouveaux questionnements, voire une certaine urgence à y répondre. Une relation chercheur – citoyen de qualité, comme précisé plus haut, nécessite du temps. Il est donc d’importance de pérenniser le partenariat pour rapprocher durablement ces deux mondes.

Il existe une pluralité de façons de faire de la recherche participative, et une pluralité de degrés de participation. De ce fait, cette approche peut ne pas revêtir exactement la même définition pour l’ensemble de la communauté scientifique.

Avec les garde-fous énoncés dans cet article, nous imaginons la recherche participative comme l’opportunité unique d’une autre contribution de la science à la société, et de la société à la science.


Elsa Bombrun, ingénieure agronome, a également participé à la rédaction de cet article.

The Conversation

Jean-Michel Escoffre est trésorier de Centre-Sciences. Il a reçu des financements de l’Agence nationale de la recherche, l’Inserm, l’université de Tours, la Région Centre-Val de Loire, la Ligue contre le cancer.

Virginie Hamel a reçu des financements des Fonds de Recherche en Santé du Québec (FRQS).

Claudie Lemercier, Elsa Bombrun, Houda El Azzaoui et Mélissa Mialon ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Recherche participative en santé : rapprocher les citoyens et les scientifiques au sein de projets de recherche – https://theconversation.com/recherche-participative-en-sante-rapprocher-les-citoyens-et-les-scientifiques-au-sein-de-projets-de-recherche-258100

Parler des bâtards du Moyen Âge en historiens du XXIᵉ siècle : faut-il cacher ce mot que l’on ne saurait voir ?

Source: The Conversation – France (in French) – By Carole Avignon, Maîtresse de conférences en Histoire du Moyen Age, Université d’Angers

Avant la bataille de Hastings (1066), banquet de Guillaume le Conquérant, appelé aussi Guillaume le Bâtard, le fils naturel de Robert le Magnifique, duc de Normandie. Musée de la Tapisserie de Bayeux/Wikimedia Commons

Au Moyen Âge, le terme « bâtard » ne vaut pas toujours stigmatisation. D’ailleurs, il n’acquiert une pleine valeur d’insulte qu’à partir du XIXe siècle. Par le passé, les expériences sociales de filiations illégitimes sont bien plus complexes qu’on ne l’imagine aujourd’hui, ainsi que le met en évidence le programme de recherche « Filiations, identité, altérité médiévales ».


C’est l’histoire d’un Live Twitch programmé en avril 2025 par la très respectable émission « De l’eau dans le gaz », proposée par Terre des sciences, acteur reconnu de l’écosystème de la médiation scientifique dans les Pays de la Loire.

Puisque le pari de notre programme de recherche Filiations, identité, altérité médiévales (Fil_IAM), soutenu de 2020 à 2025 par l’Agence nationale de la recherche (ANR), fut de proposer le développement d’un prototype de jeu vidéo pour partager des résultats de recherche, pourquoi ne pas mobiliser en effet le canal de partage d’expériences des gamers, la chaîne Twitch ?

Il fallut toutefois en passer par quelques précautions spécifiques au média en ligne, avec ses stratégies de modération propres à l’univers des réseaux sociaux. Nous avons ainsi évité de laisser le mot « bâtard » dans les titres, il nous a fallu prévenir les auditeurs de s’abstenir de commenter le « live » en utilisant le mot « bâtard »…

Dès que les interlocuteurs n’étaient pas expressément acculturés aux champs de recherche en sciences humaines et sociales, voilà que parler de « bâtards », même au Moyen Âge, suscitait une prévention spontanée, une inquiétude, assez vite résolue certes, mais bel et bien palpable…


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Cette expérience fait ressortir une forme de malentendu, un hiatus entre les canaux usuels de la connaissance historique (colloques, publications universitaires) et les espaces grand public au sein desquels chercheurs et chercheuses peuvent être conviés à partager leurs recherches.

Cela nous invite à réfléchir aux modes de transmission de la science, à la manière dont peuvent se télescoper les codes et les imaginaires de différentes époques et donc au recul et à la remise en perspective qu’apporte la recherche. Que peut nous apporter au XXIe siècle la connaissance des logiques de filiation au Moyen Âge ?

Une grille de lecture complexe

L’anecdote montre que la connotation injurieuse du vocable a la peau dure ! Sans doute aussi le très grand public n’est-il pas toujours bien au clair avec ce que faire de l’histoire veut dire. Car, ici, il s’agit d’étudier en historienne ou historien un statut social, celui des « bâtards », des « fils et filles illégitimes », des « enfants naturels », une variable d’identité, fruit d’une construction juridique enracinée dans les enjeux normatifs et politiques des IXe– XIIIe siècles (celle de l’illégitimité de la filiation).

Il s’agit de considérer les trajectoires sociales de celles et de ceux qui pâtissent des incapacités juridiques et sociales induites qui se déclinent en exclusion du périmètre de l’« hereditas » (incapacité à hériter de ses ascendants – géniteurs non mariés, et à transmettre en dehors des liens construits dans le mariage légitime), exclusion de l’accès aux ordres sacrés de l’Église, de bien des métiers et corporations attachés à l’honorabilité, héritée, de leurs membres, etc.

Mais ce panel d’incapacités ne réduit pas à lui seul la possible grille de lectures de ce que l’illégitimité de la filiation ou « bastardie » a fait aux sociétés médiévales de l’Europe latine.

Depuis 2012, j’anime en tant que médiéviste des programmes pluridisciplinaires de recherche pour explorer ce que la filiation illégitime fait à la parenté et comment s’exprime la bâtardise. Avec une quarantaine de spécialistes d’histoire, d’histoire du droit, de démographie historique, de littérature, de civilisation, de linguistique, nous avons proposé en 2016 un cadre problématique dans Bâtards et bâtardises dans l’Europe médiévale et moderne, aux Presses universitaires de Rennes. Nous y avons abordé ce que la bâtardise nous révèle des sociétés passées, ses régimes juridiques, la place des bâtards dans les sociétés d’Ancien Régime, entre stigmatisation, discrimination et intégration.

Parmi les contributions, celle de la professeure des sciences du langage à l’Université Savoie Mont-Blanc Dominique Lagorgette permettait de dresser un panorama des sens et des usages de « bastards » ainsi que de l’expression souvent associée « fils à putain » dans un corpus de textes du Moyen Âge, littéraires et non littéraires. Il s’agissait d’étudier la manière dont ce mot pouvait parcourir l’échelle axiologique. La conclusion était que « bastard » n’avait pas acquis sa valeur d’insulte avant le XIXe siècle, « insulte par ricochet, insultant autrui mais blessant le récepteur ».

Entre stigmatisation et épithète d’honneur

Bien sûr, la potentielle connotation sexuelle de l’usage du mot à fin d’invective n’était pas ignorée dans certains contextes d’énonciation. Bien sûr, la « macule » de « géniture », comme pouvait s’exprimer aussi le fait de ne pas être né de parents mariés conformément aux attentes normatives socialement construites du temps, établissait les soubassements d’un discours sur la souillure et la tache.

C’est sur cette tache qu’est construit le titre choisi par la spécialiste de la bâtardise à l’époque moderne, Sylvie Steinberg, quand elle publie en 2016 un ouvrage de référence pour étudier « par-delà droit et théologie […] la dimension vécue des liens entre enfants et parents ».




À lire aussi :
Non, les enfants n’étaient pas négligés au Moyen Âge : la preuve par l’éducation


La « semence maudite » dénoncée dans le Deutéronome (pour ceux qui ne sont pas alors les « bâtards » du Moyen Âge, pas même encore les « fils de prêtres ») est réinterprétée de texte en texte, déployant les champs sémantiques de l’impureté, de la corruption, de l’incomplétude.

De même le « defectus natalium » qui définit une « irrégularité » dans l’accès à l’ordination des prêtres induit-il une « altération » de la qualité de la naissance comme un « vitium » du corps, ou une incomplétude. De même la promotion pastorale de l’honorabilité du mariage canonique a-t-elle pu être portée par le travail sur le langage de la couche (nuptiale) sans souillure, le « thorus immaculatus » de l’Épître aux Hébreux (Hé., 13).

Mais toute mobilisation du terme « bâtard » ne vaut pas stigmatisation au Moyen Âge. Il sait fonctionner comme un titre, presque une épithète d’honneur dans certaines configurations, en particulier dans les groupes nobiliaires. L’ouvrage de Marie-Lise Fieyre sur les bâtards des Bourbon pourra enrichir la recherche sur les bâtards dans les lignages nobiliaires et princiers.

Un besoin d’historicité

Avec le programme Fil_IAM, il s’agit de renouveler les grilles de lecture des bâtardises médiévales, en mobilisant aussi les apports méthodologiques des « disability studies ». Ainsi l’on saisit des scripts d’incapacité, les enjeux des opérations administrativo-politiques de réhabilitation des fils et filles marqués par une altération de la qualité de leur naissance et plus ou moins entravés dans leur insertion sociale selon d’autres variables (groupe social d’appartenance du père, de la mère, genre, place dans la fratrie, etc.).

Le malentendu s’entend : « bâtards » vaut insulte cuisante aujourd’hui, mais les historiennes et historiens peuvent se saisir de cet objet, en tant qu’il pourrait être effectivement la marque d’une insulte, mais, aussi, en tant qu’il pourrait ne pas l’être…

Les malentendus persistants ont eu le mérite de révéler le besoin d’historicité, de dissémination de savoirs historiques, notamment liés aux époques médiévales, auprès de tous les publics.

Le prototype de jeu vidéo Cap ou pas Cap ? Bandes de bâtards a pour objectif d’éclairer quelques-unes des mécaniques sociales des XIIIe– XVe siècles.

« On teste le jeu CAP OU PAS CAP ? BANDE DE BÂT*RDS ! #2 », ÉchoSciences Pays de la Loire, avril 2025.

Le titre a été pensé en clin d’œil aux défis de cours d’école (puisque le jeu est pensé en particulier pour prolonger quelques séances de cours d’histoire de 5e), mais aussi pour ouvrir un espace d’interrogations à partager.

Afin de prolonger l’expérience, le programme a également produit une série de podcasts, pour mieux comprendre ce que c’est que faire de l’histoire aujourd’hui, et de l’histoire médiévale en particulier, autour des bâtardes et bâtards du Moyen Âge.

The Conversation

Carole Avignon a reçu des financements de l’Université d’Angers (soutien de la commission recherche pour son premier programme de recherche F-illégitime) et de l’ANR au titre du programme JCJC (pour le programme Fil_IAM: ANR-19-CE41-0004) et au titre du programme ANR SAPS (UA-Class)

ref. Parler des bâtards du Moyen Âge en historiens du XXIᵉ siècle : faut-il cacher ce mot que l’on ne saurait voir ? – https://theconversation.com/parler-des-batards-du-moyen-age-en-historiens-du-xxi-siecle-faut-il-cacher-ce-mot-que-lon-ne-saurait-voir-257278

Proportionnelle aux élections législatives : qu’en pensent les citoyens ?

Source: The Conversation – France in French (3) – By Navarro Julien, Chargé de recherche en science politique, Institut catholique de Lille (ICL)

Faut-il abandonner le scrutin majoritaire à deux tours pour élire les députés à la proportionnelle ? Cette question fait l’objet de discussions passionnées jusqu’au sein du gouvernement. Au-delà des polémiques sur les avantages et les inconvénients de chaque mode de scrutin, des travaux récents suggèrent qu’un système fondé sur la proportionnelle est perçu comme plus démocratique. Son adoption pourrait contribuer à restaurer la confiance des citoyens dans le jeu politique.

D’après un sondage réalisé dans la foulée des élections législatives anticipées de 2024, 57 % des personnes interrogées jugeaient que la composition de l’Assemblée nationale ne reflétait pas fidèlement l’opinion des Français. Un tel résultat peut surprendre si l’on considère que ces mêmes Français venaient de désigner leurs députés ! S’il reflète sans doute les déceptions cumulées d’électeurs dont le vote n’a pas permis à leur parti d’obtenir une majorité, il traduit aussi plus profondément un malaise démocratique et un fossé croissant entre citoyens et représentants.

Dans ce contexte, le débat sur la réforme du système électoral – c’est-à-dire de la manière dont les suffrages sont transformés en sièges au sein d’une assemblée – prend un relief particulier. Il a été récemment ravivé par la publicité donnée à un « bras de fer » sur ce sujet entre Bruno Retailleau et François Bayrou.

Les consultations menées par le Premier ministre François Bayrou sur l’instauration de la proportionnelle sont sources de tensions au sein du gouvernement : le ministre de l’Intérieur, Bruno Retailleau, a ainsi récemment déclaré qu’il ne porterait « jamais » une telle réforme.

Il faut dire que le Premier ministre est un partisan historique de l’instauration d’un système proportionnel, dans lequel chaque parti se voit attribuer un pourcentage des sièges de députés en fonction de son pourcentage de votes. Son ministre de l’Intérieur, quand à lui – et à l’image du parti Les Républicains dans son ensemble – reste viscéralement attaché au scrutin majoritaire à deux tours. Rappelons que ce mode de scrutin, qui correspond à l’élection dans une circonscription de celui ou celle qui arrive en tête au second tour, est utilisé pour les élections législatives depuis l’instauration de la Ve République en 1958 (à l’exception de celles de 1986).

La proportionnelle transforme l’offre politique

De part et d’autre, les arguments sur les mérites et les effets de chaque système ne manquent pas. La proportionnelle assure par définition une représentation des forces politiques en fonction de leur poids dans l’électorat. Les partis y jouent un rôle primordial car ce sont eux qui se chargent de constituer des listes de candidats, que ce soit à l’échelle départementale, régionale ou nationale.

Les effets du scrutin majoritaire sont tout autres. Si ce mode de scrutin a pour effet théorique d’assurer une large majorité au parti arrivé en tête des élections, cela se fait au prix d’une distorsion de la représentation. Cette dernière est cependant contrebalancée par davantage de redevabilité personnelle des représentants, dans la mesure où chaque député élu localement rend des comptes à l’ensemble des électeurs de sa circonscription.

Avec un système majoritaire tel que nous le connaissons aujourd’hui, les partis politiques sont également encouragés à se coaliser avant les élections pour maximiser leurs chances d’accéder au second tour, ou à former des alliances dans l’entre-deux-tours. C’est ce qu’ont parfaitement compris les partis du Nouveau Front populaire en 2024.

À l’inverse, avec un mode de scrutin proportionnel, chaque formation politique – y compris les plus petites – est susceptible de concourir seule. La formation des gouvernements dépend alors de la constitution de coalitions après les élections. Le dilemme est donc ici le suivant : vaut-il mieux une offre politique restreinte mais lisible dès l’élection, ou plus diversifiée au risque de rendre les alliances postélectorales imprévisibles pour les électeurs ?

Et les citoyens, qu’en pensent-ils ?

Les controverses techniques autour des effets des systèmes électoraux cachent en réalité un enjeu plus fondamental : celui de la légitimité démocratique et de la recherche d’un processus électoral à la fois juste et équitable. Une autre façon d’aborder la question consiste à interroger les préférences des citoyens eux-mêmes. En démocratie, n’est-ce pas à eux de choisir les règles du jeu politique ?

Sur ce point, les sondages récents sont clairs. D’après le sondage Elabe cité plus haut, en 2024, seuls 37 % des Français se disaient attachés au scrutin majoritaire à deux tours, alors qu’une majorité préférerait soit un scrutin proportionnel au niveau national (35 %), soit un système mixte (26 %). En mai 2025, selon une autre enquête de l’institut Odoxa, 75 % des Français se disaient désormais favorables à l’élection des députés à la proportionnelle.

Afin de contourner les limites inhérentes aux enquêtes d’opinion, j’ai mené en 2022 avec des collègues italiens et hongrois une étude expérimentale dans trois pays aux systèmes électoraux et à la qualité démocratique variés : la France, l’Italie et la Hongrie. Notre objectif : comprendre comment le mode de scrutin, entre autres facteurs, influe sur la perception que les citoyens ont de la qualité démocratique des institutions.

Nous avons demandé à des participants de comparer deux systèmes politiques fictifs, construits selon neuf critères variant aléatoirement, et d’indiquer lequel leur semblait le plus démocratique. Les critères pris en compte correspondaient aussi bien aux modalités d’accès au pouvoir – y compris la proportionnalité du système électoral – qu’aux processus de décision et aux performances du gouvernement.

Un système politique reposant sur la proportionnelle est systématiquement jugé plus démocratique

Les enseignements de cette étude sont multiples. Par rapport aux études antérieures qui mettaient l’accent sur les caractéristiques personnelles des répondants, sur leurs préférences partisanes ou sur leur situation économique, notre travail démontre l’importance du cadre institutionnel, en particulier du système électoral, parmi les différents éléments qui conduisent des citoyens – toute chose étant égale par ailleurs – à considérer un régime comme plus démocratique qu’un autre.

Même en tenant compte d’autres facteurs comme le niveau de corruption ou la performance économique, les résultats sont nets : peu importe le contexte, les citoyens jugent plus démocratique un système où les élus sont choisis à la proportionnelle. Le fait qu’un système politique repose sur la proportionnelle augmente sa probabilité d’être considéré comme plus démocratique de 3,6 points de pourcentage par rapport à un système fonctionnant avec un mode de scrutin majoritaire.

Cette préférence pour un système proportionnel, qui confirme des travaux menés en Autriche, Angleterre, Irlande et Suède, correspond en outre, chez les citoyens, à une vision d’ensemble cohérente de ce qui rend un système politique plus démocratique. Les participants ont en effet également jugé plus démocratiques des systèmes où un grand nombre de partis étaient représentés, plutôt que quelques-uns, et où le gouvernement était issu d’une coalition, plutôt que d’un seul parti. Avoir une offre politique large augmente de 3,6 points de pourcentage la probabilité qu’un système politique soit considéré comme plus démocratique par rapport à un système où il n’y a qu’un nombre réduit de partis. Le gain est même de 5 points de pourcentage lorsqu’il y a un gouvernement de coalition plutôt qu’un gouvernement unitaire.

Ce sont par ailleurs les participants les plus attachés à la démocratie – ceux qui estiment qu’elle est préférable à toute autre forme de gouvernement – qui se montrent les plus enclins à désigner comme plus démocratique un système politique basé sur la proportionnelle. La probabilité que ce groupe choisisse un système donné passe ainsi de 45 % à 55 % si celui-ci présente des caractéristiques proportionnelles. À l’inverse, la proportionnelle ne génère aucun écart significatif dans les probabilités qu’un système soit choisi plutôt qu’un autre chez les participants qui soutiennent faiblement la démocratie.

Notons enfin que cette valorisation du pluralisme et de la recherche du compromis ne peut s’expliquer par l’ignorance dans laquelle les participants se trouveraient des effets potentiellement négatifs de la proportionnelle. Les résultats pour la France sont en effet sur ce point parfaitement convergents avec ceux obtenus par notre étude dans les pays qui utilisent déjà la proportionnelle intégrale, comme l’Italie, ou un système mixte, comme la Hongrie. Le fait qu’un système politique s’appuie sur un scrutin proportionnel plutôt que majoritaire augmente de 8 points de pourcentage la probabilité que les participants hongrois le désignent comme plus démocratique ; parmi les participants italiens, la différence entre ces deux scénarios est comme dans l’enquête française de 3,6 points de pourcentage.

Quelles leçons pour le débat français ?

Bien sûr, le système électoral ne constitue qu’un des aspects poussant les citoyens à juger un régime politique plus démocratique qu’un autre. Il serait tout à fait illusoire de penser que l’adoption de la proportionnelle pour les élections législatives pourrait suffire à réconcilier les Français avec la politique et à régler tous les problèmes de la Ve République.

Notre étude a cependant le mérite de montrer que les modalités de désignation des responsables politiques – en particulier le mode de scrutin – sont un élément clé de la satisfaction démocratique, indépendamment de la façon dont le pouvoir est ensuite exercé et des résultats qu’il obtient. Ainsi, même si dans notre étude la croissance économique et le niveau de corruption ont un large effet sur la satisfaction démocratique (la probabilité qu’un pays connaissant une forte croissance et peu de corruption soit considéré comme plus démocratique augmente respectivement de 14,5 et de 3,5 points de pourcentage par rapport à un pays à l’économie stagnante et corrompu), ils n’annulent pas celui, bien tangible, de la proportionnalité du système électoral.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Cela contribue à expliquer pourquoi il est vain d’espérer restaurer la confiance envers les gouvernants par la seule amélioration du bien-être des citoyens. Les gouvernements sortants en ont fait l’amère expérience en 2022 et, plus encore, en 2024 : même si les facteurs expliquant leurs échecs électoraux sont multiples, il est assez clair que leurs tentatives de tirer profit de bons résultats en matière d’emploi ne se sont pas traduits par un surcroît de popularité dans les urnes.

The Conversation

Navarro Julien ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Proportionnelle aux élections législatives : qu’en pensent les citoyens ? – https://theconversation.com/proportionnelle-aux-elections-legislatives-quen-pensent-les-citoyens-258356

L’IA peut-elle prédire la faillite d’un pays ?

Source: The Conversation – France (in French) – By Serge Besanger, Professeur à l’ESCE International Business School, INSEEC U Research Center, ESCE International Business School

Les outils d’intelligence artificielle peuvent-ils aider à mieux anticiper les catastrophes économiques et financières ? En intégrant une information plus fraiche et plus qualitative, il serait possible d’identifier des signaux faibles bien en amont de la crise. Mais gare, le recours à ces outils expose à de nouveaux risques qu’il ne faut pas minorer.


Prédire plus tôt la faillite d’un pays permet de limiter les pertes financières, de mieux préparer les réponses politiques et économiques, et surtout d’atténuer les conséquences sociales. Pour les institutions internationales et les gouvernements, c’est l’occasion de mettre en place des plans d’aide ou de restructuration avant que la crise n’explose. Et pour la population, cela peut éviter des mesures brutales : effondrement bancaire, coupures dans les services publics, hausse soudaine du chômage ou flambée des prix. En somme, anticiper, c’est gagner du temps pour agir avec plus de maîtrise, réduire la casse économique et sociale, et éviter de gérer la crise dans l’urgence et la panique.

En mars 2020, alors que les marchés s’effondraient en pleine pandémie, peu d’institutions avaient anticipé l’ampleur de la crise pour les pays émergents. Pourtant, dans les mois suivants, la Zambie, le Sri Lanka et le Liban se retrouvaient en défaut de paiement. Aujourd’hui, avec l’essor de l’intelligence artificielle (IA), une question se pose : l’IA peut-elle prédire la faillite d’un État mieux que les modèles classiques ?

Les limites des modèles traditionnels

Jusqu’ici, les grands outils d’alerte – comme le Système d’Alerte Précoce (Early Warning System, EWS) du FMI – reposaient sur des agrégats macroéconomiques classiques : dette extérieure, croissance, réserves de change, solde courant… Bien qu’utiles, ces indicateurs sont souvent publiés avec retard, et sensibles à des manipulations comptables.

Les agences de notation (S&P, Moody’s, Fitch…), quant à elles, fondent encore largement leurs évaluations sur des analyses humaines, avec un décalage temporel important.




À lire aussi :
Quand commence un krach boursier ? Et qu’appelle-t-on ainsi ?


Une incapacité à capter les signaux comportementaux

De fait, les modèles traditionnels de prédiction des risques souverains s’appuient principalement sur des indicateurs macroéconomiques agrégés : ratio dette/PIB, niveau des réserves de change, balance courante, inflation, ou encore notation des agences de crédit. Ces approches, souvent inspirées des modèles économétriques ou statistiques classiques (logit, probit, etc.), ont deux limites majeures :

  • des données trop lentes et trop agrégées : Les statistiques macroéconomiques sont publiées avec des délais parfois de plusieurs mois, trimestres, voire années. Elles lissent les signaux faibles et masquent les dynamiques de court terme comme les retraits massifs de capitaux ou les paniques bancaires naissantes.

  • une incapacité à capter les signaux comportementaux et politiques : Les crises souveraines ne sont pas seulement économiques. Elles sont aussi sociales, politiques et parfois géopolitiques. Or, les modèles traditionnels peinent à intégrer des variables non quantitatives comme l’instabilité politique, la polarisation sociale, les mouvements de protestation ou les négociations discrètes avec des bailleurs de fonds internationaux.

Le fait que le Liban ait été noté B jusqu’en 2019 alors qu’il méritait probablement un D illustre plusieurs dysfonctionnements majeurs dans les systèmes traditionnels de notation souveraine. Les agences préfèrent réagir que prévenir, ce qui biaise leurs notations à la hausse, surtout pour les pays fragiles.

Signaux faibles

De nouveaux modèles émergent, fondés sur l’apprentissage automatique (machine learning) et le traitement du langage naturel (NLP). Fitch, Moody’s et S&P testent déjà des IA capables de traiter des milliers de sources d’information en temps réel : flux financiers, déclarations publiques, mais aussi données satellites, transactions Swift anonymisées et commentaires sur Twitter/X.

Ces outils détectent des signaux faibles, invisibles aux yeux des analystes traditionnels : une série de transferts vers des comptes offshore, une chute anormale des volumes bancaires ou encore une brusque montée des hashtags du type #default #bankrun dans une langue locale.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le précédent libanais

En 2019, bien avant l’effondrement officiel du système bancaire libanais, plusieurs signaux faibles étaient visibles. Des rumeurs circulaient sur WhatsApp et Twitter. Les transferts de fonds sortants explosaient. Des vidéos montraient des manifestants réclamant des comptes à la Banque centrale. Pourtant, les agences de notation, de même que le FMI, tardaient à alerter.

Malgré des signes alarmants en amont, le FMI est resté prudent dans son langage et n’a pas émis d’alerte franche avant l’effondrement du système bancaire libanais en 2019–2020. Un modèle IA entraîné sur les comportements non linéaires de retrait d’espèces, les mentions de panique financière dans les réseaux sociaux ou la disparition progressive des produits importés aurait pu détecter un risque élevé de défaut bien avant les agences.

Le cas du Pakistan : une surveillance en temps réel

Le Pakistan, régulièrement au bord du défaut, illustre un autre usage de l’IA. Le laboratoire de l’ESCE a récemment mis au point un outil combinant flux de données bancaires anonymisées (volumes de dépôts par région), données satellites sur les niveaux d’activité portuaire, analyse sémantique de discours politiques (fréquence de termes comme « aide d’urgence », « moratoire », « négociation FMI »), volume de vols directs sortants depuis Jinnah, discussions en penjabi et urdu sur X et Facebook… En croisant ces éléments, le modèle a anticipé dès la fin 2022 une nouvelle demande de plan de sauvetage… annoncée publiquement seulement en avril.

L’asymétrie de pouvoir entre les États et les autres acteurs économiques entretient la récurrence des crises financières systémiques, dont les impacts sur les grands équilibres macroéconomiques sont souvent massifs.

L’IA ajoute une couche dynamique aux modèles de risque pays, avec des alertes basées sur des tendances comportementales et des « bruits faibles ». Là où les systèmes classiques peinent à intégrer la psychologie collective ou les effets de contagion sur les marchés, l’IA excelle.

L’IA, un nouveau risque ?

Attention cependant aux biais algorithmiques. Les données issues des réseaux sociaux sont bruitées, et leur analyse peut être influencée par des campagnes coordonnées.

De plus, les IA ne sont pas neutres : elles peuvent intégrer des représentations inégalitaires du risque pays, notamment en surestimant les tensions dans des pays politiquement ou socialement instables mais solvables.

Arte 2025.

L’IA n’est pas un oracle. Les données non structurées (réseaux sociaux, médias, forums) sont dites “ bruyantes”, dans le sens où une mauvaise qualité d’entraînement et un mauvais filtrage peuvent conduire à des « faux positifs » alarmants. Si le modèle est entraîné sur des crises passées, il risque de surpondérer certains types de signaux et de sous-estimer des configurations inédites, voire d’”halluciner”. Ces hallucinations surviennent souvent en raison de problèmes liés aux données utilisées pour entraîner les modèles de langage, des limitations de l’architecture des modèles et de la manière dont les grands modèles de langage (LLMs) interprètent les données économiques et financières.

Problème de gouvernance

De plus, les sources peuvent elles-mêmes être biaisées par des campagnes de désinformation. Les modèles d’IA les plus performants sont des « boîtes noires », dont la logique interne est difficilement interprétable. Pour un investisseur institutionnel ou un analyste-crédit, cela peut poser un problème de gouvernance : comment justifier une décision d’investissement ou de désinvestissement fondée sur un score algorithmique non explicable ?

Face à l’accélération et la complexité croissante des chocs économiques, sociaux et géopolitiques, des institutions comme le FMI, la Fed ou la BCE, de même que certains fonds d’investissement et banques, expérimentent désormais des intelligences artificielles capables de simuler des scénarios de crise en temps réel. L’objectif n’est plus seulement de prédire la prochaine défaillance, mais de la prévenir en ajustant les politiques économiques de manière beaucoup plus réactive, grâce à des modèles adaptatifs nourris par des flux de données continus et dynamiques.

Mais ces outils ne remplaceront pas de sitôt le regard critique et le discernement humain. Car là où l’IA excelle dans la détection de signaux faibles et le traitement massif de données, elle reste vulnérable à des biais et des hallucinations statistiques si elle est livrée à elle-même. La vraie rupture viendra donc d’un modèle hybride : un dialogue permanent entre l’intuition géopolitique et sociale des analystes humains et la capacité de calcul de l’intelligence artificielle.

Finalement, il ne s’agit plus de choisir entre l’humain et la machine, mais d’orchestrer intelligemment leurs forces respectives. L’enjeu n’est pas seulement de voir venir les crises, mais d’avoir les moyens d’agir avant qu’elles n’éclatent.

The Conversation

Serge Besanger a été directeur intérimaire d’une filiale du FMI.

ref. L’IA peut-elle prédire la faillite d’un pays ? – https://theconversation.com/lia-peut-elle-predire-la-faillite-dun-pays-259745

Attaques contre les installations nucléaires iraniennes : que dit le droit international ?

Source: The Conversation – France in French (3) – By Abdelwahab Biad, Enseignant chercheur en droit public, Université de Rouen Normandie

Les attaques d’Israël et des États-Unis contre des installations nucléaires iraniennes, présentées comme nécessaires pour empêcher le développement d’armes nucléaires par l’Iran, constituent non seulement des actes illicites en droit international (violation de la Charte des Nations unies et du droit des conflits armés), autrement dit une agression, mais pourraient aussi affecter négativement la crédibilité du régime de non-prolifération nucléaire incarné par le Traité sur la non-prolifération des armes nucléaires (TNP) et le système de garanties de l’Agence internationale de l’énergie atomique (AIEA), en place depuis un demi-siècle.


Le 7 juin 1981, l’aviation israélienne bombarde le réacteur irakien Osirak, suscitant une réprobation unanime. Dans sa résolution 487 (1981), le Conseil de sécurité des Nations unies « condamne énergiquement » l’attaque, qu’il qualifie de « violation flagrante de la Charte des Nations unies et des normes de conduite internationale », estimant en outre qu’elle « constitue une grave menace pour tout le système de garanties de l’Agence internationale de l’énergie atomique, sur lequel repose le Traite sur la non-prolifération des armes nucléaires ».

Ce qui est intéressant ici, c’est la demande faite à Israël « de s’abstenir à l’avenir de perpétrer des actes de ce genre ou de menacer de le faire », un appel manifestement ignoré depuis puisque Tel-Aviv a récidivé par des attaques armées contre des installations situées en Syrie (2007) puis en Iran tout récemment, sans même parler des cyberattaques et les assassinats de scientifiques irakiens et iraniens.

Ce qui différencie toutefois le cas de l’Iran 2025 par rapport à celui de l’Irak 1981, c’est d’une part l’ampleur des attaques (12 jours sur une dizaine de sites) et d’autre part, l’implication des États-Unis, qui ont bombardé les sites d’Ispahan, Natanz et Fordo. Cet engagement américain, ainsi que la rivalité israélo-iranienne au Moyen-Orient, exacerbée depuis le début de la guerre à Gaza, ont non seulement paralysé le Conseil de sécurité, mais ont aussi brouillé le débat sur la licéité de telles attaques.

La guerre préventive ou de « légitime défense préventive » invoquée par Israël pour neutraliser une « menace existentielle » est illicite au titre de la Charte des Nations unies qui définit les conditions de l’emploi de la force par un État (soit via la légitime défense en réponse à une attaque, soit par une action collective décidée par le Conseil de sécurité). Ce qui n’englobe pas une légitime défense « préventive » décidée unilatéralement. Ainsi que l’a rappelé la Cour internationale de Justice, « les États se réfèrent au droit de légitime défense dans le cas d’une agression armée déjà survenue et ne se posent pas la question de la licéité d’une réaction à la menace imminente d’une agression armée » (Affaire Nicaragua contre États-Unis, 1986).

Par ailleurs, l’ampleur et la planification rigoureuse des attaques contre les sites nucléaires iraniens suggèrent que Benyamin Nétanyahou nourrissait ce projet de longue date, comme en témoignent ses nombreuses déclarations depuis trente ans, prédisant l’acquisition imminente de la bombe par l’Iran sous deux ans à quelques mois (Knesset en 1992, Congrès américain en 2002, ONU en 2012 et 2024).

L’Iran un « État du seuil » ; quid d’Israël ?

Le programme nucléaire iranien, lancé sous le chah, a connu un développement depuis les années 2000 avec la construction d’installations diverses permettant au pays de se doter de tout le cycle du combustible (réacteurs de recherche, centrales de production d’électricité, usines d’enrichissement et de stockage de matières radioactives) situés principalement à Arak, Téhéran, Bouchehr, Ispahan, Natanz et Fordo.

L’existence de sites non déclarés à l’AIEA fut à l’origine de sanctions imposées par le Conseil de sécurité. Celles-ci furent ensuite suspendues avec l’adoption du Plan d’action global commun, ou accord de Vienne (2015), signé entre l’Iran, les États-Unis (alors présidés par Barack Obama), la Russie, la Chine, la France, le Royaume-Uni et l’Allemagne, qui prévoyait que l’Iran limite ses capacités d’enrichissement de l’uranium en contrepartie de la levée des sanctions.

Mais en 2018, Donald Trump, installé à la Maison Blanche depuis janvier 2018, décide de se retirer unilatéralement de l’accord, sans recourir à la procédure de règlement des différends prévue, et rétablit les sanctions américaines contre Téhéran. L’Iran se considère alors libéré de ses engagements relatifs au niveau d’enrichissement, et fait passer celui-ci à 60 %, bien au-delà de la limite autorisée par l’accord (3,67 %). Bien que ce niveau soit inférieur à celui nécessaire pour une application militaire (90 %), il fait déjà de l’Iran « un État du seuil », c’est-à-dire un État capable d’accéder à la bombe, sous réserve de concevoir et de tester l’engin dans des délais plus ou moins longs. C’est précisément ce risque de voir l’Iran obtenir rapidement l’arme nucléaire qui a été invoqué par Israël et par les États-Unis pour justifier leurs frappes sur les installations iraniennes à partir du 13 juin dernier.

Il reste que le gouvernement iranien a nié toute intention de se doter de la bombe, invoquant la fatwa de l’Ayatollah Khamenei (2005) stipulant que la possession de l’arme nucléaire est contraire aux prescriptions de l’islam. Certes, l’AIEA, autorité de référence en la matière, a souligné à plusieurs reprises dans ses rapports annuels l’existence de zones d’ombre et de dissimulations concernant la nature et l’ampleur du programme iranien d’enrichissement. Elle a toutefois toujours conclu ne disposer d’aucune preuve attestant l’existence d’un programme à visée militaire.

Le principal opposant au programme nucléaire iranien reste Israël, qui n’est pourtant pas en position de donner des leçons en la matière. Doté de l’arme nucléaire depuis les années 1960 en dehors du cadre du TNP, auquel il n’a jamais adhéré, Israël n’a jamais reconnu officiellement son arsenal, invoquant une doctrine d’opacité relevant du « secret de polichinelle » (on estime qu’il disposerait d’une centaine de bombes).

Contrairement à tous ses voisins, il refuse de se soumettre aux inspections de l’AIEA et ignore la résolution 487 du Conseil de sécurité, qui lui « demande de placer d’urgence ses installations nucléaires sous les garanties de l’Agence internationale de l’énergie atomique ». Fait notable : tous les gouvernements israéliens, quel que soit leur bord politique, ont systématiquement évité tout débat public sur le sujet, y compris au niveau national – où il demeure un tabou –, tout en accusant tour à tour leurs voisins (Égypte de Nasser, Irak, Iran) de chercher à se doter de la bombe et de menacer ainsi le monopole nucléaire d’Israël dans la région.

Pourquoi les attaques contre les installations nucléaires sont-elles spécifiquement prohibées ?

L’Iran est un État partie au TNP (depuis son entrée en vigueur, 1970), un instrument clé de non-prolifération par lequel les États non dotés d’armes nucléaires s’engagent à le rester en contrepartie du bénéfice des utilisations pacifiques de l’énergie nucléaire sous le contrôle de l’AIEA pour prévenir tout usage à des fins militaires.

Cet engagement de non-prolifération est le corollaire du « droit inaliénable » à développer la recherche, la production et l’utilisation de l’énergie nucléaire à des fins économiques et scientifiques inscrit dans le traité et aucune disposition du TNP n’interdit spécifiquement l’enrichissement de l’uranium. En cas de manquements aux obligations de non-prolifération, l’Agence peut saisir le Conseil de sécurité.

Ce fut le cas pour la Corée du Nord en 2006, ainsi que pour l’Iran avant la conclusion de l’accord de 2015. Depuis au moins 2019, l’AIEA a toutefois exprimé des préoccupations quant à des activités menées sur des sites non déclarés, susceptibles de contrevenir aux obligations prévues par l’accord de garanties liant l’Iran à l’Agence, notamment en matière de non-détournement de matières nucléaires. Néanmoins, nous l’avons dit, ces irrégularités n’ont pas permis à l’AIEA d’établir avec certitude l’existence ou l’absence d’un programme à finalité militaire – une condition nécessaire pour saisir le Conseil de sécurité.

Les attaques du 12 au 24 juin violent en particulier la résolution 487 du Conseil demandant aux États « de s’abstenir de perpétrer des attaques ou menacer de le faire contre des installations nucléaires » ainsi que les résolutions de l’AIEA allant dans le même sens. Le directeur général de l’AIEA a rappelé « que les installations nucléaires ne devaient jamais être attaquées, quels que soient le contexte ou les circonstances » (13 juin 2025). Cette prescription d’interdiction s’explique par les conséquences graves sur les populations et l’environnement pouvant découler des fuites radioactives dans et au-delà des frontières de l’État attaqué. À ce propos, la réaction des Américains et des Européens fut prompte lors des incidents armés visant les centrales de Tchernobyl et Zaporijjia (2022, 2024 et 2025), le directeur de l’AIEA jugeant ces attaques « irresponsables » (15 avril 2024).

Si aucun traité spécifique n’interdit les attaques contre des installations nucléaires, leur prohibition découle du droit des conflits armés qui interdit de diriger intentionnellement des attaques contre des biens à caractère civil, les installations nucléaires étant considérées comme telles. Le fait de diriger intentionnellement des attaques contre des biens civils (et des personnes civiles) est une violation des lois et coutumes de la guerre, un crime de guerre au sens du Protocole additionnel I aux Conventions de Genève de 1949 et du Statut de la Cour pénale internationale.

Ces attaques armées risquent de renforcer la défiance à l’égard du TNP. En effet, comment les justifier lorsqu’elles visent les installations nucléaires d’un État partie au traité et soumis aux garanties de l’AIEA, même si la transparence de l’Iran a parfois fait défaut ? Téhéran pourrait être tenté de se retirer du TNP et de suspendre les inspections de l’Agence, comme le laissent entendre certaines déclarations de responsables iraniens. Ils suivraient alors la trajectoire empruntée par la Corée du Nord, qui s’est dotée de l’arme nucléaire après avoir rompu avec l’AIEA et quitté le TNP. Une telle évolution risquerait d’encourager d’autres États, comme l’Arabie saoudite ou la Turquie, à envisager une voie similaire, compliquant davantage encore la recherche d’une issue diplomatique pourtant essentielle à la résolution des crises de prolifération.

Enfin, ces attaques risquent d’affaiblir un régime de non-prolifération déjà singulièrement érodé par les critiques croissantes sur l’absence de désarmement nucléaire, une contrepartie actée dans le traité mais qui n’a pas connu l’ombre d’un début d’application, la tendance allant plutôt dans le sens d’une course aux armements…

The Conversation

Abdelwahab Biad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Attaques contre les installations nucléaires iraniennes : que dit le droit international ? – https://theconversation.com/attaques-contre-les-installations-nucleaires-iraniennes-que-dit-le-droit-international-259926

La démographie, frein au développement ? Retour sur des décennies de débats acharnés

Source: The Conversation – France in French (3) – By Serge Rabier, Chargé de recherche Population et Genre, Agence Française de Développement (AFD)

L’aide au développement fournie par les pays occidentaux, que ce soit via leurs structures étatiques ou à travers diverses organisations internationales ou fondations caritatives, a mis en avant, au cours des dernières décennies, des priorités variées. En matière de démographie, on a observé une certaine constance : de nombreuses actions ont été entreprises pour aider – ou inciter – les pays les moins développés à réduire leur natalité.


En février 2025, l’une des premières mesures de la nouvelle administration Trump a été de purement et simplement supprimer l’agence des États-Unis pour le développement international (USAID), avec pour conséquence de couper des financements représentant plus de 40 % de l’aide humanitaire mondiale.

L’arrêt de la contribution majeure des financements américains destinés au développement invite à un retour historique sur le rôle et l’influence des États-Unis en matière de définition et de déploiement de l’aide publique au développement, en particulier à travers le prisme démographique.

L’instrumentalisation de la démographie dans les agendas successifs du développement

Depuis près de soixante ans, l’agenda international du développement a connu des orientations prioritaires variées, le primat ayant été donné successivement à l’industrialisation, à la lutte contre la pauvreté, aux programmes d’ajustement structurel puis au développement humain et aux enjeux de gouvernance et de droits humains (y compris ceux des femmes et des filles) à l’ère de la mondialisation. À partir de 2000 et jusqu’à aujourd’hui, cet agenda a mis l’accent sur d’autres thématiques : lutte contre les inégalités, urgences climatique et environnementale, finance durable.

Toutes ces orientations prioritaires se sont traduites dans des narratifs démographiques spécifiques : démographie et géopolitique ; démographie et droits humains ; démographie et crise climatique, pour n’en prendre que trois.

Dans le premier cas, les tendances de la fécondité dans les pays en développement ont justifié le soutien financier et logistique à des programmes de contrôle des naissances au nom de la défense des valeurs occidentales contre l’expansionnisme de l’URSS. Dans le deuxième cas, l’affirmation de l’approche par les droits a voulu minorer les dynamiques démographiques en privilégiant la reconnaissance des droits des personnes à décider en matière de droits sexuels et reproductifs. Dans le troisième cas, le plus contemporain, l’argument du poids encore croissant de la population mondiale, et donc de sa limitation nécessaire, serait une (voire la) réponse à la crise climatique, oubliant au passage la cause principale que représente le « modèle » du développement extractiviste et consumériste actuel.

La démographie :un levier de l’engagement international des États-Unis pour le développement

Dans le quatrième point de son discours d’investiture du 20 janvier 1949, le président Harry Truman présente la nécessité d’un « programme nouveau et courageux pour rendre accessibles les résultats bénéfiques de nos avancées scientifiques et de notre progrès industriel en vue des progrès et de la croissance dans les nations sous-développées ».

Au-delà de l’aspect généreux de l’engagement présidentiel dans la lutte contre « l’ignorance, la maladie et la misère » ainsi que les nécessités, plus intéressées, de reconstruction économique, en particulier de l’Europe dévastée par la Seconde Guerre mondiale, il faut aussi voir dans ce programme le poids des néomalthusiens inquiets des risques selon eux liés à l’explosion démographique dans les pays du tiers-monde, de l’Asie en particulier.

Ainsi, à l’orée de la décennie 1950, le facteur démographique apparaît à la fois, d’une part, comme une justification pour soutenir le développement des pays pauvres qui, processus de décolonisation aidant, deviendront des États indépendants ; et d’autre part, comme une composante majeure de la politique étrangère des États-Unis que leur statut de « super-puissance » de plus en plus évident leur imposait.

En effet, outre l’argument souvent mis en avant (à juste titre) de l’engagement économique (Plan Marshall) et politique (le début de la guerre froide) des autorités gouvernementales, il faut souligner le rôle d’éminents démographes tels que Kingsley Davis (The Population of India and Pakistan (1951)), Hugh Everett Moore (The Population Bomb (1954)), ou encore Ansley J. Coale et Edgar M. Hoover (Population Growth and Economic Development in Low-Income Countries (1958)).

En étudiant l’impact de la croissance démographique (présentée comme excessive et donc néfaste) sur le développement économique, ils sont au fondement des débats ultérieurs sur l’articulation entre population et développement, ainsi que des financements publics des politiques de planification familiale de nombreux bailleurs bilatéraux (États-Unis, Royaume-Uni et Suède notamment) et multilatéraux (Banque mondiale, ONU).

Enfin, la mise à l’agenda de l’explosion démographique du tiers-monde a été rendue possible par la conjonction de certains travaux de la communauté académique et de l’engagement de grandes fondations à but non lucratif des États-Unis, qui a contribué à proposer et à financer des programmes de recherche et de terrain en matière de contrôle et de limitation des naissances, de promotion de la contraception et de la planification familiale.

De fait, la puissance d’imposition d’un tel agenda a bénéficié de facteurs déterminants : capacité financière des fondations privées Rockefeller, Ford, MacArthur rejointes dans les décennies 1990/2000 par, entre autres, la William and Flora Hewlett Foundation, la David and Lucile Packard Foundation ou encore la Bill and Melinda Gates Foundation ; implication d’universités et d’institutions scientifiques privées, parmi lesquelles le Population Reference Bureau (1929), le Population Council (1952), Pathfinder (1957) et plus tard, le Guttmacher Institute (1968) ; et enfin, quelques années plus tard, les financements institutionnels massifs de l’USAID.

Ces financements permettront aussi à des bureaux de consultants américains de devenir des intermédiaires incontournables dans la conception, la mise en œuvre et l’évaluation des programmes de planification familiale : Futures Group, 1965 ; Management Science for Health, 1969 ; Population Services International, 1970 ; Family Health International, 1971 ; John Snow Inc., 1975.

« Le meilleur contraceptif, c’est le développement »

C’est au cours de la conférence mondiale de Bucarest (1974) (Conférence mondiale sur la population des Nations unies) que s’affrontent les tenants de deux approches opposées du développement au regard des enjeux, réels ou supposés, de la démographie.

D’un côté, il y a les pays développés à régimes démocratiques libéraux, inquiets des conséquences économiques, alimentaires, environnementales de l’évolution démographique du monde – une inquiétude qui se trouve au cœur du livre alarmiste de Paul R. Erhlich, The Population Bomb (paru en français sous le titre La Bombe P) et du texte de l’écologue Garrett Hardin sur la tragédie des biens communs, tous deux parus en 1968. De l’autre, il y a les pays ayant récemment accédé à l’indépendance, souvent non alignés et rassemblés sous l’appellation « tiers-monde » : pour la plupart d’entre eux (surtout sur le continent africain), la maîtrise de la croissance de la population n’est pas la priorité.

À travers le slogan « Le meilleur contraceptif, c’est le développement », ce sont la croissance et les progrès économiques qui sont mis en avant comme préalables à la nécessaire articulation des enjeux démographiques et économiques.

Les politiques de population au service du développement

La Conférence internationale sur la population et le développement (Le Caire, 1994) représente le moment de bascule entre des objectifs gouvernementaux strictement démographiques en termes de contrôle de la fécondité (au prix souvent de fortes mesures incitatives voire coercitives, voire d’eugénisme social telles que l’Inde a pu en connaître) et l’affirmation du droit des femmes à contrôler librement leur santé et leur vie reproductive ainsi que celui des ménages à décider de manière informée du nombre d’enfants qu’ils souhaitent avoir (ou non) et de l’espacement entre les naissances de ceux-ci.

Le vice-président des États-Unis Al Gore (deuxième à partir de la gauche) s’adresse aux délégués lors de la Conférence du Caire en 1994.
UN Photo

Ainsi, avec le « consensus du Caire », la problématique du développement n’est plus simplement affaire d’objectifs démographiques quantifiables ; elle acte que l’approche fondée sur les droits doit contribuer aux agendas du développement, successivement les Objectifs du millénaire pour le développement (2000-2015) puis les Objectifs du développement durable (2015-2030).

Le financement et la mise en place de programmes de soutien à la planification familiale, qui avaient été conçus pour limiter le déploiement incontrôlé d’une sorte de prolétariat international pouvant servir de réservoir démographique au bloc communiste, se sont déployés en particulier avec le soutien financier massif des fondations précédemment évoquées.

Ces programmes, sous le nouveau vocable de « politiques de population », se sont progressivement inscrits dans l’agenda du développement international des gouvernements américains successifs. C’est au cours des années 1960-1980 que les États-Unis assument le leadership du financement international des politiques de population en Asie, en Afrique et en Amérique latine avec l’USAID, tout en soutenant fortement la création en 1969 du Fonds des Nations unies pour la population (FNUAP), devenant ainsi un acteur clé du financement des politiques de population, avec une part variant entre 30 % et 40 % des financements mondiaux dans ce domaine.

De fait, à partir des années 1980, l’USAID est le principal canal de financement des enquêtes démographiques et de santé ou EDS (plus connues sous leur acronyme anglais DHS pour Demographic and Health Surveys), qui permettent, de façon régulière, aux pays en développement de bénéficier des données socio-démographiques nécessaires à la définition et à la mise en place de certaines politiques publiques en matière de population, d’éducation, de santé et d’alimentation.

Une inflexion à cet « activisme » démographique au nom des valeurs conservatrices survient en 1984, lorsque le président Ronald Reagan instaure la politique dite du « bâillon mondial » (« Mexico City Policy »), supprimant les financements états-uniens aux organisations de la société civile qui font, supposément ou non, la promotion de l’avortement. Cette politique sera tour à tour supprimée et ré-installée au rythme des présidences démocrates et républicaines jusqu’à aujourd’hui avec, en point d’orgue, la suppression de l’USAID dès les premiers jours de la seconde présidence Trump.

Une nouvelle ère ?

Les dynamiques démographiques actuelles, marquées par la baisse universelle de la fécondité (à l’exception notable de l’Afrique subsaharienne), l’allongement de l’espérance de vie, la remise en cause des droits en matière de fécondité, la politisation des migrations internationales et le vieillissement de la population mondiale dans des proportions jusqu’ici inconnues vont dessiner un tout autre paysage démographique d’ici à 2050.

Enfin, le retour des concurrences exacerbées de puissances, la fin de la mondialisation dite « heureuse », la résurgence du néo-mercantilisme et, surtout, la nécessité désormais incontournable de l’adaptation au changement climatique, sont autant d’enjeux qui, tous ensemble, vont requestionner radicalement le nexus démographie-développement.

The Conversation

Serge Rabier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La démographie, frein au développement ? Retour sur des décennies de débats acharnés – https://theconversation.com/la-demographie-frein-au-developpement-retour-sur-des-decennies-de-debats-acharnes-259393

Au Moyen-Orient, que reste-t-il de l’« esprit des accords d’Alger » ?

Source: The Conversation – France in French (3) – By Myriam Benraad, Senior Lecturer in International Politics, Negotiation & Diplomacy, Sciences Po

Mohammad Reza Pahlavi (à gauche), Houari Boumediène (au centre) et Saddam Hussein en Algérie en 1975.

Lutte pour l’hégémonie régionale, la non-reconnaissance des frontières post-coloniales, la vulnérabilité des minorités ethno-confessionnelles ou contre l’escalade de la violence et les calculs déstabilisateurs des parties extérieures au conflit… Toutes ces problématiques, d’une grande actualité aujourd’hui au Moyen-Orient, se trouvaient déjà au cœur des accords signés à Alger, le 6 mars 1975, par l’Iran du chah et l’Irak de Saddam Hussein. Retour sur un moment d’espoir pour la région, vite douché : cinq ans plus tard, les deux pays entraient dans une guerre longue et terriblement meurtrière.


Le 6 mars 1975, en marge d’un sommet de l’Organisation des pays exportateurs de pétrole (Opep) tenu dans la capitale de l’Algérie, à l’issue d’une médiation du président Houari Boumédiène, l’Irak de Saddam Hussein et l’Iran de Mohammed Reza Pahlavi signent les accords d’Alger. Ces textes doivent permettre aux deux États de résoudre leurs différends, au premier rang desquels la délimitation de leurs frontières terrestres et fluviales (Basse-Mésopotamie, plaines et piémonts centraux, Kurdistan), dans le cadre d’une solution jugée « globale ».

La satisfaction affichée par les parties concernées est toutefois de courte durée : dans les faits, il n’y aura jamais ni reconnaissance par Bagdad et Téhéran de l’inviolabilité des frontières du pays voisin, ni respect de l’obligation de non-ingérence dans leurs affaires intérieures respectives. Au contraire, les accords d’Alger créent une impasse. Cinq ans plus tard, ce sera le déclenchement entre l’Iran et l’Irak d’une guerre de huit longues années (1980-1988) qui fera près d’un demi-million de morts de chaque côté.

Cet échec de la diplomatie, qui n’est pas le premier dans l’histoire du Moyen-Orient, n’est pas sans faire écho à la trajectoire récente, voire immédiate, de la région. Il illustre la persistance des conflits frontaliers dans cette partie inflammable du monde – de la bande de Gaza au Liban, en passant par le Yémen et la Syrie.

Saddam Hussein et le chah d’Iran s’embrassent lors des accords d’Alger en 1975.

L’abandon des Kurdes

En 1975, les États-Unis souhaitaient le renforcement de leur influence et de celle de l’Iran – alors un allié – dans le Golfe pour contrer l’Union soviétique. Ils n’hésitèrent pas à sacrifier les aspirations kurdes dans le Nord irakien, selon un scénario qui fait songer à la manière dont plus tard, dans la foulée de la guerre contre l’État islamique, Washington abandonna à leur sort ses partenaires kurdes en Syrie.

Comme en 1975 pour leur frères irakiens, les Kurdes de Syrie sont en effet, aujourd’hui, prisonniers d’un jeu géopolitique complexe qui engage leur survie, entre pressions grandissantes de la Turquie, abandon de leur vieux rêve d’indépendance et intégration incertaine à l’appareil militaro-sécuritaire érigé par un djihadiste « repenti », Ahmed al-Charaa.

Au milieu des années 1970, après quatorze ans de lutte révolutionnaire, le mouvement de libération kurde s’effondre en Irak. Le chah d’Iran avait établi des liens étroits avec le leader kurde irakien Mustafa Barzani depuis le milieu des années 1960, et fourni à ses hommes un armement considérable. Après l’arrivée au pouvoir à Bagdad des baasistes en 1968, Téhéran avait encore accru son appui militaire et financier, incité en ce sens par Richard Nixon et Israël.

Dès lors, les difficultés de l’Irak pour réprimer le soulèvement kurde, qui menaçait de faire chuter le régime, furent telles que Saddam Hussein – alors vice-président, mais déjà homme fort de Bagdad – s’était résolu à un compromis, soit une cession de territoires à l’Iran. Il va sans dire que cet épisode laissa un goût amer au Kurdistan, abandonné par Téhéran et Washington dès les premières heures ayant suivi la signature des accords d’Alger, puis immédiatement attaqué par l’armée de Saddam Hussein.

Une « nouvelle ère » qui fait long feu

Pis, rien ne fut fondamentalement réglé entre l’Irak et l’Iran dans la mesure où aucun de ces deux États n’avait renoncé à l’intégralité de ses revendications. De ce point de vue, les accords d’Alger étaient sans doute trop généraux dans leur formulation. Du côté irakien, ils suscitèrent ainsi indignation et sentiment d’humiliation, conduisant paradoxalement à une aggravation des tensions alors qu’ils étaient supposés les calmer. Les Irakiens estimaient que leurs droits avaient été bradés au profit de l’Iran, en particulier dans le détroit d’Ormuz alors occupé par la marine impériale du chah, par lequel transitent 20 % du pétrole mondial actuel et que la République islamique a menacé de fermer à la suite de la « guerre des 12 jours » avec Israël.

De fait, n’était-ce pas de façon superficielle que les accords d’Alger postulaient l’existence de « liens traditionnels de bon voisinage et d’amitié » entre ces pays ? Qu’en était-il vraiment ? Ces États pivots du Moyen-Orient partageaient-ils un intérêt justifiant une telle coopération à leur frontière ? Saddam Hussein arriva à la table des pourparlers résolu à écraser ses adversaires, tandis que le chah convoitait une extension de son influence régionale.

Il n’y aura pas de visite du monarque en Irak, comme la prévoyaient initialement ces accords, ou de déplacement de Saddam Hussein en Iran. La « nouvelle ère dans les relations irako-iraniennes en vue de réaliser les intérêts supérieurs de l’avenir de la région » évoquée sur le papier ne se matérialise pas.

S’ils ne modifiaient que partiellement le tracé de la frontière terrestre, les accords d’Alger ne s’embarrassaient pas d’attentions juridiques quant au volet fluvial de la dispute. Ils accordaient aux Iraniens ce qu’ils avaient longtemps recherché dans la zone du Chatt al-’Arab (« rivière des Arabes », baptisée Arvandroud en persan), cet exutoire à la confluence du Tigre et de l’Euphrate qui se jette dans le Golfe persique. Les Irakiens resteront emplis de rancœur face à ce transfert de territoire vers leur voisin ennemi, qu’ils estiment arbitraire.

Comme l’écrira le politologue Hussein Sirriyeh, en l’absence de confiance réciproque,

« c’est la question du Chatt al-’Arab et les problèmes frontaliers qui semblent avoir été les principaux enjeux du conflit irako-iranien avant et après l’effondrement du traité de 1975 ».

En octobre 1979, peu après l’avènement de la République islamique à Téhéran, l’Irak dénonce les accords et somme l’Iran de quitter son sol. Puis, en mai 1980, Saddam Hussein annonce que les accords d’Alger sont nuls et non avenus. En septembre 1980, les forces irakiennes envahissent l’Iran avec l’assentiment de nombreux États du Golfe, qui redoutent une exportation de la révolution islamique au sein de leurs frontières. Cette étape fait muter une guerre des mots en une guerre tangible aux conséquences dévastatrices dans un camp comme dans l’autre.

Nationalisme arabe et impérialisme perse

Les accords d’Alger, qui devaient façonner une coexistence pacifique entre l’Irak et l’Iran, sont donc enterrés. Les répudier revient aussi pour Saddam Hussein à rejeter en bloc la notion d’inviolabilité des frontières du Moyen-Orient post-colonial, comme en attestera par la suite sa décision d’annexer le Koweït en 1990.

Mais ce nationalisme à la fois arabe et irakien ne remonte pas aux seuls accords d’Alger. On en trouve la trace dans le traité d’Erzeroum de 1847, sur lequel l’Irak, province ottomane à cette époque, fonde ses exigences. Rappelons que les chahs de Perse étaient entrés en conflit avec les sultans ottomans après que Sélim Ier, dit « le Terrible », (1470-1520) eut repoussé les frontières de l’empire vers l’est et fait passer l’Irak sous sa tutelle.

Dans l’entre-deux-guerres, les exigences irakiennes resurgissaient dans les débats de la Société des nations, comme en 1934 et 1935 lorsque le général Nouri al-Saïd, ministre des affaires étrangères, avait accusé les Ottomans d’avoir permis à Téhéran d’établir de nombreux ports le long du Chatt al-’Arab, contre un seul pour Bagdad. Cette conception d’un Irak arabe lésé par un Iran perse n’évoluera plus. Elle tend même à s’exacerber.

En 1990, un échange renouvelé de lettres entre Bagdad et Téhéran montre d’ailleurs que le conflit est loin d’être résolu. Puis, à partir de 2003 et de l’intervention militaire des États-Unis en Irak, il devient évident que la non-application des accords d’Alger ouvre la porte aux appétits territoriaux, politiques, mais également pétroliers, d’une République islamique débarrassée de son adversaire existentiel Saddam Hussein.

Indirectement, le legs laissé par les accords d’Alger est par ailleurs exploité par des acteurs non étatiques. On songe par exemple aux références des djihadistes à l’« ennemi safavide », lequel constituerait un danger pour tout le Moyen-Orient, mais aussi à la propagande virulente des milices irakiennes concernant les actions et les guerres de l’Occident. Sur fond de délitement de l’« Axe de la résistance » qu’avaient établi dès 2003 les mollahs, ces milices chiites, véritable « État dans l’État », convoiteraient-elles in fine une reprise en main plus pérenne des provinces du Sud irakien et notamment de la région du Chatt al-’Arab ?

Les effets au long cours de cet « arrangement » en définitive éphémère entre l’Irak et l’Iran en 1975 n’ont, dans tous les cas, pas fini de faire parler d’eux. Que reste-t-il, en effet, de cet « esprit des accords d’Alger » auquel se référait le texte originel, sinon des décennies de sanctions et de conflagrations ? N’est-ce pas plutôt un esprit de vengeance tous azimuts qui a fini par l’emporter ?

The Conversation

Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Au Moyen-Orient, que reste-t-il de l’« esprit des accords d’Alger » ? – https://theconversation.com/au-moyen-orient-que-reste-t-il-de-l-esprit-des-accords-dalger-259520