Parler des bâtards du Moyen Âge en historiens du XXIᵉ siècle : faut-il cacher ce mot que l’on ne saurait voir ?

Source: The Conversation – France (in French) – By Carole Avignon, Maîtresse de conférences en Histoire du Moyen Age, Université d’Angers

Avant la bataille de Hastings (1066), banquet de Guillaume le Conquérant, appelé aussi Guillaume le Bâtard, le fils naturel de Robert le Magnifique, duc de Normandie. Musée de la Tapisserie de Bayeux/Wikimedia Commons

Au Moyen Âge, le terme « bâtard » ne vaut pas toujours stigmatisation. D’ailleurs, il n’acquiert une pleine valeur d’insulte qu’à partir du XIXe siècle. Par le passé, les expériences sociales de filiations illégitimes sont bien plus complexes qu’on ne l’imagine aujourd’hui, ainsi que le met en évidence le programme de recherche « Filiations, identité, altérité médiévales ».


C’est l’histoire d’un Live Twitch programmé en avril 2025 par la très respectable émission « De l’eau dans le gaz », proposée par Terre des sciences, acteur reconnu de l’écosystème de la médiation scientifique dans les Pays de la Loire.

Puisque le pari de notre programme de recherche Filiations, identité, altérité médiévales (Fil_IAM), soutenu de 2020 à 2025 par l’Agence nationale de la recherche (ANR), fut de proposer le développement d’un prototype de jeu vidéo pour partager des résultats de recherche, pourquoi ne pas mobiliser en effet le canal de partage d’expériences des gamers, la chaîne Twitch ?

Il fallut toutefois en passer par quelques précautions spécifiques au média en ligne, avec ses stratégies de modération propres à l’univers des réseaux sociaux. Nous avons ainsi évité de laisser le mot « bâtard » dans les titres, il nous a fallu prévenir les auditeurs de s’abstenir de commenter le « live » en utilisant le mot « bâtard »…

Dès que les interlocuteurs n’étaient pas expressément acculturés aux champs de recherche en sciences humaines et sociales, voilà que parler de « bâtards », même au Moyen Âge, suscitait une prévention spontanée, une inquiétude, assez vite résolue certes, mais bel et bien palpable…


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Cette expérience fait ressortir une forme de malentendu, un hiatus entre les canaux usuels de la connaissance historique (colloques, publications universitaires) et les espaces grand public au sein desquels chercheurs et chercheuses peuvent être conviés à partager leurs recherches.

Cela nous invite à réfléchir aux modes de transmission de la science, à la manière dont peuvent se télescoper les codes et les imaginaires de différentes époques et donc au recul et à la remise en perspective qu’apporte la recherche. Que peut nous apporter au XXIe siècle la connaissance des logiques de filiation au Moyen Âge ?

Une grille de lecture complexe

L’anecdote montre que la connotation injurieuse du vocable a la peau dure ! Sans doute aussi le très grand public n’est-il pas toujours bien au clair avec ce que faire de l’histoire veut dire. Car, ici, il s’agit d’étudier en historienne ou historien un statut social, celui des « bâtards », des « fils et filles illégitimes », des « enfants naturels », une variable d’identité, fruit d’une construction juridique enracinée dans les enjeux normatifs et politiques des IXe– XIIIe siècles (celle de l’illégitimité de la filiation).

Il s’agit de considérer les trajectoires sociales de celles et de ceux qui pâtissent des incapacités juridiques et sociales induites qui se déclinent en exclusion du périmètre de l’« hereditas » (incapacité à hériter de ses ascendants – géniteurs non mariés, et à transmettre en dehors des liens construits dans le mariage légitime), exclusion de l’accès aux ordres sacrés de l’Église, de bien des métiers et corporations attachés à l’honorabilité, héritée, de leurs membres, etc.

Mais ce panel d’incapacités ne réduit pas à lui seul la possible grille de lectures de ce que l’illégitimité de la filiation ou « bastardie » a fait aux sociétés médiévales de l’Europe latine.

Depuis 2012, j’anime en tant que médiéviste des programmes pluridisciplinaires de recherche pour explorer ce que la filiation illégitime fait à la parenté et comment s’exprime la bâtardise. Avec une quarantaine de spécialistes d’histoire, d’histoire du droit, de démographie historique, de littérature, de civilisation, de linguistique, nous avons proposé en 2016 un cadre problématique dans Bâtards et bâtardises dans l’Europe médiévale et moderne, aux Presses universitaires de Rennes. Nous y avons abordé ce que la bâtardise nous révèle des sociétés passées, ses régimes juridiques, la place des bâtards dans les sociétés d’Ancien Régime, entre stigmatisation, discrimination et intégration.

Parmi les contributions, celle de la professeure des sciences du langage à l’Université Savoie Mont-Blanc Dominique Lagorgette permettait de dresser un panorama des sens et des usages de « bastards » ainsi que de l’expression souvent associée « fils à putain » dans un corpus de textes du Moyen Âge, littéraires et non littéraires. Il s’agissait d’étudier la manière dont ce mot pouvait parcourir l’échelle axiologique. La conclusion était que « bastard » n’avait pas acquis sa valeur d’insulte avant le XIXe siècle, « insulte par ricochet, insultant autrui mais blessant le récepteur ».

Entre stigmatisation et épithète d’honneur

Bien sûr, la potentielle connotation sexuelle de l’usage du mot à fin d’invective n’était pas ignorée dans certains contextes d’énonciation. Bien sûr, la « macule » de « géniture », comme pouvait s’exprimer aussi le fait de ne pas être né de parents mariés conformément aux attentes normatives socialement construites du temps, établissait les soubassements d’un discours sur la souillure et la tache.

C’est sur cette tache qu’est construit le titre choisi par la spécialiste de la bâtardise à l’époque moderne, Sylvie Steinberg, quand elle publie en 2016 un ouvrage de référence pour étudier « par-delà droit et théologie […] la dimension vécue des liens entre enfants et parents ».




À lire aussi :
Non, les enfants n’étaient pas négligés au Moyen Âge : la preuve par l’éducation


La « semence maudite » dénoncée dans le Deutéronome (pour ceux qui ne sont pas alors les « bâtards » du Moyen Âge, pas même encore les « fils de prêtres ») est réinterprétée de texte en texte, déployant les champs sémantiques de l’impureté, de la corruption, de l’incomplétude.

De même le « defectus natalium » qui définit une « irrégularité » dans l’accès à l’ordination des prêtres induit-il une « altération » de la qualité de la naissance comme un « vitium » du corps, ou une incomplétude. De même la promotion pastorale de l’honorabilité du mariage canonique a-t-elle pu être portée par le travail sur le langage de la couche (nuptiale) sans souillure, le « thorus immaculatus » de l’Épître aux Hébreux (Hé., 13).

Mais toute mobilisation du terme « bâtard » ne vaut pas stigmatisation au Moyen Âge. Il sait fonctionner comme un titre, presque une épithète d’honneur dans certaines configurations, en particulier dans les groupes nobiliaires. L’ouvrage de Marie-Lise Fieyre sur les bâtards des Bourbon pourra enrichir la recherche sur les bâtards dans les lignages nobiliaires et princiers.

Un besoin d’historicité

Avec le programme Fil_IAM, il s’agit de renouveler les grilles de lecture des bâtardises médiévales, en mobilisant aussi les apports méthodologiques des « disability studies ». Ainsi l’on saisit des scripts d’incapacité, les enjeux des opérations administrativo-politiques de réhabilitation des fils et filles marqués par une altération de la qualité de leur naissance et plus ou moins entravés dans leur insertion sociale selon d’autres variables (groupe social d’appartenance du père, de la mère, genre, place dans la fratrie, etc.).

Le malentendu s’entend : « bâtards » vaut insulte cuisante aujourd’hui, mais les historiennes et historiens peuvent se saisir de cet objet, en tant qu’il pourrait être effectivement la marque d’une insulte, mais, aussi, en tant qu’il pourrait ne pas l’être…

Les malentendus persistants ont eu le mérite de révéler le besoin d’historicité, de dissémination de savoirs historiques, notamment liés aux époques médiévales, auprès de tous les publics.

Le prototype de jeu vidéo Cap ou pas Cap ? Bandes de bâtards a pour objectif d’éclairer quelques-unes des mécaniques sociales des XIIIe– XVe siècles.

« On teste le jeu CAP OU PAS CAP ? BANDE DE BÂT*RDS ! #2 », ÉchoSciences Pays de la Loire, avril 2025.

Le titre a été pensé en clin d’œil aux défis de cours d’école (puisque le jeu est pensé en particulier pour prolonger quelques séances de cours d’histoire de 5e), mais aussi pour ouvrir un espace d’interrogations à partager.

Afin de prolonger l’expérience, le programme a également produit une série de podcasts, pour mieux comprendre ce que c’est que faire de l’histoire aujourd’hui, et de l’histoire médiévale en particulier, autour des bâtardes et bâtards du Moyen Âge.

The Conversation

Carole Avignon a reçu des financements de l’Université d’Angers (soutien de la commission recherche pour son premier programme de recherche F-illégitime) et de l’ANR au titre du programme JCJC (pour le programme Fil_IAM: ANR-19-CE41-0004) et au titre du programme ANR SAPS (UA-Class)

ref. Parler des bâtards du Moyen Âge en historiens du XXIᵉ siècle : faut-il cacher ce mot que l’on ne saurait voir ? – https://theconversation.com/parler-des-batards-du-moyen-age-en-historiens-du-xxi-siecle-faut-il-cacher-ce-mot-que-lon-ne-saurait-voir-257278

Proportionnelle aux élections législatives : qu’en pensent les citoyens ?

Source: The Conversation – France in French (3) – By Navarro Julien, Chargé de recherche en science politique, Institut catholique de Lille (ICL)

Faut-il abandonner le scrutin majoritaire à deux tours pour élire les députés à la proportionnelle ? Cette question fait l’objet de discussions passionnées jusqu’au sein du gouvernement. Au-delà des polémiques sur les avantages et les inconvénients de chaque mode de scrutin, des travaux récents suggèrent qu’un système fondé sur la proportionnelle est perçu comme plus démocratique. Son adoption pourrait contribuer à restaurer la confiance des citoyens dans le jeu politique.

D’après un sondage réalisé dans la foulée des élections législatives anticipées de 2024, 57 % des personnes interrogées jugeaient que la composition de l’Assemblée nationale ne reflétait pas fidèlement l’opinion des Français. Un tel résultat peut surprendre si l’on considère que ces mêmes Français venaient de désigner leurs députés ! S’il reflète sans doute les déceptions cumulées d’électeurs dont le vote n’a pas permis à leur parti d’obtenir une majorité, il traduit aussi plus profondément un malaise démocratique et un fossé croissant entre citoyens et représentants.

Dans ce contexte, le débat sur la réforme du système électoral – c’est-à-dire de la manière dont les suffrages sont transformés en sièges au sein d’une assemblée – prend un relief particulier. Il a été récemment ravivé par la publicité donnée à un « bras de fer » sur ce sujet entre Bruno Retailleau et François Bayrou.

Les consultations menées par le Premier ministre François Bayrou sur l’instauration de la proportionnelle sont sources de tensions au sein du gouvernement : le ministre de l’Intérieur, Bruno Retailleau, a ainsi récemment déclaré qu’il ne porterait « jamais » une telle réforme.

Il faut dire que le Premier ministre est un partisan historique de l’instauration d’un système proportionnel, dans lequel chaque parti se voit attribuer un pourcentage des sièges de députés en fonction de son pourcentage de votes. Son ministre de l’Intérieur, quand à lui – et à l’image du parti Les Républicains dans son ensemble – reste viscéralement attaché au scrutin majoritaire à deux tours. Rappelons que ce mode de scrutin, qui correspond à l’élection dans une circonscription de celui ou celle qui arrive en tête au second tour, est utilisé pour les élections législatives depuis l’instauration de la Ve République en 1958 (à l’exception de celles de 1986).

La proportionnelle transforme l’offre politique

De part et d’autre, les arguments sur les mérites et les effets de chaque système ne manquent pas. La proportionnelle assure par définition une représentation des forces politiques en fonction de leur poids dans l’électorat. Les partis y jouent un rôle primordial car ce sont eux qui se chargent de constituer des listes de candidats, que ce soit à l’échelle départementale, régionale ou nationale.

Les effets du scrutin majoritaire sont tout autres. Si ce mode de scrutin a pour effet théorique d’assurer une large majorité au parti arrivé en tête des élections, cela se fait au prix d’une distorsion de la représentation. Cette dernière est cependant contrebalancée par davantage de redevabilité personnelle des représentants, dans la mesure où chaque député élu localement rend des comptes à l’ensemble des électeurs de sa circonscription.

Avec un système majoritaire tel que nous le connaissons aujourd’hui, les partis politiques sont également encouragés à se coaliser avant les élections pour maximiser leurs chances d’accéder au second tour, ou à former des alliances dans l’entre-deux-tours. C’est ce qu’ont parfaitement compris les partis du Nouveau Front populaire en 2024.

À l’inverse, avec un mode de scrutin proportionnel, chaque formation politique – y compris les plus petites – est susceptible de concourir seule. La formation des gouvernements dépend alors de la constitution de coalitions après les élections. Le dilemme est donc ici le suivant : vaut-il mieux une offre politique restreinte mais lisible dès l’élection, ou plus diversifiée au risque de rendre les alliances postélectorales imprévisibles pour les électeurs ?

Et les citoyens, qu’en pensent-ils ?

Les controverses techniques autour des effets des systèmes électoraux cachent en réalité un enjeu plus fondamental : celui de la légitimité démocratique et de la recherche d’un processus électoral à la fois juste et équitable. Une autre façon d’aborder la question consiste à interroger les préférences des citoyens eux-mêmes. En démocratie, n’est-ce pas à eux de choisir les règles du jeu politique ?

Sur ce point, les sondages récents sont clairs. D’après le sondage Elabe cité plus haut, en 2024, seuls 37 % des Français se disaient attachés au scrutin majoritaire à deux tours, alors qu’une majorité préférerait soit un scrutin proportionnel au niveau national (35 %), soit un système mixte (26 %). En mai 2025, selon une autre enquête de l’institut Odoxa, 75 % des Français se disaient désormais favorables à l’élection des députés à la proportionnelle.

Afin de contourner les limites inhérentes aux enquêtes d’opinion, j’ai mené en 2022 avec des collègues italiens et hongrois une étude expérimentale dans trois pays aux systèmes électoraux et à la qualité démocratique variés : la France, l’Italie et la Hongrie. Notre objectif : comprendre comment le mode de scrutin, entre autres facteurs, influe sur la perception que les citoyens ont de la qualité démocratique des institutions.

Nous avons demandé à des participants de comparer deux systèmes politiques fictifs, construits selon neuf critères variant aléatoirement, et d’indiquer lequel leur semblait le plus démocratique. Les critères pris en compte correspondaient aussi bien aux modalités d’accès au pouvoir – y compris la proportionnalité du système électoral – qu’aux processus de décision et aux performances du gouvernement.

Un système politique reposant sur la proportionnelle est systématiquement jugé plus démocratique

Les enseignements de cette étude sont multiples. Par rapport aux études antérieures qui mettaient l’accent sur les caractéristiques personnelles des répondants, sur leurs préférences partisanes ou sur leur situation économique, notre travail démontre l’importance du cadre institutionnel, en particulier du système électoral, parmi les différents éléments qui conduisent des citoyens – toute chose étant égale par ailleurs – à considérer un régime comme plus démocratique qu’un autre.

Même en tenant compte d’autres facteurs comme le niveau de corruption ou la performance économique, les résultats sont nets : peu importe le contexte, les citoyens jugent plus démocratique un système où les élus sont choisis à la proportionnelle. Le fait qu’un système politique repose sur la proportionnelle augmente sa probabilité d’être considéré comme plus démocratique de 3,6 points de pourcentage par rapport à un système fonctionnant avec un mode de scrutin majoritaire.

Cette préférence pour un système proportionnel, qui confirme des travaux menés en Autriche, Angleterre, Irlande et Suède, correspond en outre, chez les citoyens, à une vision d’ensemble cohérente de ce qui rend un système politique plus démocratique. Les participants ont en effet également jugé plus démocratiques des systèmes où un grand nombre de partis étaient représentés, plutôt que quelques-uns, et où le gouvernement était issu d’une coalition, plutôt que d’un seul parti. Avoir une offre politique large augmente de 3,6 points de pourcentage la probabilité qu’un système politique soit considéré comme plus démocratique par rapport à un système où il n’y a qu’un nombre réduit de partis. Le gain est même de 5 points de pourcentage lorsqu’il y a un gouvernement de coalition plutôt qu’un gouvernement unitaire.

Ce sont par ailleurs les participants les plus attachés à la démocratie – ceux qui estiment qu’elle est préférable à toute autre forme de gouvernement – qui se montrent les plus enclins à désigner comme plus démocratique un système politique basé sur la proportionnelle. La probabilité que ce groupe choisisse un système donné passe ainsi de 45 % à 55 % si celui-ci présente des caractéristiques proportionnelles. À l’inverse, la proportionnelle ne génère aucun écart significatif dans les probabilités qu’un système soit choisi plutôt qu’un autre chez les participants qui soutiennent faiblement la démocratie.

Notons enfin que cette valorisation du pluralisme et de la recherche du compromis ne peut s’expliquer par l’ignorance dans laquelle les participants se trouveraient des effets potentiellement négatifs de la proportionnelle. Les résultats pour la France sont en effet sur ce point parfaitement convergents avec ceux obtenus par notre étude dans les pays qui utilisent déjà la proportionnelle intégrale, comme l’Italie, ou un système mixte, comme la Hongrie. Le fait qu’un système politique s’appuie sur un scrutin proportionnel plutôt que majoritaire augmente de 8 points de pourcentage la probabilité que les participants hongrois le désignent comme plus démocratique ; parmi les participants italiens, la différence entre ces deux scénarios est comme dans l’enquête française de 3,6 points de pourcentage.

Quelles leçons pour le débat français ?

Bien sûr, le système électoral ne constitue qu’un des aspects poussant les citoyens à juger un régime politique plus démocratique qu’un autre. Il serait tout à fait illusoire de penser que l’adoption de la proportionnelle pour les élections législatives pourrait suffire à réconcilier les Français avec la politique et à régler tous les problèmes de la Ve République.

Notre étude a cependant le mérite de montrer que les modalités de désignation des responsables politiques – en particulier le mode de scrutin – sont un élément clé de la satisfaction démocratique, indépendamment de la façon dont le pouvoir est ensuite exercé et des résultats qu’il obtient. Ainsi, même si dans notre étude la croissance économique et le niveau de corruption ont un large effet sur la satisfaction démocratique (la probabilité qu’un pays connaissant une forte croissance et peu de corruption soit considéré comme plus démocratique augmente respectivement de 14,5 et de 3,5 points de pourcentage par rapport à un pays à l’économie stagnante et corrompu), ils n’annulent pas celui, bien tangible, de la proportionnalité du système électoral.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Cela contribue à expliquer pourquoi il est vain d’espérer restaurer la confiance envers les gouvernants par la seule amélioration du bien-être des citoyens. Les gouvernements sortants en ont fait l’amère expérience en 2022 et, plus encore, en 2024 : même si les facteurs expliquant leurs échecs électoraux sont multiples, il est assez clair que leurs tentatives de tirer profit de bons résultats en matière d’emploi ne se sont pas traduits par un surcroît de popularité dans les urnes.

The Conversation

Navarro Julien ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Proportionnelle aux élections législatives : qu’en pensent les citoyens ? – https://theconversation.com/proportionnelle-aux-elections-legislatives-quen-pensent-les-citoyens-258356

L’IA peut-elle prédire la faillite d’un pays ?

Source: The Conversation – France (in French) – By Serge Besanger, Professeur à l’ESCE International Business School, INSEEC U Research Center, ESCE International Business School

Les outils d’intelligence artificielle peuvent-ils aider à mieux anticiper les catastrophes économiques et financières ? En intégrant une information plus fraiche et plus qualitative, il serait possible d’identifier des signaux faibles bien en amont de la crise. Mais gare, le recours à ces outils expose à de nouveaux risques qu’il ne faut pas minorer.


Prédire plus tôt la faillite d’un pays permet de limiter les pertes financières, de mieux préparer les réponses politiques et économiques, et surtout d’atténuer les conséquences sociales. Pour les institutions internationales et les gouvernements, c’est l’occasion de mettre en place des plans d’aide ou de restructuration avant que la crise n’explose. Et pour la population, cela peut éviter des mesures brutales : effondrement bancaire, coupures dans les services publics, hausse soudaine du chômage ou flambée des prix. En somme, anticiper, c’est gagner du temps pour agir avec plus de maîtrise, réduire la casse économique et sociale, et éviter de gérer la crise dans l’urgence et la panique.

En mars 2020, alors que les marchés s’effondraient en pleine pandémie, peu d’institutions avaient anticipé l’ampleur de la crise pour les pays émergents. Pourtant, dans les mois suivants, la Zambie, le Sri Lanka et le Liban se retrouvaient en défaut de paiement. Aujourd’hui, avec l’essor de l’intelligence artificielle (IA), une question se pose : l’IA peut-elle prédire la faillite d’un État mieux que les modèles classiques ?

Les limites des modèles traditionnels

Jusqu’ici, les grands outils d’alerte – comme le Système d’Alerte Précoce (Early Warning System, EWS) du FMI – reposaient sur des agrégats macroéconomiques classiques : dette extérieure, croissance, réserves de change, solde courant… Bien qu’utiles, ces indicateurs sont souvent publiés avec retard, et sensibles à des manipulations comptables.

Les agences de notation (S&P, Moody’s, Fitch…), quant à elles, fondent encore largement leurs évaluations sur des analyses humaines, avec un décalage temporel important.




À lire aussi :
Quand commence un krach boursier ? Et qu’appelle-t-on ainsi ?


Une incapacité à capter les signaux comportementaux

De fait, les modèles traditionnels de prédiction des risques souverains s’appuient principalement sur des indicateurs macroéconomiques agrégés : ratio dette/PIB, niveau des réserves de change, balance courante, inflation, ou encore notation des agences de crédit. Ces approches, souvent inspirées des modèles économétriques ou statistiques classiques (logit, probit, etc.), ont deux limites majeures :

  • des données trop lentes et trop agrégées : Les statistiques macroéconomiques sont publiées avec des délais parfois de plusieurs mois, trimestres, voire années. Elles lissent les signaux faibles et masquent les dynamiques de court terme comme les retraits massifs de capitaux ou les paniques bancaires naissantes.

  • une incapacité à capter les signaux comportementaux et politiques : Les crises souveraines ne sont pas seulement économiques. Elles sont aussi sociales, politiques et parfois géopolitiques. Or, les modèles traditionnels peinent à intégrer des variables non quantitatives comme l’instabilité politique, la polarisation sociale, les mouvements de protestation ou les négociations discrètes avec des bailleurs de fonds internationaux.

Le fait que le Liban ait été noté B jusqu’en 2019 alors qu’il méritait probablement un D illustre plusieurs dysfonctionnements majeurs dans les systèmes traditionnels de notation souveraine. Les agences préfèrent réagir que prévenir, ce qui biaise leurs notations à la hausse, surtout pour les pays fragiles.

Signaux faibles

De nouveaux modèles émergent, fondés sur l’apprentissage automatique (machine learning) et le traitement du langage naturel (NLP). Fitch, Moody’s et S&P testent déjà des IA capables de traiter des milliers de sources d’information en temps réel : flux financiers, déclarations publiques, mais aussi données satellites, transactions Swift anonymisées et commentaires sur Twitter/X.

Ces outils détectent des signaux faibles, invisibles aux yeux des analystes traditionnels : une série de transferts vers des comptes offshore, une chute anormale des volumes bancaires ou encore une brusque montée des hashtags du type #default #bankrun dans une langue locale.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le précédent libanais

En 2019, bien avant l’effondrement officiel du système bancaire libanais, plusieurs signaux faibles étaient visibles. Des rumeurs circulaient sur WhatsApp et Twitter. Les transferts de fonds sortants explosaient. Des vidéos montraient des manifestants réclamant des comptes à la Banque centrale. Pourtant, les agences de notation, de même que le FMI, tardaient à alerter.

Malgré des signes alarmants en amont, le FMI est resté prudent dans son langage et n’a pas émis d’alerte franche avant l’effondrement du système bancaire libanais en 2019–2020. Un modèle IA entraîné sur les comportements non linéaires de retrait d’espèces, les mentions de panique financière dans les réseaux sociaux ou la disparition progressive des produits importés aurait pu détecter un risque élevé de défaut bien avant les agences.

Le cas du Pakistan : une surveillance en temps réel

Le Pakistan, régulièrement au bord du défaut, illustre un autre usage de l’IA. Le laboratoire de l’ESCE a récemment mis au point un outil combinant flux de données bancaires anonymisées (volumes de dépôts par région), données satellites sur les niveaux d’activité portuaire, analyse sémantique de discours politiques (fréquence de termes comme « aide d’urgence », « moratoire », « négociation FMI »), volume de vols directs sortants depuis Jinnah, discussions en penjabi et urdu sur X et Facebook… En croisant ces éléments, le modèle a anticipé dès la fin 2022 une nouvelle demande de plan de sauvetage… annoncée publiquement seulement en avril.

L’asymétrie de pouvoir entre les États et les autres acteurs économiques entretient la récurrence des crises financières systémiques, dont les impacts sur les grands équilibres macroéconomiques sont souvent massifs.

L’IA ajoute une couche dynamique aux modèles de risque pays, avec des alertes basées sur des tendances comportementales et des « bruits faibles ». Là où les systèmes classiques peinent à intégrer la psychologie collective ou les effets de contagion sur les marchés, l’IA excelle.

L’IA, un nouveau risque ?

Attention cependant aux biais algorithmiques. Les données issues des réseaux sociaux sont bruitées, et leur analyse peut être influencée par des campagnes coordonnées.

De plus, les IA ne sont pas neutres : elles peuvent intégrer des représentations inégalitaires du risque pays, notamment en surestimant les tensions dans des pays politiquement ou socialement instables mais solvables.

Arte 2025.

L’IA n’est pas un oracle. Les données non structurées (réseaux sociaux, médias, forums) sont dites “ bruyantes”, dans le sens où une mauvaise qualité d’entraînement et un mauvais filtrage peuvent conduire à des « faux positifs » alarmants. Si le modèle est entraîné sur des crises passées, il risque de surpondérer certains types de signaux et de sous-estimer des configurations inédites, voire d’”halluciner”. Ces hallucinations surviennent souvent en raison de problèmes liés aux données utilisées pour entraîner les modèles de langage, des limitations de l’architecture des modèles et de la manière dont les grands modèles de langage (LLMs) interprètent les données économiques et financières.

Problème de gouvernance

De plus, les sources peuvent elles-mêmes être biaisées par des campagnes de désinformation. Les modèles d’IA les plus performants sont des « boîtes noires », dont la logique interne est difficilement interprétable. Pour un investisseur institutionnel ou un analyste-crédit, cela peut poser un problème de gouvernance : comment justifier une décision d’investissement ou de désinvestissement fondée sur un score algorithmique non explicable ?

Face à l’accélération et la complexité croissante des chocs économiques, sociaux et géopolitiques, des institutions comme le FMI, la Fed ou la BCE, de même que certains fonds d’investissement et banques, expérimentent désormais des intelligences artificielles capables de simuler des scénarios de crise en temps réel. L’objectif n’est plus seulement de prédire la prochaine défaillance, mais de la prévenir en ajustant les politiques économiques de manière beaucoup plus réactive, grâce à des modèles adaptatifs nourris par des flux de données continus et dynamiques.

Mais ces outils ne remplaceront pas de sitôt le regard critique et le discernement humain. Car là où l’IA excelle dans la détection de signaux faibles et le traitement massif de données, elle reste vulnérable à des biais et des hallucinations statistiques si elle est livrée à elle-même. La vraie rupture viendra donc d’un modèle hybride : un dialogue permanent entre l’intuition géopolitique et sociale des analystes humains et la capacité de calcul de l’intelligence artificielle.

Finalement, il ne s’agit plus de choisir entre l’humain et la machine, mais d’orchestrer intelligemment leurs forces respectives. L’enjeu n’est pas seulement de voir venir les crises, mais d’avoir les moyens d’agir avant qu’elles n’éclatent.

The Conversation

Serge Besanger a été directeur intérimaire d’une filiale du FMI.

ref. L’IA peut-elle prédire la faillite d’un pays ? – https://theconversation.com/lia-peut-elle-predire-la-faillite-dun-pays-259745

Attaques contre les installations nucléaires iraniennes : que dit le droit international ?

Source: The Conversation – France in French (3) – By Abdelwahab Biad, Enseignant chercheur en droit public, Université de Rouen Normandie

Les attaques d’Israël et des États-Unis contre des installations nucléaires iraniennes, présentées comme nécessaires pour empêcher le développement d’armes nucléaires par l’Iran, constituent non seulement des actes illicites en droit international (violation de la Charte des Nations unies et du droit des conflits armés), autrement dit une agression, mais pourraient aussi affecter négativement la crédibilité du régime de non-prolifération nucléaire incarné par le Traité sur la non-prolifération des armes nucléaires (TNP) et le système de garanties de l’Agence internationale de l’énergie atomique (AIEA), en place depuis un demi-siècle.


Le 7 juin 1981, l’aviation israélienne bombarde le réacteur irakien Osirak, suscitant une réprobation unanime. Dans sa résolution 487 (1981), le Conseil de sécurité des Nations unies « condamne énergiquement » l’attaque, qu’il qualifie de « violation flagrante de la Charte des Nations unies et des normes de conduite internationale », estimant en outre qu’elle « constitue une grave menace pour tout le système de garanties de l’Agence internationale de l’énergie atomique, sur lequel repose le Traite sur la non-prolifération des armes nucléaires ».

Ce qui est intéressant ici, c’est la demande faite à Israël « de s’abstenir à l’avenir de perpétrer des actes de ce genre ou de menacer de le faire », un appel manifestement ignoré depuis puisque Tel-Aviv a récidivé par des attaques armées contre des installations situées en Syrie (2007) puis en Iran tout récemment, sans même parler des cyberattaques et les assassinats de scientifiques irakiens et iraniens.

Ce qui différencie toutefois le cas de l’Iran 2025 par rapport à celui de l’Irak 1981, c’est d’une part l’ampleur des attaques (12 jours sur une dizaine de sites) et d’autre part, l’implication des États-Unis, qui ont bombardé les sites d’Ispahan, Natanz et Fordo. Cet engagement américain, ainsi que la rivalité israélo-iranienne au Moyen-Orient, exacerbée depuis le début de la guerre à Gaza, ont non seulement paralysé le Conseil de sécurité, mais ont aussi brouillé le débat sur la licéité de telles attaques.

La guerre préventive ou de « légitime défense préventive » invoquée par Israël pour neutraliser une « menace existentielle » est illicite au titre de la Charte des Nations unies qui définit les conditions de l’emploi de la force par un État (soit via la légitime défense en réponse à une attaque, soit par une action collective décidée par le Conseil de sécurité). Ce qui n’englobe pas une légitime défense « préventive » décidée unilatéralement. Ainsi que l’a rappelé la Cour internationale de Justice, « les États se réfèrent au droit de légitime défense dans le cas d’une agression armée déjà survenue et ne se posent pas la question de la licéité d’une réaction à la menace imminente d’une agression armée » (Affaire Nicaragua contre États-Unis, 1986).

Par ailleurs, l’ampleur et la planification rigoureuse des attaques contre les sites nucléaires iraniens suggèrent que Benyamin Nétanyahou nourrissait ce projet de longue date, comme en témoignent ses nombreuses déclarations depuis trente ans, prédisant l’acquisition imminente de la bombe par l’Iran sous deux ans à quelques mois (Knesset en 1992, Congrès américain en 2002, ONU en 2012 et 2024).

L’Iran un « État du seuil » ; quid d’Israël ?

Le programme nucléaire iranien, lancé sous le chah, a connu un développement depuis les années 2000 avec la construction d’installations diverses permettant au pays de se doter de tout le cycle du combustible (réacteurs de recherche, centrales de production d’électricité, usines d’enrichissement et de stockage de matières radioactives) situés principalement à Arak, Téhéran, Bouchehr, Ispahan, Natanz et Fordo.

L’existence de sites non déclarés à l’AIEA fut à l’origine de sanctions imposées par le Conseil de sécurité. Celles-ci furent ensuite suspendues avec l’adoption du Plan d’action global commun, ou accord de Vienne (2015), signé entre l’Iran, les États-Unis (alors présidés par Barack Obama), la Russie, la Chine, la France, le Royaume-Uni et l’Allemagne, qui prévoyait que l’Iran limite ses capacités d’enrichissement de l’uranium en contrepartie de la levée des sanctions.

Mais en 2018, Donald Trump, installé à la Maison Blanche depuis janvier 2018, décide de se retirer unilatéralement de l’accord, sans recourir à la procédure de règlement des différends prévue, et rétablit les sanctions américaines contre Téhéran. L’Iran se considère alors libéré de ses engagements relatifs au niveau d’enrichissement, et fait passer celui-ci à 60 %, bien au-delà de la limite autorisée par l’accord (3,67 %). Bien que ce niveau soit inférieur à celui nécessaire pour une application militaire (90 %), il fait déjà de l’Iran « un État du seuil », c’est-à-dire un État capable d’accéder à la bombe, sous réserve de concevoir et de tester l’engin dans des délais plus ou moins longs. C’est précisément ce risque de voir l’Iran obtenir rapidement l’arme nucléaire qui a été invoqué par Israël et par les États-Unis pour justifier leurs frappes sur les installations iraniennes à partir du 13 juin dernier.

Il reste que le gouvernement iranien a nié toute intention de se doter de la bombe, invoquant la fatwa de l’Ayatollah Khamenei (2005) stipulant que la possession de l’arme nucléaire est contraire aux prescriptions de l’islam. Certes, l’AIEA, autorité de référence en la matière, a souligné à plusieurs reprises dans ses rapports annuels l’existence de zones d’ombre et de dissimulations concernant la nature et l’ampleur du programme iranien d’enrichissement. Elle a toutefois toujours conclu ne disposer d’aucune preuve attestant l’existence d’un programme à visée militaire.

Le principal opposant au programme nucléaire iranien reste Israël, qui n’est pourtant pas en position de donner des leçons en la matière. Doté de l’arme nucléaire depuis les années 1960 en dehors du cadre du TNP, auquel il n’a jamais adhéré, Israël n’a jamais reconnu officiellement son arsenal, invoquant une doctrine d’opacité relevant du « secret de polichinelle » (on estime qu’il disposerait d’une centaine de bombes).

Contrairement à tous ses voisins, il refuse de se soumettre aux inspections de l’AIEA et ignore la résolution 487 du Conseil de sécurité, qui lui « demande de placer d’urgence ses installations nucléaires sous les garanties de l’Agence internationale de l’énergie atomique ». Fait notable : tous les gouvernements israéliens, quel que soit leur bord politique, ont systématiquement évité tout débat public sur le sujet, y compris au niveau national – où il demeure un tabou –, tout en accusant tour à tour leurs voisins (Égypte de Nasser, Irak, Iran) de chercher à se doter de la bombe et de menacer ainsi le monopole nucléaire d’Israël dans la région.

Pourquoi les attaques contre les installations nucléaires sont-elles spécifiquement prohibées ?

L’Iran est un État partie au TNP (depuis son entrée en vigueur, 1970), un instrument clé de non-prolifération par lequel les États non dotés d’armes nucléaires s’engagent à le rester en contrepartie du bénéfice des utilisations pacifiques de l’énergie nucléaire sous le contrôle de l’AIEA pour prévenir tout usage à des fins militaires.

Cet engagement de non-prolifération est le corollaire du « droit inaliénable » à développer la recherche, la production et l’utilisation de l’énergie nucléaire à des fins économiques et scientifiques inscrit dans le traité et aucune disposition du TNP n’interdit spécifiquement l’enrichissement de l’uranium. En cas de manquements aux obligations de non-prolifération, l’Agence peut saisir le Conseil de sécurité.

Ce fut le cas pour la Corée du Nord en 2006, ainsi que pour l’Iran avant la conclusion de l’accord de 2015. Depuis au moins 2019, l’AIEA a toutefois exprimé des préoccupations quant à des activités menées sur des sites non déclarés, susceptibles de contrevenir aux obligations prévues par l’accord de garanties liant l’Iran à l’Agence, notamment en matière de non-détournement de matières nucléaires. Néanmoins, nous l’avons dit, ces irrégularités n’ont pas permis à l’AIEA d’établir avec certitude l’existence ou l’absence d’un programme à finalité militaire – une condition nécessaire pour saisir le Conseil de sécurité.

Les attaques du 12 au 24 juin violent en particulier la résolution 487 du Conseil demandant aux États « de s’abstenir de perpétrer des attaques ou menacer de le faire contre des installations nucléaires » ainsi que les résolutions de l’AIEA allant dans le même sens. Le directeur général de l’AIEA a rappelé « que les installations nucléaires ne devaient jamais être attaquées, quels que soient le contexte ou les circonstances » (13 juin 2025). Cette prescription d’interdiction s’explique par les conséquences graves sur les populations et l’environnement pouvant découler des fuites radioactives dans et au-delà des frontières de l’État attaqué. À ce propos, la réaction des Américains et des Européens fut prompte lors des incidents armés visant les centrales de Tchernobyl et Zaporijjia (2022, 2024 et 2025), le directeur de l’AIEA jugeant ces attaques « irresponsables » (15 avril 2024).

Si aucun traité spécifique n’interdit les attaques contre des installations nucléaires, leur prohibition découle du droit des conflits armés qui interdit de diriger intentionnellement des attaques contre des biens à caractère civil, les installations nucléaires étant considérées comme telles. Le fait de diriger intentionnellement des attaques contre des biens civils (et des personnes civiles) est une violation des lois et coutumes de la guerre, un crime de guerre au sens du Protocole additionnel I aux Conventions de Genève de 1949 et du Statut de la Cour pénale internationale.

Ces attaques armées risquent de renforcer la défiance à l’égard du TNP. En effet, comment les justifier lorsqu’elles visent les installations nucléaires d’un État partie au traité et soumis aux garanties de l’AIEA, même si la transparence de l’Iran a parfois fait défaut ? Téhéran pourrait être tenté de se retirer du TNP et de suspendre les inspections de l’Agence, comme le laissent entendre certaines déclarations de responsables iraniens. Ils suivraient alors la trajectoire empruntée par la Corée du Nord, qui s’est dotée de l’arme nucléaire après avoir rompu avec l’AIEA et quitté le TNP. Une telle évolution risquerait d’encourager d’autres États, comme l’Arabie saoudite ou la Turquie, à envisager une voie similaire, compliquant davantage encore la recherche d’une issue diplomatique pourtant essentielle à la résolution des crises de prolifération.

Enfin, ces attaques risquent d’affaiblir un régime de non-prolifération déjà singulièrement érodé par les critiques croissantes sur l’absence de désarmement nucléaire, une contrepartie actée dans le traité mais qui n’a pas connu l’ombre d’un début d’application, la tendance allant plutôt dans le sens d’une course aux armements…

The Conversation

Abdelwahab Biad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Attaques contre les installations nucléaires iraniennes : que dit le droit international ? – https://theconversation.com/attaques-contre-les-installations-nucleaires-iraniennes-que-dit-le-droit-international-259926

La démographie, frein au développement ? Retour sur des décennies de débats acharnés

Source: The Conversation – France in French (3) – By Serge Rabier, Chargé de recherche Population et Genre, Agence Française de Développement (AFD)

L’aide au développement fournie par les pays occidentaux, que ce soit via leurs structures étatiques ou à travers diverses organisations internationales ou fondations caritatives, a mis en avant, au cours des dernières décennies, des priorités variées. En matière de démographie, on a observé une certaine constance : de nombreuses actions ont été entreprises pour aider – ou inciter – les pays les moins développés à réduire leur natalité.


En février 2025, l’une des premières mesures de la nouvelle administration Trump a été de purement et simplement supprimer l’agence des États-Unis pour le développement international (USAID), avec pour conséquence de couper des financements représentant plus de 40 % de l’aide humanitaire mondiale.

L’arrêt de la contribution majeure des financements américains destinés au développement invite à un retour historique sur le rôle et l’influence des États-Unis en matière de définition et de déploiement de l’aide publique au développement, en particulier à travers le prisme démographique.

L’instrumentalisation de la démographie dans les agendas successifs du développement

Depuis près de soixante ans, l’agenda international du développement a connu des orientations prioritaires variées, le primat ayant été donné successivement à l’industrialisation, à la lutte contre la pauvreté, aux programmes d’ajustement structurel puis au développement humain et aux enjeux de gouvernance et de droits humains (y compris ceux des femmes et des filles) à l’ère de la mondialisation. À partir de 2000 et jusqu’à aujourd’hui, cet agenda a mis l’accent sur d’autres thématiques : lutte contre les inégalités, urgences climatique et environnementale, finance durable.

Toutes ces orientations prioritaires se sont traduites dans des narratifs démographiques spécifiques : démographie et géopolitique ; démographie et droits humains ; démographie et crise climatique, pour n’en prendre que trois.

Dans le premier cas, les tendances de la fécondité dans les pays en développement ont justifié le soutien financier et logistique à des programmes de contrôle des naissances au nom de la défense des valeurs occidentales contre l’expansionnisme de l’URSS. Dans le deuxième cas, l’affirmation de l’approche par les droits a voulu minorer les dynamiques démographiques en privilégiant la reconnaissance des droits des personnes à décider en matière de droits sexuels et reproductifs. Dans le troisième cas, le plus contemporain, l’argument du poids encore croissant de la population mondiale, et donc de sa limitation nécessaire, serait une (voire la) réponse à la crise climatique, oubliant au passage la cause principale que représente le « modèle » du développement extractiviste et consumériste actuel.

La démographie :un levier de l’engagement international des États-Unis pour le développement

Dans le quatrième point de son discours d’investiture du 20 janvier 1949, le président Harry Truman présente la nécessité d’un « programme nouveau et courageux pour rendre accessibles les résultats bénéfiques de nos avancées scientifiques et de notre progrès industriel en vue des progrès et de la croissance dans les nations sous-développées ».

Au-delà de l’aspect généreux de l’engagement présidentiel dans la lutte contre « l’ignorance, la maladie et la misère » ainsi que les nécessités, plus intéressées, de reconstruction économique, en particulier de l’Europe dévastée par la Seconde Guerre mondiale, il faut aussi voir dans ce programme le poids des néomalthusiens inquiets des risques selon eux liés à l’explosion démographique dans les pays du tiers-monde, de l’Asie en particulier.

Ainsi, à l’orée de la décennie 1950, le facteur démographique apparaît à la fois, d’une part, comme une justification pour soutenir le développement des pays pauvres qui, processus de décolonisation aidant, deviendront des États indépendants ; et d’autre part, comme une composante majeure de la politique étrangère des États-Unis que leur statut de « super-puissance » de plus en plus évident leur imposait.

En effet, outre l’argument souvent mis en avant (à juste titre) de l’engagement économique (Plan Marshall) et politique (le début de la guerre froide) des autorités gouvernementales, il faut souligner le rôle d’éminents démographes tels que Kingsley Davis (The Population of India and Pakistan (1951)), Hugh Everett Moore (The Population Bomb (1954)), ou encore Ansley J. Coale et Edgar M. Hoover (Population Growth and Economic Development in Low-Income Countries (1958)).

En étudiant l’impact de la croissance démographique (présentée comme excessive et donc néfaste) sur le développement économique, ils sont au fondement des débats ultérieurs sur l’articulation entre population et développement, ainsi que des financements publics des politiques de planification familiale de nombreux bailleurs bilatéraux (États-Unis, Royaume-Uni et Suède notamment) et multilatéraux (Banque mondiale, ONU).

Enfin, la mise à l’agenda de l’explosion démographique du tiers-monde a été rendue possible par la conjonction de certains travaux de la communauté académique et de l’engagement de grandes fondations à but non lucratif des États-Unis, qui a contribué à proposer et à financer des programmes de recherche et de terrain en matière de contrôle et de limitation des naissances, de promotion de la contraception et de la planification familiale.

De fait, la puissance d’imposition d’un tel agenda a bénéficié de facteurs déterminants : capacité financière des fondations privées Rockefeller, Ford, MacArthur rejointes dans les décennies 1990/2000 par, entre autres, la William and Flora Hewlett Foundation, la David and Lucile Packard Foundation ou encore la Bill and Melinda Gates Foundation ; implication d’universités et d’institutions scientifiques privées, parmi lesquelles le Population Reference Bureau (1929), le Population Council (1952), Pathfinder (1957) et plus tard, le Guttmacher Institute (1968) ; et enfin, quelques années plus tard, les financements institutionnels massifs de l’USAID.

Ces financements permettront aussi à des bureaux de consultants américains de devenir des intermédiaires incontournables dans la conception, la mise en œuvre et l’évaluation des programmes de planification familiale : Futures Group, 1965 ; Management Science for Health, 1969 ; Population Services International, 1970 ; Family Health International, 1971 ; John Snow Inc., 1975.

« Le meilleur contraceptif, c’est le développement »

C’est au cours de la conférence mondiale de Bucarest (1974) (Conférence mondiale sur la population des Nations unies) que s’affrontent les tenants de deux approches opposées du développement au regard des enjeux, réels ou supposés, de la démographie.

D’un côté, il y a les pays développés à régimes démocratiques libéraux, inquiets des conséquences économiques, alimentaires, environnementales de l’évolution démographique du monde – une inquiétude qui se trouve au cœur du livre alarmiste de Paul R. Erhlich, The Population Bomb (paru en français sous le titre La Bombe P) et du texte de l’écologue Garrett Hardin sur la tragédie des biens communs, tous deux parus en 1968. De l’autre, il y a les pays ayant récemment accédé à l’indépendance, souvent non alignés et rassemblés sous l’appellation « tiers-monde » : pour la plupart d’entre eux (surtout sur le continent africain), la maîtrise de la croissance de la population n’est pas la priorité.

À travers le slogan « Le meilleur contraceptif, c’est le développement », ce sont la croissance et les progrès économiques qui sont mis en avant comme préalables à la nécessaire articulation des enjeux démographiques et économiques.

Les politiques de population au service du développement

La Conférence internationale sur la population et le développement (Le Caire, 1994) représente le moment de bascule entre des objectifs gouvernementaux strictement démographiques en termes de contrôle de la fécondité (au prix souvent de fortes mesures incitatives voire coercitives, voire d’eugénisme social telles que l’Inde a pu en connaître) et l’affirmation du droit des femmes à contrôler librement leur santé et leur vie reproductive ainsi que celui des ménages à décider de manière informée du nombre d’enfants qu’ils souhaitent avoir (ou non) et de l’espacement entre les naissances de ceux-ci.

Le vice-président des États-Unis Al Gore (deuxième à partir de la gauche) s’adresse aux délégués lors de la Conférence du Caire en 1994.
UN Photo

Ainsi, avec le « consensus du Caire », la problématique du développement n’est plus simplement affaire d’objectifs démographiques quantifiables ; elle acte que l’approche fondée sur les droits doit contribuer aux agendas du développement, successivement les Objectifs du millénaire pour le développement (2000-2015) puis les Objectifs du développement durable (2015-2030).

Le financement et la mise en place de programmes de soutien à la planification familiale, qui avaient été conçus pour limiter le déploiement incontrôlé d’une sorte de prolétariat international pouvant servir de réservoir démographique au bloc communiste, se sont déployés en particulier avec le soutien financier massif des fondations précédemment évoquées.

Ces programmes, sous le nouveau vocable de « politiques de population », se sont progressivement inscrits dans l’agenda du développement international des gouvernements américains successifs. C’est au cours des années 1960-1980 que les États-Unis assument le leadership du financement international des politiques de population en Asie, en Afrique et en Amérique latine avec l’USAID, tout en soutenant fortement la création en 1969 du Fonds des Nations unies pour la population (FNUAP), devenant ainsi un acteur clé du financement des politiques de population, avec une part variant entre 30 % et 40 % des financements mondiaux dans ce domaine.

De fait, à partir des années 1980, l’USAID est le principal canal de financement des enquêtes démographiques et de santé ou EDS (plus connues sous leur acronyme anglais DHS pour Demographic and Health Surveys), qui permettent, de façon régulière, aux pays en développement de bénéficier des données socio-démographiques nécessaires à la définition et à la mise en place de certaines politiques publiques en matière de population, d’éducation, de santé et d’alimentation.

Une inflexion à cet « activisme » démographique au nom des valeurs conservatrices survient en 1984, lorsque le président Ronald Reagan instaure la politique dite du « bâillon mondial » (« Mexico City Policy »), supprimant les financements états-uniens aux organisations de la société civile qui font, supposément ou non, la promotion de l’avortement. Cette politique sera tour à tour supprimée et ré-installée au rythme des présidences démocrates et républicaines jusqu’à aujourd’hui avec, en point d’orgue, la suppression de l’USAID dès les premiers jours de la seconde présidence Trump.

Une nouvelle ère ?

Les dynamiques démographiques actuelles, marquées par la baisse universelle de la fécondité (à l’exception notable de l’Afrique subsaharienne), l’allongement de l’espérance de vie, la remise en cause des droits en matière de fécondité, la politisation des migrations internationales et le vieillissement de la population mondiale dans des proportions jusqu’ici inconnues vont dessiner un tout autre paysage démographique d’ici à 2050.

Enfin, le retour des concurrences exacerbées de puissances, la fin de la mondialisation dite « heureuse », la résurgence du néo-mercantilisme et, surtout, la nécessité désormais incontournable de l’adaptation au changement climatique, sont autant d’enjeux qui, tous ensemble, vont requestionner radicalement le nexus démographie-développement.

The Conversation

Serge Rabier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La démographie, frein au développement ? Retour sur des décennies de débats acharnés – https://theconversation.com/la-demographie-frein-au-developpement-retour-sur-des-decennies-de-debats-acharnes-259393

Au Moyen-Orient, que reste-t-il de l’« esprit des accords d’Alger » ?

Source: The Conversation – France in French (3) – By Myriam Benraad, Senior Lecturer in International Politics, Negotiation & Diplomacy, Sciences Po

Mohammad Reza Pahlavi (à gauche), Houari Boumediène (au centre) et Saddam Hussein en Algérie en 1975.

Lutte pour l’hégémonie régionale, la non-reconnaissance des frontières post-coloniales, la vulnérabilité des minorités ethno-confessionnelles ou contre l’escalade de la violence et les calculs déstabilisateurs des parties extérieures au conflit… Toutes ces problématiques, d’une grande actualité aujourd’hui au Moyen-Orient, se trouvaient déjà au cœur des accords signés à Alger, le 6 mars 1975, par l’Iran du chah et l’Irak de Saddam Hussein. Retour sur un moment d’espoir pour la région, vite douché : cinq ans plus tard, les deux pays entraient dans une guerre longue et terriblement meurtrière.


Le 6 mars 1975, en marge d’un sommet de l’Organisation des pays exportateurs de pétrole (Opep) tenu dans la capitale de l’Algérie, à l’issue d’une médiation du président Houari Boumédiène, l’Irak de Saddam Hussein et l’Iran de Mohammed Reza Pahlavi signent les accords d’Alger. Ces textes doivent permettre aux deux États de résoudre leurs différends, au premier rang desquels la délimitation de leurs frontières terrestres et fluviales (Basse-Mésopotamie, plaines et piémonts centraux, Kurdistan), dans le cadre d’une solution jugée « globale ».

La satisfaction affichée par les parties concernées est toutefois de courte durée : dans les faits, il n’y aura jamais ni reconnaissance par Bagdad et Téhéran de l’inviolabilité des frontières du pays voisin, ni respect de l’obligation de non-ingérence dans leurs affaires intérieures respectives. Au contraire, les accords d’Alger créent une impasse. Cinq ans plus tard, ce sera le déclenchement entre l’Iran et l’Irak d’une guerre de huit longues années (1980-1988) qui fera près d’un demi-million de morts de chaque côté.

Cet échec de la diplomatie, qui n’est pas le premier dans l’histoire du Moyen-Orient, n’est pas sans faire écho à la trajectoire récente, voire immédiate, de la région. Il illustre la persistance des conflits frontaliers dans cette partie inflammable du monde – de la bande de Gaza au Liban, en passant par le Yémen et la Syrie.

Saddam Hussein et le chah d’Iran s’embrassent lors des accords d’Alger en 1975.

L’abandon des Kurdes

En 1975, les États-Unis souhaitaient le renforcement de leur influence et de celle de l’Iran – alors un allié – dans le Golfe pour contrer l’Union soviétique. Ils n’hésitèrent pas à sacrifier les aspirations kurdes dans le Nord irakien, selon un scénario qui fait songer à la manière dont plus tard, dans la foulée de la guerre contre l’État islamique, Washington abandonna à leur sort ses partenaires kurdes en Syrie.

Comme en 1975 pour leur frères irakiens, les Kurdes de Syrie sont en effet, aujourd’hui, prisonniers d’un jeu géopolitique complexe qui engage leur survie, entre pressions grandissantes de la Turquie, abandon de leur vieux rêve d’indépendance et intégration incertaine à l’appareil militaro-sécuritaire érigé par un djihadiste « repenti », Ahmed al-Charaa.

Au milieu des années 1970, après quatorze ans de lutte révolutionnaire, le mouvement de libération kurde s’effondre en Irak. Le chah d’Iran avait établi des liens étroits avec le leader kurde irakien Mustafa Barzani depuis le milieu des années 1960, et fourni à ses hommes un armement considérable. Après l’arrivée au pouvoir à Bagdad des baasistes en 1968, Téhéran avait encore accru son appui militaire et financier, incité en ce sens par Richard Nixon et Israël.

Dès lors, les difficultés de l’Irak pour réprimer le soulèvement kurde, qui menaçait de faire chuter le régime, furent telles que Saddam Hussein – alors vice-président, mais déjà homme fort de Bagdad – s’était résolu à un compromis, soit une cession de territoires à l’Iran. Il va sans dire que cet épisode laissa un goût amer au Kurdistan, abandonné par Téhéran et Washington dès les premières heures ayant suivi la signature des accords d’Alger, puis immédiatement attaqué par l’armée de Saddam Hussein.

Une « nouvelle ère » qui fait long feu

Pis, rien ne fut fondamentalement réglé entre l’Irak et l’Iran dans la mesure où aucun de ces deux États n’avait renoncé à l’intégralité de ses revendications. De ce point de vue, les accords d’Alger étaient sans doute trop généraux dans leur formulation. Du côté irakien, ils suscitèrent ainsi indignation et sentiment d’humiliation, conduisant paradoxalement à une aggravation des tensions alors qu’ils étaient supposés les calmer. Les Irakiens estimaient que leurs droits avaient été bradés au profit de l’Iran, en particulier dans le détroit d’Ormuz alors occupé par la marine impériale du chah, par lequel transitent 20 % du pétrole mondial actuel et que la République islamique a menacé de fermer à la suite de la « guerre des 12 jours » avec Israël.

De fait, n’était-ce pas de façon superficielle que les accords d’Alger postulaient l’existence de « liens traditionnels de bon voisinage et d’amitié » entre ces pays ? Qu’en était-il vraiment ? Ces États pivots du Moyen-Orient partageaient-ils un intérêt justifiant une telle coopération à leur frontière ? Saddam Hussein arriva à la table des pourparlers résolu à écraser ses adversaires, tandis que le chah convoitait une extension de son influence régionale.

Il n’y aura pas de visite du monarque en Irak, comme la prévoyaient initialement ces accords, ou de déplacement de Saddam Hussein en Iran. La « nouvelle ère dans les relations irako-iraniennes en vue de réaliser les intérêts supérieurs de l’avenir de la région » évoquée sur le papier ne se matérialise pas.

S’ils ne modifiaient que partiellement le tracé de la frontière terrestre, les accords d’Alger ne s’embarrassaient pas d’attentions juridiques quant au volet fluvial de la dispute. Ils accordaient aux Iraniens ce qu’ils avaient longtemps recherché dans la zone du Chatt al-’Arab (« rivière des Arabes », baptisée Arvandroud en persan), cet exutoire à la confluence du Tigre et de l’Euphrate qui se jette dans le Golfe persique. Les Irakiens resteront emplis de rancœur face à ce transfert de territoire vers leur voisin ennemi, qu’ils estiment arbitraire.

Comme l’écrira le politologue Hussein Sirriyeh, en l’absence de confiance réciproque,

« c’est la question du Chatt al-’Arab et les problèmes frontaliers qui semblent avoir été les principaux enjeux du conflit irako-iranien avant et après l’effondrement du traité de 1975 ».

En octobre 1979, peu après l’avènement de la République islamique à Téhéran, l’Irak dénonce les accords et somme l’Iran de quitter son sol. Puis, en mai 1980, Saddam Hussein annonce que les accords d’Alger sont nuls et non avenus. En septembre 1980, les forces irakiennes envahissent l’Iran avec l’assentiment de nombreux États du Golfe, qui redoutent une exportation de la révolution islamique au sein de leurs frontières. Cette étape fait muter une guerre des mots en une guerre tangible aux conséquences dévastatrices dans un camp comme dans l’autre.

Nationalisme arabe et impérialisme perse

Les accords d’Alger, qui devaient façonner une coexistence pacifique entre l’Irak et l’Iran, sont donc enterrés. Les répudier revient aussi pour Saddam Hussein à rejeter en bloc la notion d’inviolabilité des frontières du Moyen-Orient post-colonial, comme en attestera par la suite sa décision d’annexer le Koweït en 1990.

Mais ce nationalisme à la fois arabe et irakien ne remonte pas aux seuls accords d’Alger. On en trouve la trace dans le traité d’Erzeroum de 1847, sur lequel l’Irak, province ottomane à cette époque, fonde ses exigences. Rappelons que les chahs de Perse étaient entrés en conflit avec les sultans ottomans après que Sélim Ier, dit « le Terrible », (1470-1520) eut repoussé les frontières de l’empire vers l’est et fait passer l’Irak sous sa tutelle.

Dans l’entre-deux-guerres, les exigences irakiennes resurgissaient dans les débats de la Société des nations, comme en 1934 et 1935 lorsque le général Nouri al-Saïd, ministre des affaires étrangères, avait accusé les Ottomans d’avoir permis à Téhéran d’établir de nombreux ports le long du Chatt al-’Arab, contre un seul pour Bagdad. Cette conception d’un Irak arabe lésé par un Iran perse n’évoluera plus. Elle tend même à s’exacerber.

En 1990, un échange renouvelé de lettres entre Bagdad et Téhéran montre d’ailleurs que le conflit est loin d’être résolu. Puis, à partir de 2003 et de l’intervention militaire des États-Unis en Irak, il devient évident que la non-application des accords d’Alger ouvre la porte aux appétits territoriaux, politiques, mais également pétroliers, d’une République islamique débarrassée de son adversaire existentiel Saddam Hussein.

Indirectement, le legs laissé par les accords d’Alger est par ailleurs exploité par des acteurs non étatiques. On songe par exemple aux références des djihadistes à l’« ennemi safavide », lequel constituerait un danger pour tout le Moyen-Orient, mais aussi à la propagande virulente des milices irakiennes concernant les actions et les guerres de l’Occident. Sur fond de délitement de l’« Axe de la résistance » qu’avaient établi dès 2003 les mollahs, ces milices chiites, véritable « État dans l’État », convoiteraient-elles in fine une reprise en main plus pérenne des provinces du Sud irakien et notamment de la région du Chatt al-’Arab ?

Les effets au long cours de cet « arrangement » en définitive éphémère entre l’Irak et l’Iran en 1975 n’ont, dans tous les cas, pas fini de faire parler d’eux. Que reste-t-il, en effet, de cet « esprit des accords d’Alger » auquel se référait le texte originel, sinon des décennies de sanctions et de conflagrations ? N’est-ce pas plutôt un esprit de vengeance tous azimuts qui a fini par l’emporter ?

The Conversation

Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Au Moyen-Orient, que reste-t-il de l’« esprit des accords d’Alger » ? – https://theconversation.com/au-moyen-orient-que-reste-t-il-de-l-esprit-des-accords-dalger-259520

Le Palais de la découverte menacé de fermeture : quelle place pour la culture scientifique en France ?

Source: The Conversation – France in French (2) – By Bastien Fayet, Doctorant en géographie – UMR 6590 ESO, Université d’Angers

La mythique cage de Faraday du Palais de la découverte a permis à des milliers d’enfants de comprendre les principes de la conductivité électrique, en toute sécurité N Krief EPPDCSI, CC BY-ND

Fermé depuis quatre ans, le Palais de la découverte pourrait ne jamais rouvrir ses portes. Cette incertitude dépasse la seule question d’un musée parisien : elle met en lumière les fragilités d’un secteur culturel essentiel mais discret, celui de la culture scientifique.


Une question tient actuellement en haleine les professionnels et amateurs de culture scientifique : le Palais de la découverte va-t-il fermer ? Rouvrir ? Être déplacé ?

Le Palais de la découverte est un musée de culture scientifique. Ce champ d’activité propose des actions de médiation pour mettre en relation la société avec les connaissances scientifiques, grâce à des expositions, des ateliers, des conférences ou d’autres activités à destination des enfants et des adultes. Le Palais de la découverte est sous la tutelle principale du ministère de la Culture et celle, secondaire, de l’Enseignement supérieur, tout comme la Cité des Sciences et de l’Industrie, un autre centre de culture scientifique parisien. Ces deux structures ont d’ailleurs été regroupées dans la même entité administrative, Universcience, en 2009, pour faciliter leur gestion. Le Palais de la découverte est hébergé au sein du Grand Palais, dans l’aile ouest.

En rénovation depuis 4 ans, il devait rouvrir en 2026, avec une exposition temporaire et des événements de préouverture le 11 juin 2025. Cette préouverture a été annulée, sur fond de tension avec le ministère de la Culture, mais aussi avec le directeur du Grand Palais qui souhaiterait voir le Palais de la découverte être déplacé.

Depuis, le directeur d’Universcience, Bruno Maquart, a été limogé par le gouvernement, une pétition des salariés pour sauver le Palais de la découverte a été lancée et plusieurs tribunes de soutien ont été publiées, comme par des institutions scientifiques internationales, le Collège de France et le réseau national de la culture scientifique (AMCSTI). Le 19 juin, le ministre de l’Enseignement supérieur et de la recherche Philippe Baptiste c’est dit favorable au maintien du Palais de la découverte au sein du grand palais, mais le ministère de la Culture, tutelle principale du Palais, ne s’est toujours pas positionné, laissant encore planer une incertitude.

Pour des personnes extérieures à ce champ d’activité, les problèmes du Palais de la découverte peuvent sembler quelque peu parisiano-centrés ou peu importants par rapport à d’autres problématiques actuelles. Et pourtant, la question soulevée est plus globale qu’il n’y paraît.

Un symbole de l’évolution de la culture scientifique

Le Palais de la découverte est né dans le cadre de l’exposition internationale de 1937, d’une idée du peintre André Léveillé et du physicien et homme politique Jean Perrin.

Le Palais de la découverte, depuis 1937 temple de la vulgarisation scientifique.

Le Front Populaire au pouvoir porte les premières grandes politiques culturelles et Perrin voit dans le projet proposé par Léveillé un moyen de rendre la science accessible à tous et de favoriser des vocations. Il disait à propos du Palais de la découverte :

« S’il révélait un seul Faraday, notre effort à tous serait payé plus qu’au centuple ».

Perrin parviendra à pérenniser l’institution au-delà de l’exposition. À cette époque, difficile de parler de culture scientifique et de médiation : il s’agit surtout d’un temple de la science, important pour les scientifiques en période d’institutionnalisation de la recherche et de justification de sa légitimité.

Le Palais va par la suite faire évoluer son fonctionnement pour s’adapter aux changements sociaux. Des actions de médiation plus proches des formes contemporaines apparaissent dans les années 1960, en parallèle du développement du champ de la culture scientifique.

Ainsi, le Palais propose dans ces années des expositions itinérantes – traduisant la volonté d’aller au-delà des murs du musée – des conférences et de l’animation culturelle de clubs de jeunes. Dans les années 1970, les démonstrations et les conférences sont progressivement remplacées par des expériences interactives, et dans les années 1980 les activités pédagogiques avec les écoles, en complément des enseignements scolaires jugés souvent insuffisants, sont fréquentes.

En 1977, le président de la République Valéry Giscard d’Estaing valide l’aménagement de la Cité des Sciences et de l’Industrie à la Villette. Là où le Palais se veut plus proche des sciences académiques, la Cité est pensée pour faire le lien entre sciences, techniques et savoir-faire industriels. On parlera ainsi de l’électrostatique et des mathématiques dans le premier, par exemple, quand le deuxième proposera une exposition sur la radio.

Expérience démontrant le principe de l'électrostatisme au Palais de la découverte
Expérience démontrant le principe de l’électrostatisme au Palais de la découverte.
A Robin EPPDCSI, CC BY-ND

La diversité de la culture scientifique en France

Décentrons le regard de Paris. La culture scientifique est loin de se limiter à la capitale et au Palais de la découverte. Avec l’effervescence des revendications sociales des années 1960, des associations émergent pour diffuser la culture scientifique dans l’ensemble du territoire national.

L’institutionnalisation de ces structures de culture scientifique a lieu dans les années 1980, sous la présidence de François Mitterrand, avec la volonté d’encadrer le travail de médiateur scientifique et de créer des Centres de Culture Scientifique, Technique et Industrielle (CCSTI) permettant de diffuser cette culture dans l’ensemble du territoire.

Aujourd’hui, les acteurs de la culture scientifique sont marqués par leur grande diversité, si bien qu’il est difficile de les dénombrer. Entre les lieux de médiation centrés sur les sciences techniques ou de la nature, ceux sur le patrimoine, les associations d’éducation populaire, les musées et muséums ou encore les récents festivals, tiers-lieux culturels et médiateurs indépendants – sans parler des collectifs moins institutionnels et des groupements informels d’amateurs passant sous les radars, la culture scientifique est un champ culturel d’une grande diversité.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Culture scientifique et justice sociale : mission impossible

Cette diversité d’acteurs propose des actions de médiation scientifique dans un contexte fort en enjeux sociaux : crises démocratiques et écologiques, désinformation, inégalités d’accès aux métiers et filières d’études scientifiques…L’accès à l’information scientifique est un enjeu de lutte contre les injustices sociales – défini par la philosophe Iris Marion Young comme ce qui constituent des contraintes institutionnelles au développement personnel (oppression), ou à l’auto-détermination (domination).

Mais plusieurs chercheurs français ou internationaux ont étudié l’incapacité de la culture scientifique à répondre aux enjeux de justice sociale qui lui sont attribués. En partie à cause de projets trop descendants, trop courts ou peu adaptés aux publics les plus marginalisés des institutions culturelles.

Le Palais de la découverte est peut-être là encore un symbole de son temps, car plusieurs critiques peuvent lui être adressées, par exemple concernant la sociologie de ces publics plutôt aisés et diplômés, au détriment des groupes sociaux marginalisés. Certes, on trouve davantage de catégories sociales défavorisées dans les musées de sciences que de ceux d’art, mais les populations précaires et racisées restent minoritaires.

Le Palais essayait tout de même de s’améliorer sur cette question, par exemple à travers les « relais du champ social », visant à faciliter la visite de personnes en précarité économique.

Mais les résultats de ce type d’actions inclusives, que l’on retrouve ailleurs en France, sont globalement mitigés. Développer des projets qui répondent réellement aux besoins des publics marginalisés nécessite du temps et des moyens financiers. Or les pouvoirs publics ne semblent pas financer la culture scientifique à la hauteur de ces besoins, d’après les professionnels du secteur. Ce n’est pas uniquement le cas pour les structures nationales mais aussi pour celles locales. Par exemple, Terre des sciences, CCSTI de la région Pays de la Loire, a récemment annoncé la fermeture de son antenne de la ville moyenne de Roche-sur-Yon, ouverte depuis 15 ans, faute de financement suffisant.

La situation du Palais de la découverte n’est donc pas un problème isolé. En tant qu’institution nationale de la culture scientifique, il est le symbole d’une histoire des relations entre les sciences et la société depuis sa création jusqu’à aujourd’hui. Et à travers la crise actuelle qu’il traverse, la question à poser est peut-être celle de la culture scientifique que nous voulons, partout en France

The Conversation

Bastien Fayet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le Palais de la découverte menacé de fermeture : quelle place pour la culture scientifique en France ? – https://theconversation.com/le-palais-de-la-decouverte-menace-de-fermeture-quelle-place-pour-la-culture-scientifique-en-france-260125

Robots bio-inspirés : quand l’IA a une prise sur le réel

Source: The Conversation – France in French (2) – By Olivia Chevalier, Ingénieur de recherche, Institut Mines-Télécom Business School

L’intelligence artificielle, aussi fascinante qu’elle puisse être, se cantonne largement au monde numérique. En d’autres termes, elle ne modèle pas directement la réalité physique. À moins d’être embarquée dans un objet capable d’agir sur le monde… comme un robot par exemple.

Des roboticiens et chercheurs en sciences sociales nous expliquent comment l’avènement de l’IA permet de changer la manière de penser les robots. En particulier, en leur permettant de mieux percevoir et d’interagir avec leur environnement.


En quelques décennies, les nouvelles méthodes informatiques regroupées sous l’appellation d’« intelligence artificielle » ont révolutionné le traitement automatisé de l’information. Certaines de ces méthodes s’inspirent du fonctionnement du cerveau, en reproduisant son architecture en réseau de neurones et les processus cognitifs humains tels que l’apprentissage.

En robotique, l’utilisation de telles approches laisse espérer des progrès rapides dans l’autonomisation des robots humanoïdes. L’essor de la vision par ordinateur, reposant sur ces nouvelles architectures de réseaux de neurones, a, par exemple, permis d’améliorer considérablement l’interaction des robots avec leur environnement, notamment pour éviter les obstacles et pour manipuler des objets. Néanmoins, une limite demeure aux avancées de l’IA en robotique : les robots humanoïdes peinent encore à atteindre la fluidité et la précision des mouvements humains, notamment en ce qui concerne la bipédie et la préhension.

En effet, la coordination des fonctions motrices nécessaires au mouvement ne se résume pas à une simple planification mécanique, comparable à une succession de coups dans une partie d’échecs. En réalité, le mouvement humain et, plus largement, le mouvement animal reposent sur un enchevêtrement complexe d’opérations et d’interactions impliquant des composantes internes à l’individu, telles que le contrôle moteur (l’équivalent de l’IA chez le robot), le système sensoriel ou la biomécanique, ainsi que des composantes externes, comme les interactions physiques avec l’environnement.

Par exemple, un joggeur amateur est capable de maintenir son regard globalement stable malgré les irrégularités du terrain et la fatigue, en tirant parti de propriétés passives du corps humain (de l’articulation plantaire au mouvement des hanches), de réflexes, ainsi que d’un contrôle moteur fin des muscles oculaires et cervicaux. Nos systèmes musculosquelettiques et nerveux ont ainsi évolué de manière conjointe pour relever les défis posés par des environnements hétérogènes et imprévisibles.

En comparaison, pour accomplir des tâches qui exigent un ajustement continu entre l’action et son objectif, les robots disposent d’un nombre limité d’actionneurs (en d’autres termes, de moteurs) et plus encore de capteurs.

Dans ce contexte de contraintes matérielles, peut-on réellement espérer que la puissance de calcul des IA et leurs capacités d’apprentissage suffisent à atteindre les performances motrices observées chez les humains et chez les animaux ?

L’approche dite « incarnée » prend justement le contrepied de l’approche purement calculatoire en ne dissociant pas les composantes algorithmiques et physiques du robot. Elle vise au contraire à explorer les synergies possibles entre le corps et le contrôle, entre les mécanismes passifs et actifs, pour qu’une « intelligence motrice » ou « incarnée » émerge aussi de ces interactions. Cet article examine ainsi les limites et perspectives des synergies entre l’intelligence artificielle, le robot et son environnement.

Vers des robots autonomes : deux phases dans l’histoire de la robotique

Rodney Brooks, ancien directeur du laboratoire d’IA au Massachusetts Institute of Technology (MIT), y a dirigé pendant des années un programme de recherche intitulé : « The Cog Project : Building a Humanoid Robot ». Brooks distingue deux phases dans l’histoire de la recherche en robotique. Au cours de la première phase (années 1970-1980), la recherche est fondée sur le fait que le programme du robot contient les données du milieu dans lequel il évolue, ou plutôt où il n’évolue pas. Lors de la seconde phase, à partir des années 1990, la recherche se fonde précisément sur l’interaction avec l’environnement.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Ce rapport dynamique à l’environnement permet de voir dans quelle mesure les robots se complexifient et s’auto-organisent, ou s’autonomisent au fil de l’histoire de la recherche en robotique. Comme le dit Brooks, « l’intelligence humanoïde requiert des interactions humanoïdes avec le monde ». Il s’agit par conséquent de développer des programmes capables de se modifier eux-mêmes en fonction des interactions avec l’environnement.

La seconde robotique, ou comment les systèmes d’IA peuvent rendre les robots plus autonomes

Les recherches de la seconde robotique visent donc à développer un « behaviour-based robot » (robot fondé sur un modèle comportemental), dont une des exigences intéresse notre propos : pour que l’action du robot soit proche de la nôtre, on doit entre autres la supposer « non planifiée ».

C’est, précisément, d’abord là que les progrès en IA se révèlent fructueux. Mais dans quelle mesure l’IA peut-elle permettre de réduire le fossé entre les comportements des robots et ceux, extrêmement complexes, qu’on cherche à leur faire reproduire ? Parce que l’IA joue un grand rôle dans la conception des robots, dans la fabrication des matériaux dont ils sont faits et évidemment dans la simulation et la modélisation, elle offre les moyens de cette approche incarnée.

Un des principaux objectifs de cette approche est l’autonomie des robots, c’est-à-dire leur capacité à prendre des décisions et à s’adapter à leur environnement.

Pour mieux comprendre ce point, on peut opposer l’approche physicaliste à celle de l’IA incarnée. Ainsi, l’approche traditionnelle (aussi qualifiée de « physicaliste » ou « objectiviste ») ne donne pas les moyens de savoir si une machine peut sentir ou comprendre, tandis l’approche de l’IA incarnée pose le problème de l’autonomie de la machine en des termes qui permettraient en principe de vérifier cette hypothèse de la possibilité pour une machine de sentir ou comprendre. En effet, en considérant, d’une part, que le tout – le corps – est plus que l’addition des parties (les composants) et, d’autre part, que les phénomènes qui nous intéressent (conscience phénoménale, compréhension, sensation, par exemple) sont le produit émergeant de ce tout immergé dans l’environnement, cette seconde approche offre les moyens de tester cette hypothèse.

La robotique souple (dans sa version bio-inspirée) semble ainsi plus apte que les autres approches robotiques évoquées ci-dessus à se rapprocher de cet objectif de l’approche incarnée. En effet, en s’inspirant des comportements des organismes biologiques et en essayant d’en reproduire certains aspects, elle vise à construire des robots qui s’adaptent au milieu et construisent leur autonomie dans leur interaction avec lui.

Un autre imaginaire du rapport entre humains et machines

Le couplage de la robotique et de l’IA préfigure potentiellement un autre imaginaire du rapport entre humains et machines et de la technique à la nature que celui qui a prévalu à l’ère industrielle.

En effet, dès les années 1940, la théorie cybernétique, avec le concept d’« homéostasie » (autorégulation de l’organisme avec son milieu), aux sources de l’actuelle IA, était déjà une pensée de l’insertion des machines dans le milieu. L’association cybernétique entre capteurs et traitement du signal avait ouvert la voie au rapprochement de l’intelligence machinique (qu’on peut définir brièvement comme intelligence principalement régie par des algorithmes) avec celle des êtres vivants dans le monde naturel. L’autonomie des machines était toutefois toujours pensée sur le modèle de la capacité des organismes vivants à maintenir leurs équilibres internes en résistant aux perturbations de l’environnement, c’est-à-dire en accordant la priorité à tout ce qui permet de réduire ce « désordre » externe.

Les recherches actuelles en robotique semblent infléchir ce rapport en considérant que les perturbations du milieu représentent des potentialités et des ressources propres qui méritent d’être comprises et appréhendées en tant que telles.

Il ne s’agit pas seulement aujourd’hui d’insérer un robot dans un environnement neutre ou déjà connu par lui, mais de faire de cet environnement – imprévisible, souvent inconnu – un composant de son comportement. Ces recherches se concentrent ainsi sur les interactions du corps ou du système mécatronique avec le monde physique – c’est-à-dire avec les forces de contact et les processus de traitement de l’information mis en œuvre dans l’expérience sensible par les êtres vivants.

Soft robotique, robotique molle, bio-inspirée, intelligence incarnée sont des déclinaisons possibles de ces nouvelles approches et révèlent l’importance du rôle joué par l’IA dans l’ouverture de la robotique à d’autres problématiques que celles qui étaient traditionnellement les siennes, en apportant des éclairages ou en levant certains verrous scientifiques.

La nouvelle robotique ne fait donc pas que déboucher sur un renouveau de l’intérêt pour le vivant. Les conceptions de la machine dont elle est porteuse – une machine immergée dans son environnement, qui en dépend profondément – résonnent fortement avec les nouvelles approches du vivant en biologie qui définissent celui-ci principalement à partir de ses interactions. Le nouveau dialogue qui s’instaure entre robotique et biologie contribue ainsi à repenser les frontières qui séparent le vivant du non-vivant.

Dès lors, l’approche incarnée de la robotique pourrait-elle permettre de combler l’écart entre machine et vivant ?


Le projet ANR-19-CE33-0004 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Olivia Chevalier a reçu des financements du PEPR O2R

Gérard Dubey a reçu des financements du PEPR O2R.

Johann Hérault a reçu des financements de ANR (Project-ANR-19-CE33-0004) , du PEPR O2R et de la région Pays de La Loire.

ref. Robots bio-inspirés : quand l’IA a une prise sur le réel – https://theconversation.com/robots-bio-inspires-quand-lia-a-une-prise-sur-le-reel-257280

Lego : plus que des jouets, un marché de collection

Source: The Conversation – France (in French) – By David Moroz, Associate professor, EM Normandie

Les Lego ne sont pas uniquement des jouets : ils sont devenus de véritables objets de collection, portés par un marché de seconde main particulièrement dynamique. Qu’est-ce que la marque Lego nous enseigne sur les marchés de collection et sur toutes ses homologues qui cherchent à susciter chez leurs clients le désir de collectionner ?


Depuis quelques années, le groupe Lego ne cesse d’enregistrer des records de vente. En 2024, il enregistre un chiffre d’affaires de près de 10 milliards d’euros, porté par 1 069 magasins dans le monde et 28 000 salariés. Du canard en bois, en 1935, au Millenium Falcon de Star Wars™ en passant par la réplique du Titanic, le groupe n’a cessé de multiplier les thèmes de construction, couvrant un public croissant d’acheteurs.

Si certains thèmes ciblent davantage les enfants, d’autres visent spécifiquement un public adulte, intéressé par le fait de posséder et d’exposer un objet de collection. La marque offre de quoi alimenter l’appétit de chacune de ses communautés de collectionneurs, quel que soit le thème de la collection : Star Wars™, Harry Potter™, Minecraft® ou Super Mario™. En ce sens, elle fait partie des marques, comme Hermès avec ses sacs à main, ayant pour objectif de susciter chez leurs clients l’envie de s’engager dans une collection.

Clients-collectionneurs

Lorsqu’une telle marque arrête la vente d’un produit, les clients-collectionneurs peuvent espérer compléter leur collection sur le marché de l’occasion sur des plateformes de vente en ligne. Pour les passionnés de Lego, la plus connue est BrickLink, acquise par le groupe en 2019.

C’est précisément sur les Lego revendus sur cette plateforme que nous avons conduit une étude. Notre objectif était de comprendre les dynamiques de prix des Lego sur le marché de seconde main ; plus particulièrement déterminer, à la différence des analyses précédemment menées, si l’arrêt de production d’un thème, ou son arrêt anticipé, pouvait avoir un impact sur les prix.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Sur le marché de l’art, à la suite du décès d’un artiste, différents travaux ont relevé ce que l’on nomme, bien sombrement, un « effet de mort ». Le prix d’une œuvre a tendance à augmenter suite au décès de son créateur, voire avec la diminution de son espérance de vie. Ces toutes dernières étapes de la vie d’un artiste fixent de facto une limite à la quantité de ses œuvres en circulation sur le marché et impactent donc la rareté de ces dernières.

Figurine et diversité de pièces

Pour mener cette étude, nous avons collecté les données de 7 585 sets différents, relevant de 107 thèmes différents et représentant 227 920 lots disponibles à la vente. Ces données ont été collectées en 2019, peu de temps avant l’acquisition de BrickLink par le groupe Lego. Par conséquent, ce marché était encore vierge de l’influence d’éventuelles stratégies de l’entreprise ou d’effets d’annonce liés à cette acquisition.

Pour chaque set, nous avons pris en compte plusieurs variables : nombre total de pièces d’un set, thème lego d’appartenance – Star Wars™, Technic, City –, diversité des pièces, présence et nombre de figurines, nombre de lots en vente, nombre d’acheteurs potentiels ayant ajouté le set à leur liste de souhaits. Nous avons examiné les performances historiques des thèmes – croissance annuelle moyenne des prix –, leur statut de production – en vente ou non sur le site du groupe Lego au moment de la collecte des données –, et leur ancienneté – date de la première année de mise en vente par le groupe Lego.

Lego star wars
Depuis son lancement en 1999, la gamme Lego Star Wars™ s’est imposée comme un incontournable pour les collectionneurs.
Shutterstock

Nos analyses confirment que le prix d’un set sur le marché de l’occasion est fonction croissante de son nombre de pièces. Elles n’étonneront nullement l’amateur de Lego, appréciant les plaisirs du montage d’un set regorgeant de pièces et avec un temps d’assemblage relativement long. Nous avons également observé, ce que n’évaluaient pas les précédentes analyses, que la diversité des pièces d’un set avait un impact positif sur son prix. Un set de 1 000 pièces peut très bien contenir 50 types de briques différents comme 150. Dans ce dernier cas, il sera jugé plus riche, plus complexe, plus gratifiant à assembler ; ce qui se traduit par un prix plus élevé.

Un type spécifique de pièces a un impact sur le prix d’un set : les figurines. Celles-ci n’ont aucun lien avec la difficulté d’assemblage d’un set et pourtant, leur simple présence suffit à faire grimper le prix d’un set de plus de 40 % en moyenne.

Sets et thèmes rares

Sans surprise et comme sur tout marché de collection, les sets les plus rares – dans le cas de notre étude, ceux les plus fréquemment ajoutés à une liste de souhaits parmi ceux les moins disponibles sur la plateforme – sont aussi les plus chers. Une augmentation de 1 % du ratio demande/offre faisant croître le prix de 0,63 % en moyenne.

Ce qui nous intéressait le plus était l’effet du thème d’appartenance du set, en termes d’ancienneté et de durée de production. Les précédentes études montrent des prix significativement plus élevés pour des sets relevant de certains thèmes, notamment tels que Star Wars™. Nous avons relevé un impact positif du nombre de sets rattachés à un thème. Autrement dit, plus un thème regroupe des sets différents, plus les sets relevant de ce thème sont valorisés.

Lego Angry Birds est une gamme du jeu de construction Lego créée en mars 2016 et stoppée la même année au bout de six sets.
Shutterstock

Il existe sur ce marché un effet de mort avec les thèmes dont la production a été arrêtée par le groupe Lego, à l’image du thème The Angry Birds Movie™, arrêté en 2016. En moyenne, les sets relevant de tels thèmes affichent des prix plus élevés de près de 16 % en comparaison de sets appartenant à des thèmes encore en production. Plus le thème arrêté est ancien, plus l’effet de mort est marqué.

Marchés secondaires de collectionneurs

Au-delà de possibilités de stratégies de spéculation, l’analyse du marché des Lego de seconde main offre un éclairage utile aux entreprises qui cherchent à fidéliser une clientèle au travers d’un ou plusieurs projets de collection.

En comprenant mieux les dynamiques de prix des marchés secondaires, ces entreprises peuvent affiner leurs stratégies de lancement ou d’interruption de certaines gammes de produits. De facto maximiser la rentabilité de ces dernières dans le temps. Au-delà des aspects purement mercantiles, il ne faut pas oublier l’intérêt des plateformes de vente en ligne pour le recyclage des produits et donc… un moindre gaspillage de ressources.

Une meilleure compréhension des déterminants de la valeur sur ces plateformes permet aux entreprises d’identifier les caractéristiques les plus valorisées par les consommateurs, de diminuer le risque d’invendus et d’avoir une meilleure empreinte environnementale.

Pour le groupe Lego, il est fort possible que ce dernier point soit une préoccupation majeure. Malgré des efforts substantiels en R&D, l’enseigne n’est pas encore parvenue à arrêter l’usage de certains composants plastiques pour la production de ses fameuses briques. Un bon fonctionnement de ses marchés de seconde main, couplé à la réputation de durabilité de ses briques, est probablement pour le groupe une manière de compenser cet usage du plastique.

The Conversation

David Moroz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Lego : plus que des jouets, un marché de collection – https://theconversation.com/lego-plus-que-des-jouets-un-marche-de-collection-259288

Mpox en Sierra Leone : les raisons de la récente recrudescence et les risques pour l’Afrique de l’Ouest

Source: The Conversation – in French – By Jia B. Kangbai, Senior lecturer, Njala University

À la date du 17 juin 2025, on recensait plus de 4000 cas confirmés de mpox et 25 décès en Sierra Leone, ce qui augmente le risque que le virus se propage aux pays voisins et déclenche une épidémie plus importante dans toute cette région densément peuplée de l’Afrique de l’Ouest. En Sierra Leone, la maladie se propager d’une personne à l’autre, principalement chez les jeunes hommes et femmes.

The Conversation Africa a interrogé Jia Kangbai, épidémiologiste spécialiste des maladies infectieuses à l’université Njala de Freetown sur les causes de cette recrudescence et comment elle peut être enrayée.

Qu’est-ce que le mpox et comment se transmet-il ?

Le mpox (anciennement appelé « variole du singe ») est une maladie causée par le virus de la variole du singe. Il appartient à la famille des Orthopoxvirus, qui comprend également la variole et la varicelle. Au départ, le mode de transmission reconnu était le contact physique rapproché avec une personne infectée. Avec l’émergence de divers sous-clades (clades 1a et 1b, clades 2a et 2b) du MPXV, la transmission sexuelle du mpox a été documentée dans plusieurs études.

Qu’est-ce qui se cache derrière la récente épidémie en Sierra Leone ?

Le premier cas identifié de l’épidémie actuelle de mpox en Sierra Leone est un jeune homme atteint d’une immunodéficience documentée qui s’était rendu dans la ville de Lungi, dans le nord du pays, en décembre 2024 pour passer les vacances de Noël avec sa femme. Deux jours après son arrivée à Lungi, il a eu des rapports sexuels non protégés avec une employée de l’hôtel, puis a développé une forte fièvre, des douleurs musculaires et corporelles, ainsi qu’un gonflement des ganglions lymphatiques. Il a ensuite été transféré vers la capitale, Freetown, où il a été diagnostiqué positif au mpox. Il a ensuite été admis à l’hôpital Connaught de Freetown, où il a été soigné avec succès.

L’aéroport international de Sierra Leone est situé à Lungi. La ville est également très fréquentée par les touristes internationaux. Il est possible que l’épidémie actuelle ait été importée d’un autre pays de l’Afrique de l’Ouest. Il est également possible qu’une transmission cryptique du MPXV soit en cours en Sierra Leone. La transmission cryptique est une situation dans laquelle le virus circule à un niveau si faible au sein d’une population qu’il est difficile d’identifier la source lorsqu’une épidémie se déclare.

Dans le cadre de notre étude actuelle en Sierra Leone, nous effectuons le séquençage génomique d’échantillons prélevés sur ce cas index afin de déterminer la source de l’épidémie de mpox.

Il s’agit d’une méthode de laboratoire utilisée pour déterminer la composition génétique complète d’un organisme ou d’un type de cellule spécifique.

Cette méthode peut être utilisée pour détecter des changements dans certaines zones du génome. Ces changements peuvent aider les scientifiques à comprendre comment certaines maladies se développent. Les résultats du séquençage génomique peuvent également être utilisés pour diagnostiquer et traiter des maladies.




Read more:
Contre le virus mpox en Afrique : rendre plus sûrs les marchés de viande sauvage, cause originelle de l’épidémie


Les Sierra-Léonais doivent-ils s’inquiéter du mpox ?

Les Sierra-Léonais sont visiblement inquiets face à l’augmentation du nombre de cas et de décès liés au mpox enregistrés au cours des quatre mois de surveillance active de la maladie. Ce qui inquiète davantage la plupart des Sierra-Léonais aujourd’hui, c’est le nombre croissant de travailleurs du sexe et de personnes ayant des partenaires sexuels multiples qui déclarent eux-mêmes avoir contracté le mpox.

La plupart des cas de mpox en Sierra Leone appartiennent à ces groupes. Cela signifie que pour endiguer efficacement l’épidémie de mpox en Sierra Leone, une attention particulière doit être accordée à ces groupes.

Quelles mesures d’urgence doivent être mises en place pour endiguer la propagation ?

Les mesures d’urgence mises en place par l’Agence nationale de santé publique comprennent :

  • la vaccination ciblée des populations à risque

  • la surveillance active

  • la recherche des contacts

  • la mise en quarantaine, et

  • une communication efficace sur les risques, notamment le partage d’informations sanitaires essentielles afin de permettre aux individus de prendre des décisions éclairées et positives concernant leur sécurité et leur santé personnelle.

L’efficacité de ces mesures est remise en question en raison du manque de ressources. Au 17 juin, plus de 4 000 cas confirmés et 25 décès ont été recensés, la plupart des patients étant en voie de guérison. Mais le nombre de sites de dépistage du mpox est très limité dans tout le pays. Mais en situation d’épidémie aussi évolutive, la rapidité est essentielle. Le faible nombre de laboratoires rallonge les délais entre le prélèvement des échantillons et l’obtention des résultats. Cela pose un gros problème dans un pays de plus de 8 millions d’habitants, dont beaucoup vivent dans des zones éloignées.

Quel est le risque d’une propagation régionale ?

La sous-région de l’Afrique de l’Ouest devrait s’inquiéter d’une propagation. Les pays de l’Afrique de l’Ouest partagent des cultures très proches, ce qui indique qu’ils ont la même origine. En outre, il existe un commerce et un trafic importants d’êtres humains et de marchandises dans toute la sous-région, ce qui facilite l’exportation des cas de mpox.

Le Liberia, la Guinée et la Sierra Leone sont tellement interconnectés dans divers domaines que tout ce qui touche un pays touche les autres. Nous l’avons vu, en décembre 2013, lorsque l’épidémie d’Ebola a commencé en Guinée, elle s’est rapidement propagée à la Sierra Leone, au Liberia et à d’autres pays non africains.

Début juin 2025, le Libéria avait enregistré 69 cas de mpox, tandis qu’aucun cas n’avait été signalé en Guinée. Le Ghana en avait signalé 98 au 16 juin.




Read more:
Mpox : les pays africains ont déjà vaincu des épidémies : voici ce qu’il faut faire


Parmi les stratégies que les pays voisins peuvent mettre en œuvre, citons le renforcement de la surveillance transfrontalière à leurs différentes frontières et la réalisation de tests pour les cas suspects et probables de mpox. En outre, ils peuvent se lancer dans une surveillance active des cas et la recherche des contacts au sein de leur pays.

The Conversation

Jia B. Kangbai does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Mpox en Sierra Leone : les raisons de la récente recrudescence et les risques pour l’Afrique de l’Ouest – https://theconversation.com/mpox-en-sierra-leone-les-raisons-de-la-recente-recrudescence-et-les-risques-pour-lafrique-de-louest-259828