Pourquoi tant de labs d’innovation peinent-ils à trouver leur cap ?

Source: The Conversation – in French – By Ferney Osorio, Maître de Conférences en Génie Industriel et Management de l’Innovation, Université de Lorraine

Parés de bien des vertus, les fab labs, les living labs, les tiers-lieux et les labs d’innovation en général n’ont pas toujours été à la hauteur des promesses qui leur étaient associées. Dans ce domaine, le plus difficile est souvent de maintenir le projet de façon durable. Qu’est-ce qui fait la différence entre un lab qui réussit à créer à moyen terme et un autre qui échoue ?


Ils fleurissent partout : dans les universités, administrations, hôpitaux et entreprises. Équipés d’imprimantes 3D, couverts de post-its multicolores et porteurs d’une promesse séduisante : réinventer le monde grâce à l’innovation collaborative. Qu’on les appelle fab labs, makerspaces, tiers-lieux productifs ou encore living labs, tous partagent ce même élan d’ouverture. On recense aujourd’hui près de 1 900 fab labs dans le monde (fablabs.io), plus de 480 living labs labellisés dans 45 pays (ENoLL) et, rien qu’en France, plus de 4 100 tiers-lieux répartis sur tout le territoire (selon France Tiers-Lieux).

Pourtant, derrière l’enthousiasme initial, beaucoup de ces espaces finissent par tourner en rond. L’énergie s’essouffle, les résultats tardent à venir, le sens même du projet se brouille. Nos recherches récentes montrent que la raison de cet essoufflement réside souvent dans une dimension essentielle mais négligée : l’intention stratégique partagée.




À lire aussi :
Les tiers lieux : la fin d’une mode ou le début d’une nouvelle ère  ?


Comment garder le cap

Qu’entend-on exactement par intention stratégique ? C’est la capacité d’un collectif à définir clairement et durablement son objectif central : ce que le lab cherche réellement à transformer, pour qui, et avant tout pourquoi. Cette intention est loin d’être un slogan figé sur un mur. Elle est plutôt comme une boussole, qui guide les équipes dans leurs choix quotidiens, leurs ajustements face aux imprévus, et leur permet de rester fidèles à leur mission initiale.

Bien sûr, toutes les organisations ont besoin d’une telle boussole. Mais pour les labs d’innovation, l’enjeu est encore plus vital. Ces espaces hybrides – à la croisée du public et du privé, du social et du technologique – naissent souvent comme des expérimentations fragiles. Ils évoluent dans des environnements instables, avec des financements incertains et des parties prenantes aux intérêts parfois divergents. Sans intention stratégique claire et partagée, ils risquent de se transformer très vite en coquilles vides, malgré tout le battage autour de l’innovation.

ENSGSI 2023.

Or, nous avons observé dans plusieurs cas, en France mais aussi à l’international, que cette intention stratégique, si cruciale, est rarement définie clairement et encore moins revisitée régulièrement. Ces constats proviennent à la fois de ma recherche doctorale et de l’accompagnement d’initiatives de labs dans le cadre de projets européens et latino-américains (par exemple, Climate Labs ou, plus récemment, FabLabs4Innovation). Le résultat est souvent le même : un flou qui finit par provoquer frustration et perte de repères chez les membres du lab.

Intégrer ou protéger

Nos recherches ont permis de dégager deux grandes approches pour construire et maintenir cette intention stratégique dans un lab d’innovation : la posture « amalgam » – intégrer des intentions multiples dans un cadre commun – et la posture « shield » – protéger l’intention initiale contre les pressions extérieures. Ces termes, issus de nos travaux récents, permettent d’illustrer deux manières contrastées de maintenir une intention stratégique partagée.

  • La posture « amalgam » consiste à intégrer plusieurs ambitions dans un projet collectif cohérent. Un excellent exemple est celui du fabLab Héphaïstos, à l’hôpital du Kremlin-Bicêtre (Val-de-Marne). Ce lab hospitalier a réussi à harmoniser trois grandes intentions : améliorer le soin aux patients, faciliter le travail des soignants et optimiser les processus internes. La clé de ce succès ? Une démarche collective régulière pour clarifier, revisiter et articuler ces intentions multiples dans un cadre commun.

  • La posture « shield », elle, consiste à protéger activement l’intention stratégique initiale contre les pressions extérieures. C’est l’approche adoptée par le Lab101 (ancien ViveLab Bogotá), en Colombie, qui, malgré des contextes politiques fluctuants, a réussi à garder un objectif clair : renforcer les capacités numériques et d’innovation des citoyens. Cette « protection de son éthos » leur a permis de maintenir le sens de leurs actions sur le long terme malgré les turbulences. Mais ces deux postures ne suffisent pas toujours. Le vrai défi est de savoir quand et comment les activer.

Trouver des points communs

Fondamentalement, l’intention stratégique prend ses racines dans des motivations individuelles et personnelles. Chaque individu porte ses propres attentes et visions. Mais dès lors qu’on décide de travailler ensemble, il est essentiel de trouver des points communs qui donnent naissance à une intention collective et organisationnelle. Comment savoir quand intégrer différentes visions, quand accepter une certaine fragmentation, ou quand préserver jalousement l’intention initiale ? Pour répondre à ces questions, nous avons conçu un cadre dynamique, permettant aux équipes d’ajuster et de faire évoluer leur intention stratégique au quotidien. Ce cadre repose sur quatre modes clés :

  • « Purpose » (Créer du sens) : Au démarrage du lab, il est crucial d’expliciter clairement et collectivement ce qu’on veut transformer, pour qui et pourquoi. Cette étape permet à tous les acteurs impliqués de comprendre exactement pourquoi le lab existe, et comment chacun peut y contribuer.

  • « Switching perspective » (Changer de perspective) : Quand le contexte change brusquement (changements politiques, nouveaux directeurs, nouvelles priorités), les équipes doivent être capables de réajuster leur angle d’approche sans perdre leur identité. Le cas du SDU-MCI Innovation Lab au Danemark illustre bien cette tension. Ce lab universitaire a connu des visions successives portées par différents responsables, chacune porteuse de nouvelles orientations. La difficulté résidait alors dans la capacité individuelle à maintenir une intention stratégique partagée, face à cette succession de perspectives parfois difficiles à intégrer. Résultat : confusion et perte d’énergie collective malgré des ressources considérables.

Forte capacité d’adaptation

  • « Emphasizing context » (Mettre l’accent sur le contexte) : Les labs doivent régulièrement adapter leurs priorités en fonction des réalités locales, des besoins des usagers ou des signaux faibles du terrain. Le Lab101 à Bogotá est exemplaire sur ce point. Grâce à une forte capacité d’adaptation à son contexte local, ce lab a pu amplifier le périmètre de ses actions et répondre de manière efficace aux évolutions du territoire et aux attentes des citoyens, tout en gardant son intention initiale.

  • « Building consistency » (Construire la cohérence) : Il s’agit ici de créer des ponts réguliers entre les actions concrètes menées au quotidien et l’intention stratégique définie au départ. Le Lorraine Fab Living Lab (LF2L) illustre parfaitement ce mode. Grâce à des discussions régulières au sein de son équipe, le LF2L a réussi à préserver la cohérence entre ses projets quotidiens et sa vision stratégique initiale, même face aux changements des priorités de son écosystème.

Matrice des intentions stratégiques (Osorio et coll., 2025).
CC BY-NC-SA

Cette matrice simple (créer du sens, changer de perspective, insister sur le contexte, construire la cohérence) s’est révélée particulièrement utile pour permettre aux équipes d’innovation de ne pas se perdre en chemin, surtout dans des contextes changeants ou sous pression.

Des espaces vides de sens ?

Au-delà des résultats concrets immédiats, ce qui fait véritablement la force d’un lab d’innovation, c’est sa capacité à expliciter et à maintenir une intention partagée, claire et régulièrement actualisée. Sans cette intention stratégique, les labs risquent de devenir des espaces séduisants mais vides de sens, incapables d’engendrer une réelle transformation.

Finalement, le défi posé par ces labs d’innovation est avant tout un défi humain : il s’agit de construire et de maintenir une direction collective dans des environnements souvent complexes et mouvants. Ainsi, peut-être devrions-nous apprendre à mesurer l’innovation non seulement à travers les prototypes ou les succès immédiats, mais avant tout par la clarté et la solidité des intentions partagées par ceux qui l’incarnent au quotidien.

Redonner du sens à l’innovation collective est sans doute le meilleur moyen d’éviter que ces labs prometteurs ne perdent leur cap. Car une chose est sûre : pour innover profondément, il ne suffit pas d’avoir des ressources matérielles. Il faut savoir où l’on va, avec qui, et surtout pourquoi.

The Conversation

Ferney Osorio a reçu des financements de l’ANR et de MINCIENCIAS (Colombie). Il est également cofondateur du ViveLab Bogotá (aujourd’hui Lab101).

ref. Pourquoi tant de labs d’innovation peinent-ils à trouver leur cap ? – https://theconversation.com/pourquoi-tant-de-labs-dinnovation-peinent-ils-a-trouver-leur-cap-264595

Réparer, recycler, prédire : l’IA au cœur du design organisationnel des distributeurs « phygitaux »

Source: The Conversation – in French – By Hassiba Sadoune, Doctorante en science de gestion , Université de Caen Normandie

L’impact de l’intelligence artificielle sera plus profond qu’on ne l’anticipe parfois. En combinant points de vente physiques et canaux digitaux, la manière de concevoir le cycle de vie des produits va subir des évolutions. Dans la distribution, cela annonce un net changement de la façon de travailler.


L’intelligence artificielle (IA) constitue aujourd’hui un levier à fort potentiel de transformation pour les modèles économiques et organisationnels, notamment dans le secteur de la distribution. Comme le soulignent Belkadi et al., elle redéfinit les dynamiques organisationnelles et optimise la performance à travers la gestion intelligente des stocks, la personnalisation, et l’automatisation des processus.

D’après une étude publiée par IBM en 2025, les investissements en IA devraient progresser significativement dans les années à venir : +52 % à l’échelle mondiale et +62 % en France. Et si l’intelligence artificielle ne servait pas uniquement à automatiser ou à vendre plus ? Et si, dans l’ombre des algorithmes, se jouait une transition vers un commerce plus responsable ?

Une évolution du design organisationnel

Ce glissement des usages de l’IA, du pilotage de la performance à l’optimisation des flux, constitue l’objet d’une recherche doctorale en cours à l’Université de Caen au sein du Nimec, consacrée à l’évolution du design organisationnel dans les enseignes dites « phygitales » – ces entreprises qui combinent points de vente physiques et canaux digitaux.

Le design organisationnel, tel que défini par Jay Galbraith, représente un processus d’alignement de cinq dimensions clés d’une organisation : la stratégie, la structure, les processus, les récompenses et les individus, en vue d’atteindre efficacement les objectifs organisationnels. Cette approche englobe la conception des mécanismes de coordination, des flux décisionnels, des systèmes d’information, ainsi que des dynamiques comportementales qui permettent à l’organisation de fonctionner de manière cohérente, et adaptée à son environnement.




À lire aussi :
IA dans la vente : plus efficace, mais moins humaine ?


L’étude s’appuie sur une méthodologie qualitative d’étude de cas, mobilisant un corpus empirique composé d’entretiens semi-directifs et de podcasts professionnels de cadres du secteur de la distribution omnicanale. L’analyse adossée à une version actualisée du modèle de design organisationnel de Galbraith interroge la manière dont l’intelligence artificielle contribue à recomposer les organisations à l’intersection de l’agilité, de la sobriété et de l’innovation responsable.

Réparer : nouveaux usages pour nouvelles finalités

« Ce qu’on fait en SAV devient central : le reconditionné, les garanties prolongées… c’est là que la marge se rejoue »,

confie un cadre d’une enseigne de distribution de produits culturels et technologiques, lors d’un entretien récent consacré au service après-vente et à la durabilité. Cette observation, loin d’être anecdotique, signale un changement de paradigme économique fondamental. La création de valeur ne s’opère plus uniquement lors de l’acte d’achat, mais s’étend sur l’ensemble du cycle de vie du produit.

Concrètement, l’IA permet de prédire les pannes avant qu’elles ne surviennent, d’anticiper les besoins en pièces détachées, d’identifier les produits qu’il vaut mieux réparer plutôt que remplacer. Cette approche prédictive transforme radicalement la logique commerciale : plutôt que de maximiser les ventes, l’objectif devient d’optimiser la durée de vie et l’utilité des produits vendus.

Loin de l’image d’une IA « dopée à la performance », émergent ainsi les contours d’une intelligence artificielle d’entretien, de soin, de maîtrise des ressources. Cette évolution interroge nos représentations du progrès technologique et ouvre la voie à de nouveaux modèles économiques centrés sur la durabilité.

Recycler : des rôles redessinés

Ces transformations technologiques induisent des recompositions organisationnelles profondes. Comme l’explique un directeur digital :

« Avec la data, on peut mieux préparer les interventions et en éviter certaines. »

Cette optimisation des flux opérationnels s’accompagne d’un vaste chantier de formation humaine, comme le souligne un directeur de la transformation :

« Former 100 % de nos collaborateurs, au siège comme en magasin, à l’utilisation de l’IA. Nous imaginons même mettre en place des certifications IA pour nos vendeurs. »

Cette évolution dessine les contours d’organisations plus modulaires et moins hiérarchiques. Les techniciens SAV anticipent les réparations plutôt que de subir les pannes, les conseillers s’appuient sur l’IA générative pour automatiser les tâches répétitives, les vendeurs développent de nouvelles compétences digitales. L’organisation devient un dispositif vivant, caractérisé par des flux, des ajustements constants et des apprentissages partagés – configuration que Worley et Lawler (2010) qualifient d’agilité organisationnelle.

Le recyclage, traditionnellement relégué en fin de chaîne, devient ainsi un processus intégré dès la conception du parcours client. L’IA permet d’identifier instantanément le potentiel de valorisation de chaque produit retourné, transformant les espaces de stockage et développant de nouvelles expertises en évaluation produit.

Prédire : doser plutôt qu’automatiser

Ce repositionnement de l’IA dans les organisations exige une forme de lucidité technologique. L’IA reste une technologie énergivore, avec des effets ambivalents sur la durabilité. Comme l’explique un directeur de la transformation d’une enseigne de distribution spécialisée :

« La question n’est pas seulement d’intégrer l’IA pour des gains de performance, mais de l’inscrire comme un pilier de durabilité dans l’expérience client. »

L’enjeu n’est donc pas d’implémenter l’intelligence artificielle partout, mais de l’utiliser avec discernement : là où elle réduit réellement les gaspillages, améliore la qualité de service, optimise la maîtrise logistique et valorise les expertises terrain.

Un manager illustre cette approche par une métaphore éclairante :

« Le thermomètre indique la température. Ce n’est pas en disant “Je veux monter la température” qu’on va la faire monter. Il faut allumer le chauffage ».

Autrement dit : c’est l’organisation de l’action, pas la donnée, qui fait la différence.

Cette capacité prédictive restructure les processus décisionnels en permettant aux équipes de terrain d’accéder à des informations stratégiques en temps réel, aux managers d’ajuster les stocks selon des projections fiables, et aux directions de disposer d’une vision prospective pour orienter leurs investissements.

Arte 2024.

Vers une intelligence artificielle de la sobriété

Cette recherche doctorale montre que l’IA ne transforme pas l’organisation seule. Elle le fait à condition d’être portée par une structure agile, capable de décentraliser les décisions, de former, d’ajuster, de relier les objectifs à des pratiques concrètes – soit une véritable organisation lucide.

Les analyses empiriques convergent vers une conclusion stimulante : réparer, recycler et prédire ne constituent pas seulement trois fonctions opérationnelles, mais trois piliers d’une circularité servicielle émergente. Cette innovation organisationnelle, documentée dans les trois configurations étudiées, révèle que l’IA transforme la relation client en vecteur de durabilité : l’anticipation des pannes devient un service premium, le reconditionnement génère de la satisfaction client, l’accompagnement dans la durée de vie produit crée de la fidélisation.

Cette synthèse dépasse l’opposition traditionnelle entre rentabilité et responsabilité pour inventer un modèle où l’excellence « servicielle » devient le levier de l’économie circulaire.

Les distributeurs phygitaux, en tant qu’interfaces entre production et consommation, deviennent des laboratoires d’expérimentation où s’inventent de nouveaux équilibres entre efficacité opérationnelle et impact environnemental. De ces pratiques émerge l’idée d’une « IA de la sobriété » : non plus orientée vers l’accélération des flux, mais vers l’optimisation des ressources et la réduction des gaspillages.

Reste une question essentielle : sommes-nous prêts à penser l’IA comme un levier de sobriété, à revoir le design de nos organisations pour qu’elles servent moins à faire plus… qu’à faire mieux ? Tout porte à croire que la réponse dépend moins de la technologie elle-même que de notre capacité collective à transformer les modèles organisationnels qui l’accompagnent. La mutation est engagée : encore faut-il l’accompagner pour qu’elle contribue réellement à un commerce plus durable et plus responsable.

The Conversation

Hassiba Sadoune ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réparer, recycler, prédire : l’IA au cœur du design organisationnel des distributeurs « phygitaux » – https://theconversation.com/reparer-recycler-predire-lia-au-coeur-du-design-organisationnel-des-distributeurs-phygitaux-259747

Les Family Offices en avant vers les marchés non cotés

Source: The Conversation – in French – By Mohamed Ouiakoub, Maître de conférences en Sciences de gesiton à l’Université de Lorraine, Université de Lorraine

Plus de 40 % des Family Offices disent consacrer 20 % ou plus de leur portefeuille au capital-risque, c’est-à-dire à des investissements dans des sociétés non cotées, comme Auchan ou les Galeries Lafayette. Mapo_Japan/Shutterstock

Les Family Offices, ces structures qui gèrent le patrimoine d’une famille fortunée, investissent de plus en plus dans les marchés privés (non cotés), perçus comme plus rémunérateurs à long terme que les marchés cotés comme le CAC 40. Pourquoi ? Avec quelles limites ?


En Europe, les grandes fortunes familiales s’appuient sur un « Family Office ». Leur patrimoine dépasse généralement les 100 millions d’euros, et atteint en moyenne 1,3 milliard selon l’étude mondiale UBS.

Ces familles se tournent massivement vers le capital-investissement ou private equity, qui consiste à prendre des participations au capital de sociétés non cotées, comme le distributeur Leclerc, le producteur laitier Lactalis ou Galeries Lafayette.

Comme nous l’analysons dans notre article à paraître dans la revue Vie et sciences de l’entreprise, « l’investissement à impact dans les Family Offices : entre héritage et quête de sens », les Family Offices cherchent à accroître leur présence dans le capital-investissement, mais leurs moyens humains et organisationnels restent limités.

Notre étude menée montre que certaines familles affectent plus de 20 % de leur patrimoine à ce type d’investissement. Pourtant, près de 70 % de ces structures comptent moins de dix collaborateurs et moins de la moitié disposent d’un comité d’investissement structuré.

Alors, comment ces grandes fortunes familiales structurent-elles cette nouvelle stratégie ?

Les différentes formes de Family Offices

Un Family Office est une structure privée consacrée à la gestion globale du patrimoine d’une famille fortunée. Il peut assurer des fonctions financières – investissements, fiscalité, transmission, etc. –, mais aussi juridiques, philanthropiques ou éducatives. Ces structures sont nées pour accompagner la pérennité du capital familial sur plusieurs générations, en intégrant des objectifs à la fois financiers, humains et émotionnels.

Ces enjeux sont au cœur de la littérature récente sur la création de valeur durable dans les entreprises familiales, en particulier lorsque les Family Offices participent activement aux décisions stratégiques du groupe familial. Il en existe plusieurs formes.

  • Les single family offices, entièrement consacrés à une seule famille.

  • Les multi-family offices, qui gèrent les patrimoines de plusieurs familles, parfois sans lien entre elles. D’autres structures, dites professionnalisées, sont intégrées à des institutions financières.

  • Les Family offices « intégrés » dans l’entreprise familiale.

  • Les Virtual Family Offices, lorsque la structure externalise la majorité de ses services.

Moins de dix personnes en moyenne

Les Family Offices renforcent progressivement leur exposition au capital-investissement, ou private equity, c’est-à-dire l’achat de parts dans des entreprises non cotées. Plus de 40 % des Family Offices interrogés y consacrent plus de 20 % de leur portefeuille, un niveau élevé pour des structures non institutionnelles. Ce choix traduit une confiance croissante dans les marchés privés, perçus comme plus rémunérateurs à long terme que les marchés boursiers traditionnels.

Cette ambition d’allocation se heurte toutefois à des moyens internes limités. La plupart des Family Offices emploient moins de dix personnes et moins de la moitié disposent d’un comité d’investissement structuré. Autrement dit, ils gèrent des portefeuilles complexes avec peu de personnel, souvent sans processus formalisé, ce qui fragilise leur capacité d’analyse, de sélection et de suivi des investissements.

Le principal frein cité par les répondants reste, d’ailleurs, le manque de ressources internes.

Relations humaines

Les investissements réalisés par les Family Offices passent avant tout par leur réseau direct. La majorité des opportunités provient de contacts personnels, loin devant les intermédiaires ou les événements professionnels. Cette approche repose sur la confiance et l’intuition. Mais en se limitant à leur cercle relationnel, ces familles risquent de passer à côté de projets plus innovants ou d’entreprises en dehors de leur environnement habituel.

Dans la répartition de leurs investissements, les familles privilégient les entreprises à fort potentiel de croissance, où elles peuvent mettre à profit leur expérience entrepreneuriale. Lorsqu’il s’agit d’opérations plus techniques, comme les rachats d’entreprises financés par l’endettement bancaire (appelés « Leveraged Buy-Out », ou LBO), elles préfèrent déléguer à des fonds spécialisés. Ces fonds disposent d’équipes nombreuses et aguerries capables de structurer des montages financiers complexes, ce que les petites équipes des Family Offices ne peuvent pas toujours assurer.

Cette complémentarité entre investissement direct et indirect traduit une certaine prudence stratégique. Les familles recherchent avant tout un fort alignement avec les porteurs de projet. Elles tiennent aussi à pouvoir jouer un rôle actif auprès des entreprises dans lesquelles elles investissent, en partageant leur réseau, leur expertise sectorielle ou leur expérience d’entrepreneurs, et pas seulement en apportant du capital.

Valeur durable des entreprises familiales

L’intégration de critères ESG dans les analyses reste minoritaire. Moins de 40 % des Family Offices déclarent prendre en compte les enjeux environnementaux, sociaux ou de gouvernance dans leurs décisions d’investissement selon les résultats de l’étude menée. Ce chiffre montre que la finance durable progresse lentement dans ce segment, malgré une forte montée en puissance dans les pays nordiques ou en Allemagne. Ces questions sont au cœur des réflexions actuelles sur la valeur durable en entreprise familiale.

La qualité des informations disponibles et le manque de marge de négociation avec les fonds constituent des sources de frustration. Concrètement, les Family Offices se plaignent d’un accès limité à des données fiables sur les performances passées des fonds ou sur la solidité des entreprises ciblées. Ils déplorent une faible transparence sur les frais facturés : commissions de gestion annuelles, frais de performance (ou carried interest) ou encore frais annexes liés aux transactions.

Fortes attentes

Malgré ces contraintes, les Family Offices restent confiants dans la trajectoire du capital risque ou private equity. Près de deux tiers se disent optimistes pour les douze mois à venir. Une majorité vise un rendement interne supérieur à 15 % d’après les résultats de l’étude réalisée.




À lire aussi :
Les start-ups « deep tech » : une réponse aux enjeux du XXIᵉ siècle ?


Cette confiance repose en grande partie sur la qualité perçue des projets technologiques, notamment dans la santé et le deep tech. Ces secteurs sont les plus plébiscités, loin devant l’agritech, l’éducation ou la défense.

Les investisseurs familiaux cherchent à soutenir des innovations porteuses de sens, en lien avec leurs valeurs et leurs expériences entrepreneuriales.

Structurer sans dénaturer

La professionnalisation des Family Office ne doit pas faire perdre ce qui fait leur force : proximité avec les entrepreneurs, liberté stratégique et vision de long terme. Ce sont des atouts précieux dans un écosystème financier souvent standardisé.

Leur gouvernance, leurs choix d’organisation et leur rapport à la durabilité sont au cœur d’une réflexion croissante sur l’investissement à impact dans les grandes fortunes familiales. En naviguant entre héritage, contrôle familial et quête de sens dans la gestion de leurs actifs, les Family Offices sont aujourd’hui à un tournant.


Cet article a été co-écrit avec Rajaa Mekouar, fondatrice et managing partner de Calista Direct Investors.

The Conversation

Mohamed Ouiakoub ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les Family Offices en avant vers les marchés non cotés – https://theconversation.com/les-family-offices-en-avant-vers-les-marches-non-cotes-261408

Les coûts d’emprunt de l’Afrique sont trop élevés : l’occasion manquée par le G20 de réformer les agences de notation

Source: The Conversation – in French – By Misheck Mutize, Post Doctoral Researcher, Graduate School of Business (GSB), University of Cape Town

Au début de l’année 2025, l’un des engagements pris par la présidence sud-africaine du G20 dans son document Priorités politiques était de promouvoir des notations de crédit souveraines plus équitables et plus transparentes. Elle voulait aussi remédier au coût élevé du capital, souvent justifié par une perception illusoire de risque élevé dans les économies en développement.

L’Afrique du Sud avait proposé de créer une commission chargée d’examiner le coût du capital. L’objectif était d’identifier les problèmes qui empêchent les pays à faible et moyen revenu d’accéder à des flux de capitaux suffisants, abordables et prévisibles pour financer leur développement.

Pour beaucoup en Afrique, il s’agissait de bien plus qu’un simple document administratif. Cela représentait la première véritable occasion pour les pays du Sud de remettre en cause le pouvoir bien établi des agences de notation internationales par l’intermédiaire du G20.

Les avis de Moody’s, S&P Global Ratings et Fitch Ratings sont en effet au cœur du problème du coût élevé de l’emprunt en Afrique.

Mais les possibilités de progrès dans ce domaine s’amenuisent. Le gouvernement sud-africain et le monde des affaires du pays n’ont pas profité de l’occasion offerte par la présidence du G20, de décembre 2024 à novembre 2025, pour faire pression en faveur de réformes susceptibles de réduire les coûts d’emprunt de l’Afrique et de renforcer sa souveraineté financière.

Qu’est-ce qui explique le poids des notations de crédit ?

Les agences de notation de crédit ne sont pas des observateurs neutres des marchés financiers. Leurs jugements influencent directement le sentiment des investisseurs, l’accès au financement et les taux d’intérêt que les pays paient lorsqu’ils émettent des obligations.

Pour les pays en développement, en particulier en Afrique, les notations vont déterminer l’allocation par le gouvernement de ses maigres ressources : soit au service de la dette, soit aux besoins en terme de développement tels que les écoles et les hôpitaux.

Le souci, ce n’est pas seulement les notations en elles-mêmes, mais aussi le fait qu’elles sont souvent imprécises et basées sur des jugements subjectifs.

Les pays dotés d’économies en développement dénoncent fréquemment les problèmes liés à ces notations.

D’abord, les États africains subissent plus souvent que d’autres des dégradations de note qui ne reposent pas sur des fondamentaux économiques solides.

Deuxièmement, les analystes qui évaluent les risques travaillent le plus souvent hors du continent et appliquent des critères subjectifs, souvent pessimistes.

Troisièmement, les économies en développement sont pénalisées en raison de l’impact supposé des chocs externes tels que les pandémies mondiales ou les catastrophes climatiques.

Enfin, on relève des variations importantes dans la manière dont les facteurs de risque sont évalués en Afrique par rapport à des pays similaires en Asie ou en Amérique latine, qui ont des profils de risque proches.

Une occasion manquée de leadership

Le G20 reste le principal forum mondial où se réunissent les principales économies avancées et les économies en développement les plus influentes. En tant que pays qui en assure la présidence, l’Afrique du Sud a le pouvoir de définir l’ordre du jour, de constituer des groupes de travail et de rédiger des communiqués qui influencent les débats au niveau mondial.

Mais à ce jour, la commission proposée sur le coût du capital n’a pas été mise en place. On peut dès lors affirmer sans se tromper que la présidence sud-africaine du G20 n’a pas utilisé cette plateforme pour régler la question du coût du capital. Ses engagements en matière de réforme de la notation de crédit se sont limités à réitérer les éléments de langage. Elle n’a pas fait de propositions structurées dédiées à cette question.

Cette inaction étonne d’autant plus que l’Afrique du Sud connaît bien les effets des décisions de notation. Au cours des huit dernières années, une série de déclassements par les agences de notation internationales a conféré le statut dit « junk » à la dette du pays. Ces décisions ont entraîné une augmentation des coûts d’emprunt et ébranlé la confiance des investisseurs. Pretoria dispose donc à la fois de l’expérience et de la légitimité nécessaires pour mener un débat sur la réforme des notations souveraines.

Par ailleurs, le secteur financier et des entreprises sud-africain (banques, assureurs et investisseurs institutionnels) est resté largement en retrait dans cette séquence.

Des plateformes telles que le Cost of Capital Summit, organisées par le groupe de travail Business (B20), la Standard Bank, Africa Practice et le Mécanisme africain d’évaluation par les pairs, ont été utiles. Mais le monde des affaires sud-africain n’a pas su tirer parti de la présidence de son pays au G20 pour faire pression en faveur de réformes qui profiteraient non seulement aux entreprises nationales, mais aussi aux partenaires africains.

La baisse des coûts d’emprunt souverains dans les pays hôtes, par exemple, réduirait directement les risques macroéconomiques pour les entreprises sud-africaines opérant sur le continent et élargirait leurs possibilités d’investissement.

Ce qui aurait pu être fait

Trois mesures concrètes pourraient remettre la question de la réforme des notations de crédit à l’ordre du jour:

Le coût de l’inaction

Selon la CNUCED, les pays en développement paient des taux d’intérêt jusqu’à trois points de pourcentage plus élevés que leurs homologues ayant des fondamentaux similaires, ce qui représente des milliards de dollars de coûts supplémentaires chaque année.

Cette « taxe cachée » sur le développement a des conséquences humaines directes: moins de ressources pour les infrastructures, l’adaptation au changement climatique, les systèmes de santé et l’éducation. Pour l’Afrique, où les besoins de financement sont immenses, des notations de crédit plus précises pourraient libérer un espace budgétaire vital.

L’Afrique du Sud ne peut se permettre de laisser sa présidence du G20 se réduire à un symbole. La promesse de notations de crédit souveraines « plus justes et plus transparentes » doit se traduire en action, par le biais de groupes de travail, de communiqués et d’alliances qui font avancer la réforme.

Pretoria a également besoin que son secteur privé se mobilise. Il ne s’agit pas seulement d’un impératif moral, mais aussi d’un impératif économique.

Une prime de risque plus faible et un accès plus équitable au capital élargiront les opportunités à travers le continent, y compris pour les investisseurs sud-africains. Le monde entier a les yeux rivés sur l’Afrique du Sud. Si le pays ne saisit pas cette chance, il renforcera l’idée que le discours sur la réforme de l’architecture financière mondiale ne se résume qu’à des paroles en l’air. Si l’Afrique du Sud agit, elle pourra laisser un héritage qui dépasse ses propres difficultés internes : l’ébauche d’un système de notation plus juste et plus responsable pour le Sud global.

The Conversation

Misheck Mutize does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Les coûts d’emprunt de l’Afrique sont trop élevés : l’occasion manquée par le G20 de réformer les agences de notation – https://theconversation.com/les-couts-demprunt-de-lafrique-sont-trop-eleves-loccasion-manquee-par-le-g20-de-reformer-les-agences-de-notation-266595

Starmer overlooks the negativity bias that makes Farage’s tactics so potent

Source: The Conversation – UK – By Matthew Flinders, Founding Director of the Sir Bernard Crick Centre for the Public Understanding of Politics, University of Sheffield

Keir Starmer’s legacy in British politics is already assured. No one in modern British history had managed to come to power with a massive majority and then become the least popular prime minister on record in just over a year.

As the Institute for Government’s report The Precarious State of the State underlined at the time of the last general election, whoever claimed the keys to No 10 was going to inherit a complex set of tricky challenges – creaking public services, fragile public finances, a longstanding productivity problem. The list went on.

The Labour government’s response was to dampen public expectations, blame the previous government, emphasise the existence of a financial black hole and generally sink into a funk of doom and gloom. This miserablism was never going to be a winning strategy.

Looking back, the government’s honeymoon-period focus on “fixing the foundations” encapsulated what has, over time, come to be known as Starmerism. Policies emphasised long-term technocratic fixes, reflecting a pragmatic worldview (digital identity cards, one-in-one out pilot immigration projects with France, artificial intelligence as the answer to everything, etc). But these fail to resonate with the emotionally charged short-term demands of large sections of the British public.

Miserablism, coupled with the air of incompetence wrought by various policy U-turns and self-inflicted injuries , has been a highly effective strategy for one party leader: Nigel Farage. Recent polling places Reform on the brink of a majority and suggests disaster for the Labour party.

This really is Starmer’s last chance. And how did he respond in his annual party conference speech? By trying to promote positivity in an age of despair, talking of “renewal” and attacking the pessimism of populist politics – “when was the last time you heard Nigel Farage say anything positive about Britain’s future?”

“Britain stands at a fork in the road,” said Starmer. “We can choose decency or division. Renewal or decline.” Reform was condemned for promoting a polarising form of grievance politics; as little more than “a competition of victims”.

But having built an expectation that he was about to present his long-awaited positive and principled vision for Brtain, the high rhetoric about “our age of insecurity” dropped to a more familiar focus on rather mechanical matters: “we do need a more muscular state”, “growing our economy from the grassroots”, “asset bubbles”.

The mass ranks of Labour ministers, neatly corralled on the front rows, all looked slightly confused.

And the big positive vision? Industrial policy: “government and business bringing the future closer” – a highpoint strapline that sent dull thuds echoing around the conference hall. The pause for applause lasting what felt like an eternity as the audience digested the full force of their leader’s visionary focus.

This is not intended to be a flippant point.

Economic growth is central to the United Kingdom’s focus. An effective industrial strategy can undoubtedly play a role in delivering growth. It’s also important to acknowledge that the role of the prime minister has arguably grown to become an impossible office. There is also a need to avoid the boosterism and bullshit that defined the performative repertoire of certain former prime ministers.

But there is a politics of positivity that Keir Starmer possibly needs to understand, and which explains why Nigel Farage’s Reform party is hoovering up support. Humans are hardwired to focus on failure.

This negativity bias (or “negativity effect”) has been demonstrated by a range of disciplines in relation to individual and group behaviour. It ensures that negative events, threats and risks tend to have a far greater effect on attitudes than positive events, achievements and opportunities. So when it comes to generating interest, controlling the agenda or shifting emotions, bad is stronger than good.

This helps explain the success of populism’s generally negative and crisis-laden discourse. The repeated recourse to narratives of crisis, failure and collapse. Promoting fear and loathing and engaging in grievance politics sparks a defensive reaction amongst sections of society who already feel overlooked or left behind.

The paradox is that the Labour government can claim several successes – from securing contracts to save shipyards and steelworks through to increasing free childcare and cutting NHS waiting lists. But shifting public opinion and working against the intensity of the negativity bias demands far more than Starmer has so far proved able to provide.

It demands a clear, simple and positive vision of where the country is going and why. Even just a three-word tagline that sets out unifying principles that bind each separate project into a unified project would be more effective – finances, fairness and families. But that’s just not Starmer’s style. And maybe that’s the problem. It’s not easy promoting positivity in an age of despair.


Want more politics coverage from academic experts? Every week, we bring you informed analysis of developments in government and fact check the claims being made.

Sign up for our weekly politics newsletter, delivered every Friday.


This article contains references to books that have been included for editorial reasons, and this may include links to bookshop.org. If you click on one of the links and go on to buy something from bookshop.org The Conversation UK may earn a commission.

The Conversation

Matthew Flinders does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Starmer overlooks the negativity bias that makes Farage’s tactics so potent – https://theconversation.com/starmer-overlooks-the-negativity-bias-that-makes-farages-tactics-so-potent-266493

Démission de Sébastien Lecornu : Échec du présidentialisme, retour au parlementarisme ?

Source: The Conversation – France in French (3) – By Nicolas Rousselier, professeur d’histoire politique, Sciences Po

Alors que le Premier ministre Sébastien Lecornu vient de remettre sa démission, quelques heures à peine après la présentation de la première partie de son gouvernement, le régime français est plus que jamais en crise. La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ? Nous republions pour l’occasion cet article de Nicolas Rousselier écrit à l’occasion de la chute du gouvernement Bayrou.


Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.

Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.

Dès le Moyen Âge, le Parlement contre le prince

L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.

Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.

Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.

Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.

Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.

Une domination de l’exécutif fondée sur l’expertise et sur le règne des partis

Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).

D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.

Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec).

La « forme-parti » pour reprendre l’expression du politiste italien, Paol  Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.

Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.

Le parlementarisme a fonctionné sous la IIIᵉ et la IVᵉ République

Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.

L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.




À lire aussi :
Loi Duplomb, A69 : Comment le gouvernement Bayrou a contourné l’Assemblée nationale pour faire passer ses projets. La démocratie malmenée ?


Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.

La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.

The Conversation

Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Démission de Sébastien Lecornu : Échec du présidentialisme, retour au parlementarisme ? – https://theconversation.com/demission-de-sebastien-lecornu-echec-du-presidentialisme-retour-au-parlementarisme-264996

On a grim anniversary, an end to Gaza’s violence is suddenly clear – if both sides can make sacrifices

Source: The Conversation – Global Perspectives – By Eyal Mayroz, Senior Lecturer in Peace and Conflict Studies, University of Sydney

Two years into the most horrific chapter in the history of Israel and Palestine, a glimmer of hope has been offered to both sides by US President Donald Trump’s plan for a permanent ceasefire and initial steps towards a faraway peace, or at least coexistence.

The plan at this stage is extremely vague, full of holes and strongly biased toward the Israeli side. However, it currently enjoys robust international support and legitimacy – arguably, stronger than any peace plan in the past two years.

It demands significant concessions from both sides, though much more so for Hamas, with punitive measures for failures to comply.

And it inches closer than any time in the past two years to halting the senseless mass killings and ongoing humanitarian catastrophe in Gaza.

What are the prospects for the plan’s success? What are the obstacles? And how could the world better support the prolonged and difficult process of trying to protect countless innocent lives in this part of the world?

On a grim anniversary, and with both sides exhausted, the answers require careful consideration.

Major concessions on both sides

For Hamas, there are a few immediate benefits to the proposed agreement: Israel’s promises to end the killings in Gaza, allow humanitarian aid to flow, and release numerous Palestinian prisoners.

At the same time, without timelines for a full Israeli withdrawal from Gaza and for Palestinian governance in the strip, there are also major risks.

The plan doesn’t include an explicit promise for a Palestinian state that will encompass both Gaza and the West Bank. And the demand for Hamas to disarm and stay out of Palestinian politics would not only abolish the group’s remaining power and influence, but leave its members at the mercy of Israel and American goodwill.

For Israel, the return of all hostages, both alive and dead, and the chance to begin to emerge from its diplomatic isolation and pariah status offer significant gains.

However, for the country’s hardline government and its political base, these gains would come at a cost. This includes:

  • the withdrawal from Gaza without fulfilling Prime Minister Benjamin Netanyahu’s promise to fully destroy Hamas

  • amnesty for Hamas militants who would renounce the armed struggle

  • the release of 2,000 Palestinian prisoners, including more than 250 with Israeli blood on their hands

  • forgoing annexation of Gaza and the West Bank, as promised by Trump

  • acknowledging, even if fuzzily, Palestinian aspirations for sovereignty and self-determination.

These concessions will be ideologically tough and politically destabilising for the current Israeli government.

Arab and Muslim support for the plan

Despite the challenges, the plan’s prospects have been enhanced by a number of factors, at least in the short term.

Key among them has been the overwhelming international support, especially among Arab and Muslim states. This has left Hamas more isolated than ever. The support by its long-time allies, Qatar and Turkey, would have been particularly hard for Hamas to swallow.

Notably, this support had been tested by last-minute Israeli changes to the draft that didn’t sit well with some of these states.

However, they grudgingly acquiesced to the changes, given the dire situation in Gaza, the exhaustion of the chief Arab mediators, Trump’s clout, and the realisation that no better plan was likely in the near future.

Also influential was the long-overdue US decision to force Netanyahu into important concessions on allowing aid into Gaza and ending the threats of ethnic cleansing and Israeli annexation of parts of the West Bank and Gaza.

The imminent October 10 deadline for a Nobel Peace Prize announcement may have contributed to Trump’s resolve to pressure both sides – especially Netanyahu – and to the tightly imposed schedule for the release of the plan.

Israeli hostages as a bargaining chip

For the past two years, Hamas’ main bargaining chip was the Israeli hostages it kidnapped on October 7 2023.

A key challenge posed by Trump’s plan is the dictate to release the remaining captives, dead and alive, within the first 72 hours of the deal coming into effect. This would be in exchange for roughly 2,000 Palestinian prisoners.

Effectively, this would not only abolish Hamas’ negotiating power, but also their threat to use the hostages as human shields against the current or a future Israeli military incursion into Gaza City.

However, according to the Israeli newspaper Haaretz, Hamas leaders in Qatar were recently persuaded to believe that keeping the hostages had become a liability because Netanyahu’s government was no longer primarily concerned about their safety and would use their likely presence in Gaza City as a pretext for their operations there.

This may have made the benefit of a hostage-prisoner swap more apparent for Hamas.

How the world can help

Beyond ending the immediate crisis in Gaza, the plan’s long-term viability depends on larger questions of Palestinian statehood and governance.

Despite being scorned early on by the US and Israel, an initiative launched in July by France and Saudi Arabia to push for wider recognition of Palestine helped lay the groundwork for the Trump peace plan.

The move extracted an explicit commitment by the Palestinian Authority (PA) to hold democratic elections and undertake other significant reforms. It also helped galvanise a unified Arab position on ending the conflict, with a consequential joint condemnation of Hamas’ October 7 attack and a demand the group disarm and relinquish power in Gaza.

Arguably, the success of Trump’s plan will depend not only on the fast-moving events in the coming days, but also on the international community’s ability to sustain its commitment to a complex peace process in the coming weeks, months and years.

Once the mass violence in Gaza has ended, international attention will wane and make it easier for either side to derail the process. This is why the efforts to recognise Palestinian statehood remain important. With support now from 157 of 193 UN member states – more than 80% of membership – this could increase the pressure on the US to avoid vetoing a full UN membership for Palestine in the future.

Agency matters

Western powers should also reconsider their demands that Hamas be barred from Palestinian politics as a condition for recognition. Genuine Palestinian sovereignty should include the fundamental right of the people to choose their own government through free and fair elections.

It’s inconsistent for these Western states to champion democratic values, independence and self-determination for the Palestinians, while simultaneously prescribing which parties can participate in their electoral process.

At the same time, third-party states have the right to articulate the potential diplomatic or economic consequences should Hamas be elected into a future Palestinian government. It would then be up to the Palestinian people to weigh the potential costs when casting their votes.

This approach could provide respect for Palestinian agency, while maintaining the principle that democratic choices carry real-world implications, both domestic and external.

The difficult path ahead

Ultimately, significant progress on the road to peace would require an Israeli government that’s willing to make hard choices and sacrifices. That government currently doesn’t exist.

But would the next government be more amenable? Arguably, this would depend on many interlocking factors – most importantly, American pressure and engagement, in addition to “carrots” in the form of normalisation agreements with Saudi Arabia and other Arab states. These factors could help shift domestic opinions and political calculus in Israel.

However, significant breakthroughs appear improbable before the country’s next elections, scheduled for 2026. Until then, Trump remains the only one capable of meaningfully influencing the cost-benefit calculations in Jerusalem.

Notably, a strong desire for a sense of security remains the most important consideration for Israelis, even if the means of achieving this are highly controversial.

Seen in this context, the demand in Trump’s plan that Hamas disarm and Gaza be demilitarised will be non-negotiable for any future Israeli government. Even then, extremist violence on either side would continue to pose the greatest threat to the prospects of co-existence.

On the positive side, history has shown that even in the most intractable conflicts, pathways to peace can be found when courage meets opportunity. The international community’s unprecedented unity, Trump’s new willingness to pressure both Hamas and Israel, and the sheer exhaustion on both sides can create that opportunity.

If this moment could be sustained – if the world maintains its focus beyond the initial ceasefire, if moderates on both sides find their voices – then perhaps the glimmer of hope offered today may become a light.

The Conversation

Eyal Mayroz served as a counterterrorism specialist with the Israeli Defence Forces in the 1980s.

ref. On a grim anniversary, an end to Gaza’s violence is suddenly clear – if both sides can make sacrifices – https://theconversation.com/on-a-grim-anniversary-an-end-to-gazas-violence-is-suddenly-clear-if-both-sides-can-make-sacrifices-266771

Comment débutent les cancers du sein ? Conversation avec la biochimiste Alexandra Van Keymeulen

Source: The Conversation – France in French (2) – By Alexandra Van Keymeulen, Maître de recherche FNRS au Laboratoire des Cellules Souches et du Cancer, Université Libre de Bruxelles (ULB)

Alexandra Van Keymeulen est biochimiste et spécialiste du cancer du sein. Avec son équipe, elle explore les étapes extrêmement précoces dans le développement des tumeurs, bien avant que celles-ci ne soient détectables. Elle a reçu Elsa Couderc, cheffe de rubrique Science et Technologie, pour expliquer simplement ce qu’est un cancer, et les avancées de la recherche depuis qu’elle a débuté dans le domaine.


The Conversation France : Aujourd’hui, vous êtes une spécialiste reconnue sur l’origine du cancer du sein, mais vous n’avez pas commencé vos recherches par là.

Alexandra Van Keymeulen : J’ai fait ma thèse, en Belgique, sur la thyroïde. J’étudiais les mécanismes qui font que les cellules thyroïdiennes prennent la décision de se diviser. Comme les cellules ne sont pas immortelles, qu’elles vivent moins longtemps que nous, il y a sans arrêt des cellules qui meurent et, donc, des cellules qui se divisent pour donner naissance à de nouvelles cellules. Dans une thyroïde saine, les cellules prennent en permanence la décision de se diviser ou non pour donner naissance à la prochaine génération de cellules.

Je travaillais sur les thyroïdes saines, mais dans un groupe où d’autres personnes étudiaient le cancer de la thyroïde. En effet, les mécanismes de division cellulaire sont dérégulés dans le cas d’un cancer : les cellules se divisent de manière anarchique, sans contrôle. Elles forment une masse, un peu comme un mini-organe. Elles ne répondent plus aux signaux environnants qui leur indiquent de stopper leur croissance. La division cellulaire incontrôlée est la première étape pour former une tumeur.

Mais une tumeur bénigne n’est pas appelée « cancer ». Un cancer a aussi des caractéristiques invasives, c’est-à-dire que ces cellules migrent et envahissent les autres tissus.

Et justement, après ma thèse, je suis partie cinq années à San Francisco en postdoctorat. Là, j’ai travaillé sur la migration cellulaire. Je ne travaillais toujours pas sur des cellules cancéreuses, mais sur les mécanismes intrinsèques, au sein des cellules, qui font qu’elles se déplacent d’un organe à l’autre ; typiquement, ce sont les cellules du système immunitaire qui se déplacent pour aller au site de l’infection.

Ce sont ces mécanismes-là qui sont piratés par les cellules cancéreuses pour former des métastases. Les cellules cancéreuses migrent moins vite que des cellules du système immunitaire, mais elles arrivent à se déplacer.

Après avoir étudié la division cellulaire et la migration des cellules saines, vous êtes rentrée en Belgique pour étudier les cancers du sein ?

A. V. K. : Oui, je suis rentrée en même temps que Cédric Blanpain et j’ai rejoint l’équipe qu’il était en train de monter. Il est spécialiste du cancer de la peau. Très vite, j’ai décidé de travailler sur le sein, qui n’est pas si différent que ça de la peau, car ces deux organes sont composés de cellules épithéliales. Ils ont des caractéristiques communes et donc on peut utiliser les mêmes souris pour les projets qui ont trait au cancer de la peau ou au cancer du sein.

À ce stade, c’était nouveau pour vous comme organe d’étude ?

A. V. K. : Tout était nouveau ! Travailler sur le sein était nouveau, mais je n’avais jamais travaillé non plus avec des souris.

Et quelles étaient les grandes questions de la recherche sur le cancer du sein à l’époque ? Qu’est-ce que vous cherchiez à savoir, dans ce tout nouveau labo, en 2006 ?

A. V. K. : La grande question, c’était de savoir quelles cellules sont à l’origine des cancers du sein. Il y avait déjà à l’époque deux hypothèses. En vingt ans, on a répondu à certaines choses, mais ces deux hypothèses sont toujours là aujourd’hui. Pourquoi y a-t-il différents types de cancer du sein ? Est-ce parce que les patients ont eu différentes mutations génétiques ou parce que les mutations sont survenues dans différents types de cellules de la glande mammaire ? On pourrait avoir aussi une combinaison de ces deux explications.

En ce qui concerne les mutations, on avait déjà repéré que certaines mutations génétiques sont liées à certains types de cancers du sein chez l’humain : on dit que la mutation a un impact sur l’issue tumorale.

Pour explorer l’autre hypothèse – quelles sont les cellules à l’origine d’un cancer, il a d’abord fallu comprendre comment se renouvellent les cellules dans la glande mammaire. Est-ce que tous les types de cellules de la glande mammaire sont maintenus par un seul type de cellule souche, ou bien est-ce qu’à chaque type de cellule correspond une cellule souche ? On appelle ça la « hiérarchie cellulaire ».

Qu’est-ce qu’une cellule souche ?

  • Une cellule souche adulte est une cellule capable, à la fois, de générer des cellules spécialisées d’un organe et de se régénérer dans l’organe pour une spécialisation ultérieure.

Comment étudiez-vous d’où viennent les cellules de la glande mammaire et comment elles se renouvellent tout au cours de la vie, pendant une grossesse, l’allaitement, etc. ?

A. V. K. : On a fait du « traçage de lignée » (lineage tracing, en anglais), qui est notre grande spécialité au laboratoire. Cette technique consiste à introduire un marqueur fluorescent dans une cellule. Comme ce marqueur fluorescent est dû à une mutation génétique, le marquage est irréversible : une fois que la cellule est fluorescente, elle va le rester toute sa vie. Et surtout, si elle se divise, toute sa progéniture va être fluorescente aussi… ce qui va nous permettre de suivre le devenir d’une cellule ! Si on a ciblé une cellule qui ne se divise plus, elle va être éliminée après quelques semaines et on n’aura plus de fluorescence. Par contre, si on a ciblé une cellule souche, on va voir qu’elle va donner naissance à de nouvelles cellules qui vont également être fluorescentes.

Avec cette technique, on a pu étudier comment les glandes mammaires sont maintenues au cours du temps et démontrer, en 2011, que ce sont différents types de cellules souches qui renouvellent la glande mammaire.

C’était vraiment un changement de paradigme, car on croyait à l’époque qu’en haut de la hiérarchie cellulaire de la glande mammaire, il y avait des cellules souches « multipotentes » (c’est-à-dire, capables de se différencier en plusieurs types de cellules). On sait aujourd’hui qu’il y a trois types de cellules souches dans la glande mammaire, qui se différencient chacune en un seul type de cellule.

Quels sont ces trois types de cellules dans le sein ?

A. V. K. : Les glandes mammaires contiennent un réseau de tuyaux reliés au mamelon, et qui vont produire le lait à l’intérieur du tube pour l’expulser.

Un premier type de cellules est celui des « cellules basales », aussi appelées myoépithéliales, qui ont des propriétés contractiles et vont se contracter au moment de l’allaitement pour expulser le lait.

Puis, à l’intérieur des tubes, se trouve la couche luminale, qui est composée de deux types de cellules : celles qui sont positives aux récepteurs aux œstrogènes et celles qui sont négatives aux récepteurs aux œstrogènes. Les positives vont sentir la présence des hormones et relayer les signaux hormonaux aux autres cellules, pour dire « Maintenant, on se divise tous ensemble ». Les négatives sécrètent du lait pendant l’allaitement.

Donc aux trois types de cellules dans le sein correspondent trois types de cellules souches « unipotentes ». Mais en ce qui concerne la formation de tumeurs cancéreuses : comment étudiez-vous une tumeur avant même qu’elle existe ? Vous avez une machine à remonter le temps ?

A. V. K. : Eh non ! Il faut prédisposer les souris aux tumeurs. Pour cela, on utilise des souris transgéniques, avec une mutation génétique dont on sait qu’elle est favorable à un cancer du sein. On insère la mutation soit dans les cellules luminales, soit dans les cellules basales. Et on a montré que le type de cancer développé n’est pas le même lorsque la mutation est introduite dans les cellules luminales ou basales.

Comment ça se passe en pratique ? Vous induisez une mutation génétique, mais vous ne pouvez pas être sûre que chaque souris va développer un cancer. Est-ce qu’il faut tuer la souris avant qu’elle développe un cancer, ou on peut faire des prélèvements ?

A. V. K. : Effectivement, toutes les souris prédisposées ne développent pas de cancers. Pour savoir comment ça évolue, nous palpons les souris – comme les palpations qui accompagnent les mammographies dans les examens pour les femmes. Il existe aussi des PET-scanners pour souris, mais mon laboratoire n’est pas équipé.

Si on palpe une tumeur, alors on tue la souris afin de prélever la tumeur et d’étudier le type de cancer qui a été provoqué par la mutation que nous avions induite. C’est comme cela que nous avons démontré, en 2015, qu’une même mutation n’a pas le même effet si elle est introduite sur une cellule basale ou sur une cellule luminale.

Ensuite on a développé un outil pour cibler les cellules luminales, qui sont divisées en deux types, comme on l’a vu : celles qui sont positives aux récepteurs aux œstrogènes et celles qui sont négatives aux récepteurs aux œstrogènes. C’est ce que nous avons publié en 2017. On s’est posé la même question que précédemment : est-ce qu’une même mutation génétique provoque des types de cancers différents ?

Ce sont des recherches qui sont encore en cours, mais, à nouveau, nos résultats semblent montrer que l’issue tumorale dépend de la cellule dans laquelle survient la première mutation.

Vous avez étudié plusieurs mutations connues pour favoriser les cancers du sein ?

A. V. K. : On connaît aujourd’hui des dizaines de mutations génétiques responsables de cancers du sein. Les étudier toutes va prendre du temps, d’autant que cette librairie de mutations est peut-être non exhaustive. Pour l’instant, nous avons étudié une seule mutation, qui est l’une des plus courantes dans le cancer du sein chez la femme.




À lire aussi :
Cancer du sein : une nouvelle étude révèle un risque génétique chez les femmes africaines


Est-ce que vous interagissez avec les médecins, avec les patientes ?

A. V. K. : Avec les médecins, oui, bien sûr. On se retrouve aux conférences, et certains de mes collègues sont médecins à l’hôpital universitaire de l’Université libre de Bruxelles, juste à côté de notre laboratoire. Quand j’ai des résultats, je vais en discuter avec un spécialiste du cancer du sein chez l’humain pour essayer de trouver la pertinence pour des cancers chez l’humain.

Je fais aussi partie des experts scientifiques bénévoles pour la Fondation contre le cancer belge – ça fait partie des missions d’un chercheur à l’université que de prendre ce genre de rôle.

Les patientes, je les rencontre plutôt pour de la vulgarisation, avec la Fondation contre le cancer, qui organise tous les ans des visites de laboratoire. Il y a aussi le Télévie, un organisme inspiré du Téléthon, en Belgique francophone et au Luxembourg, où on côtoie des patients et des bénévoles lors d’événements. Ces organismes sont aussi des financeurs de nos recherches.

La prévention est un thème qui me tient à cœur, puisqu’un cancer du sein sur quatre pourrait être évité en éliminant le tabac, l’alcool, le surpoids et en faisant régulièrement de l’activité physique. En particulier, le fait que même une consommation légère d’alcool augmente le risque de cancer du sein est encore très méconnu du grand public, mais démontré scientifiquement.




À lire aussi :
Pourquoi l’alcool augmente le risque de cancer, et ce, dès le premier verre


On entend beaucoup parler de certains cancers du sein qui sont liés à des prédispositions génétiques…

A. V. K. : En fait, il n’y a que 10 % des cancers du sein qui viennent de prédispositions génétiques, c’est-à-dire des mutations présentes depuis la naissance, comme c’est le cas d’Angelina Jolie.

La grande majorité des cancers provient de mutations génétiques qui ont lieu au cours de la vie, par exemple à cause de cassures de l’ADN qui sont liées à la consommation de tabac et d’alcool, et qui ont été mal ou pas réparées par l’organisme.

Or, plus un cancer est pris tôt, plus les chances de guérison sont grandes et plus le traitement sera léger. D’où l’intérêt de notre travail sur les étapes extrêmement précoces dans le développement d’une tumeur… mais aussi l’importance pour le patient de consulter dès l’apparition de symptômes.

Justement, vous disiez tout à l’heure que les grandes questions sur l’origine des cancers du sein, qui prévalaient au début de votre carrière, étaient toujours d’actualité aujourd’hui ?

A. V. K. : Tout à fait. Quand on introduit une mutation dans les souris, on doit attendre plusieurs mois – parfois six mois ou un an – avant d’observer l’apparition d’une tumeur. Mais on ne sait pas encore ce qui se passe dans la glande mammaire pendant ce temps-là.

C’est pour cela que je disais tout à l’heure que la question que nous nous posions il y a vingt ans demeure dans une certaine mesure : on cherche toujours ce qu’il se passe dans les cellules qui sont à l’origine du cancer.

En fait, on observe que la mutation change complètement le comportement de ces cellules. La structure extérieure macroscopique de la glande mammaire reste la même, mais, à l’intérieur, les cellules sont tout à fait reprogrammées. Elles deviennent beaucoup plus plastiques, multipotentes – c’est-à-dire qu’elles peuvent donner lieu aux autres types cellulaires.

L’idée serait d’avoir une « fenêtre de tir » thérapeutique entre la mutation et le développement d’une tumeur ?

A. V. K. : Tout à fait : si on comprend ce qui se passe pendant cette période-là, on pourrait imaginer des outils de diagnostic. Par exemple, pour les femmes qui sont prédisposées génétiquement, comme Angelina Jolie, plutôt que d’enlever les seins et les ovaires, on aimerait pouvoir les surveiller de près et, dès que l’on verrait apparaître certaines de ces étapes précoces, intervenir avec un traitement préventif pour inhiber le développement d’une tumeur cancéreuse.

À l’heure actuelle, ça reste hypothétique : nous sommes un laboratoire de recherche fondamentale. Aujourd’hui, on essaye de comprendre ce qui se passe entre l’introduction de la mutation et le début de la tumeur. Auparavant, on devait se contenter d’étudier les tumeurs elles-mêmes, car nous n’avions pas les outils pour étudier cette fenêtre de six mois – je précise que cette durée est évaluée chez les souris, pas chez les humains.

Pour mener à un cancer, il faut une mutation génétique dans une seule cellule, ou bien la même mutation dans plein de cellules différentes, une accumulation progressive ?

A. V. K. : Il faut plusieurs mutations dans une seule cellule – s’il ne fallait qu’une mutation dans une cellule, tout le monde aurait des cancers partout ! C’est une accumulation de probablement sept ou huit mutations bien spécifiques.

Mais quand une cellule est mutée, souvent ce qu’on observe, c’est que ces mutations donnent un avantage à ces cellules par rapport aux cellules avoisinantes. Des études récentes montrent par exemple des « taches » dans la peau des paupières, invisibles à l’œil nu. Ce sont des zones de la peau où toutes les cellules ont les mêmes mutations. Elles proviennent d’une seule et même cellule, qui s’est divisée, au détriment des cellules avoisinantes : en se divisant, les descendantes de la cellule mutée poussent les autres et propagent les mutations. C’est aussi vrai pour d’autres organes, notamment la glande mammaire.

Aujourd’hui, sur les étapes précoces des cancers du sein, nous cherchons donc à savoir comment les cellules à l’origine du cancer sont reprogrammées génétiquement et comment cela leur confère un avantage par rapport aux cellules saines. On explore ainsi petit à petit les grandes étapes qui mènent à une tumeur.

The Conversation

Alexandra Van Keymeulen est consultant scientifique de Cancer State Therapeutics.
Ses recherches bénéficient du soutien financier du FNRS, Télévie, Fondation contre le Cancer et du Fonds Gaston Ithier.

ref. Comment débutent les cancers du sein ? Conversation avec la biochimiste Alexandra Van Keymeulen – https://theconversation.com/comment-debutent-les-cancers-du-sein-conversation-avec-la-biochimiste-alexandra-van-keymeulen-265813

Does AI pose an existential risk? We asked 5 experts

Source: The Conversation – Global Perspectives – By Aaron J. Snoswell, Senior Research Fellow in AI Accountability, Queensland University of Technology

Sean Gladwell/Getty Images

There are many claims to sort through in the current era of ubiquitous artificial intelligence (AI) products, especially generative AI ones based on large language models or LLMs, such as ChatGPT, Copilot, Gemini and many, many others.

AI will change the world. AI will bring “astounding triumphs”. AI is overhyped, and the bubble is about to burst. AI will soon surpass human capabilities, and this “superintelligent” AI will kill us all.

If that last statement made you sit up and take notice, you’re not alone. The “godfather of AI”, computer scientist and Nobel laureate Geoffrey Hinton, has said there’s a 10–20% chance AI will lead to human extinction within the next three decades. An unsettling thought – but there’s no consensus if and how that might happen.

So we asked five experts: does AI pose an existential risk?

Three out of five said no. Here are their detailed answers.

The Conversation

Aaron J. Snoswell was previously part of a research team that competitively won a grant to receive research project funding from OpenAI in 2024–2025 to develop new evaluation frameworks for measuring moral competence in AI agents. The project has now completed and I no longer receive funding from OpenAI.

Niusha Shafiabady, Sarah Vivienne Bentley, Seyedali Mirjalili, and Simon Coghlan do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Does AI pose an existential risk? We asked 5 experts – https://theconversation.com/does-ai-pose-an-existential-risk-we-asked-5-experts-266345

Why are the ICJ and ICC cases on Israel and Gaza taking so long?

Source: The Conversation – Global Perspectives – By Melanie O’Brien, Associate Professor of International Law, The University of Western Australia

In September this year, a UN-backed independent commission of inquiry released a report concluding Israel is committing genocide in Gaza. The report said:

Israeli authorities deliberately inflicted conditions of life on the Palestinians in Gaza calculated to destroy, in whole or in part, the Palestinians in Gaza, which is an underlying act of genocide.

This report followed two years of investigation, but it’s not the only investigation underway.

There are two international courts with current proceedings related to the Israel-Palestine conflict.

The first, a case before the International Court of Justice (ICJ), was brought against Israel by South Africa in late 2023.

In the second, International Criminal Court (ICC) prosecutors have been investigating potential crimes allegedly committed by anyone, whether Israeli or Palestinian, on the territory of Palestine since March 2021 – even before Hamas’ October 7 2023 attack.

So, if the UN-backed commission of inquiry could put together their report in two years, why are the cases in the ICJ and ICC taking so long? And where are these proceedings up to now?

The International Court of Justice case

A case before the ICJ often takes many years.

This is because the cases often involve multiple stages, including:

  • provisional measures (the ICJ version of an injunction, which is an interim court order to do or stop doing something)

  • preliminary objections (where a state may object to the ICJ’s jurisdiction in the case)

  • the merits case (where the court decides whether or not a country has violated international law).

Each stage involves the parties to the case making written submissions and undertaking oral proceedings. The court also makes decisions at each stage. States must be afforded due process throughout the proceedings.

Another reason for the lengthy period of cases is that states often ask for extensions for their written submissions.

In the South Africa v Israel case (which focused on the question of whether Israel is in breach of its obligation to prevent and punish genocide as per the Genocide Convention), Israel requested and was granted a six-month extension to file their written submission, which is now not due until January 2026.

This means we may not expect a hearing on the merits of the case until possibly even 2027.

The International Criminal Court case

Cases before the ICC, which are brought against individuals, not states, are not like ordinary criminal cases in a domestic court.

These cases relate to not just one crime, but many crimes. Sometimes, perpetrators are charged with multiple offences.

As an example, Dominic Ongwen – a high-ranking member of the Lord’s Resistance Army operating in Uganda – was convicted of 61 counts of war crimes and crimes against humanity, each of which generally involved multiple victims.

This means the ICC has to collect and present a huge amount of evidence. This can include documents, photographs, and victim and witness testimony. It can take a long time, even years, to collect all this evidence.

Once the case goes to court, it can take many months of hearings, as all the evidence is presented.

The case may also be delayed if either the prosecution or defence asks for an extension at any point in the proceedings.

All of these elements are important to ensure any trial before the ICC is fair and carried out with due process.

In the case relating to Palestine, the ICC prosecutor moved quite quickly with investigations following Hamas’ October 7 2023 attack.

Arrest warrants were issued for Israeli Prime Minister Benjamin Netanyahu and then-Defence Minister Yoav Gallant in November 2024, with charges of crimes against humanity (including murder and persecution) and the war crime of starvation.

At the same time, arrest warrants were also issued for several Hamas leaders for war crimes and crimes against humanity relating to the October 7 atrocities. Only one of those leaders, Mohammed Diab Ibrahim Al-Masri (Deif), remains likely alive, however.

The ICC now stands ready, willing and able to start a prosecution case against Netanyahu, Gallant or Hamas leaders such as Deif. All it needs is to have them in custody in The Hague.

However, the ICC has no police force. It relies on member states to the ICC to arrest and surrender wanted fugitives.

Interpol “Red Notices” may be issued for people wanted by the ICC. Recently, for instance, the Philippines arrested and surrendered its former president, Rodrigo Duterte, to the ICC, where he is now on trial for crimes against humanity.

Unfortunately, states seem less willing to arrest and surrender the Israeli head of state. This creates a challenge for the ICC in its ability to proceed with prosecutions, but also attracts criticism of double standards of states.

Netanyahu has visited Hungary, an ICC member state, but was not arrested. Hungary has since announced it intends to withdraw from the ICC.

Upholding international law

So, it’s clear the ICC and the ICJ already have legal proceedings well underway relating to crimes in Gaza. These international courts are ready to hear legal arguments and make decisions on state responsibility or individual criminal liability for crimes committed in Palestine or against Palestinians.

What we need, however, is commitment from states to uphold international law.

Countries must comply with their international law obligations and cooperate with international courts, including by arresting and surrendering wanted fugitives to the International Criminal Court.

This is what will help speed the slow-turning wheels of justice.

The Conversation

Melanie O’Brien is president of the International Association of Genocide Scholars (IAGS), which in September 2025 passed a resolution declaring that Israel is committing war crimes, crimes against humanity and genocide in Gaza.

ref. Why are the ICJ and ICC cases on Israel and Gaza taking so long? – https://theconversation.com/why-are-the-icj-and-icc-cases-on-israel-and-gaza-taking-so-long-265674