Conférence de Santa Marta : les nouvelles pistes de la diplomatie climatique qui émergent hors des COP climat

Source: The Conversation – France (in French) – By Jean-Baptiste Meyer, Directeur de recherche (Centre Population et Développement), Institut de recherche pour le développement (IRD)

Et si la diplomatie climatique se réinventait en dehors du format traditionnel des COP ? En Colombie, à l’occasion d’une conférence organisée à Santa Marta du 24 au 29 avril 2026, une dynamique alternative a émergé : plus ouverte, elle cherche à dépasser les blocages multilatéraux en plaçant la diversité des savoirs au cœur des décisions.


S’il y a un constat sur lequel convergent les « climato-négationnistes » et les activistes climatiques radicaux, c’est l’inutilité des COP, organisées sous l’égide des Nations unies (Convention-cadre des Nations unies sur les changements climatiques, UNFCC de son acronyme en anglais). Dans les deux cas, on leur reproche une inefficacité de plus en plus apparente, où les décisions sont nécessairement prises au consensus. En conséquence, le consensus devient tellement mou qu’il n’en exprime plus rien de significatif ni d’opératoire.

Ainsi le résume la bande-annonce d’un film documentaire à venir dans le courant de l’été 2026, en partenariat avec l’Institut de recherche pour le développement (IRD) et l’Université nationale de Colombie.

Bande-annonce du documentaire De Los Andes a Belém (2026).

Du 24 au 29 avril 2026 à Santa Marta, en Colombie, une conférence inédite a voulu replacer enfin la sortie des combustibles fossiles au cœur de l’agenda international. Co-organisée par la Colombie et les Pays-Bas, elle a regroupé 57 États volontaires (et l’Union européenne en tant que telle, NDLR).

Qu’a-t-il été décidé à cette occasion ? À rebours des COP climat, où ce sont avant tout les textes finaux qui comptent, pesés au mot près, car votés par les représentants d’États, c’est ici surtout la méthode de travail qui diffère, beaucoup moins rigide. Elle ne s’accompagnait d’aucune obligation de production particulière, si ce n’est d’engager le processus de constitution d’une feuille de route pour la sortie des énergies fossiles. La rencontre a ainsi inauguré de nouvelles modalités de coopération mondiale sur les enjeux socio-environnementaux.




À lire aussi :
Aujourd’hui, le droit protège les combustibles fossiles : une première conférence internationale veut briser ce verrouillage


Dépasser le blocage des COP grâce à une coalition de volontaires

Le débat sur la paralysie des négociations multilatérales en général – et celle des COP climat en particulier – n’est guère nouveau. Leur répétition annuelle exacerbe les frustrations de ceux qui souhaitent réellement progresser sur les questions climatiques.

À la COP30 de Belém, en novembre 2025, une quarantaine de pays avaient exprimé leur mécontentement quant à l’absence de mention de la sortie des énergies fossiles dans la déclaration finale. Plus de 80 se sont associés à l’initiative encourageant à poursuivre les travaux d’élaboration d’une feuille de route en ce sens.

La Colombie et les Pays-Bas ont alors invité les États qui souhaitaient travaillaient sur ce point à se réunir dans une conférence en marge des COP. Autrement dit, la conférence de Santa Marta ne s’est certes pas tenue dans le cadre onusien, mais s’est toutefois inscrite dans le prolongement de la précédente COP climat.

Préparée dans un laps de temps exceptionnellement court (moins de la moitié d’une année, contre un an pour les COP climat), cette conférence inédite avait une organisation moins cadrée au plan organisationnel. Aux dires d’observateurs et de participants, on y percevait un petit côté brouillon : davantage d’improvisation, voire parfois un manque de clarté sur les livrables attendus et les prochaines étapes.

Pourtant, ces faiblesses – inhérentes au format de la conférence spontanée, point d’étape entre la COP30 du Brésil et la COP31 en Turquie – ont, aux dires des participants, pu être dépassées, notamment grâce à son caractère volontaire. Juan Carlos Monterrey Gómez, envoyé climatique du Panama, cité dans le Climate Diplomacy Brief, a par exemple déclaré :

« Santa Marta est un moment historique, car c’est la première fois que nous pouvons ouvrir nos cœurs, ouvrir nos esprits et avoir une véritable conversation sans ces stupides demandes de mise au vote, sans ces stupides procédures qui font dérailler toute la séance et ne nous laissent que dix minutes pour aborder le fond. »




À lire aussi :
De COP en COP, une géopolitique de la procrastination climatique


La méthode Santa Marta ? Un bouillon de culture plutôt que des zones bleue et verte

Concrètement, la conférence a successivement réuni trois composantes : un panel académique (baptisé Academic Dialogue) où les scientifiques du monde entier ont pu émettre des recommandations, un « sommet des peuples », avec notamment des représentants associatifs, communautaires et syndicaux et, enfin, un segment de haut niveau (Transition Away from Fossil Fues, ou TAFF, regroupant essentiellement des représentants gouvernementaux spécialisés.

Cette concentration de thématiques, de compétences et de volontés dans des espaces restreints a favorisé un véritable bouillon de culture permettant des échanges fertiles. Il contraste avec l’organisation physique des COP, où plusieurs milliers de participants se retrouvent dans une multitude de pavillons, souvent sur plusieurs bâtiments. L’espace y est alors divisé entre zone bleue, réservée aux délégations nationales, aux organismes onusiens et aux ONG observatrices, et où se déroulent les négociations officielles de la COP28, et zone verte, ouverte à toutes les autres parties prenantes.




À lire aussi :
Les coulisses des négociations de la COP28 vues par un enseignant-chercheur


Contrairement aux COP, où ce sont les délégations nationales qui débattent (les discussions relatives à l’état de la science, par exemple, se déroulent à un autre moment, sous l’égide d’un organe subsidiaire, la conférence de Santa Marta a proposé une méthodologie transversale, impliquant en amont 15 groupes de travail transnationaux. Une grande hétérogénéité a caractérisé l’ensemble de ces groupes, allant des représentants des sciences à ceux de la société civile, en passant par les entités publiques à différentes échelles, ainsi que des agences de financement ou des entreprises multinationales.

Au cours des deux mois qui ont précédé la rencontre, ces derniers ont planché sur trois enjeux fondamentaux : la dépendance structurelle aux combustibles fossiles, l’action sur l’offre et la demande et les modalités de la coopération internationale et de la diplomatie climatique.

Répartition des groupes de travail en amont de la conférence de Santa Marta (Colombie).
Fourni par l’auteur

Malgré la diversité de statuts et d’intérêts des participants à ces groupes de travail, un certain nombre de points de convergence sont apparus :

  • les progrès réalisés par les alternatives aux fossiles sont irréversibles,

  • il est indispensable de mettre fin aux soutiens fiscaux et juridiques à l’extraction des combustibles,

  • pour y parvenir, la concertation et la dialogue sont essentiels.

Remettre la science au centre, sans oublier les savoirs autochtones

À Santa Marta, la science a gardé un rôle fondamental, acté à la fin de la conférence par l’instauration d’un conseil spécifique. Sa fonction est de nourrir les processus de décision, à partir de connaissances élaborées de façon rigoureuse. Lors de la conférence, les participants ont exprimé leur foi dans une politique fondée sur les preuves (evidence based policy). Elle confère une responsabilité majeure à la communauté scientifique.

Mais, en parallèle, cette communauté est aussi de plus en plus sollicitée pour s’ouvrir à d’autres modes de connaissances (traditionnelles/ancestrales, locales…). D’aucuns verraient dans cette coopération des contradictions insurmontables, du fait d’une incompatibilité irréductible des savoirs. Mais dans les faits, ce cheminement commence déjà à porter ses fruits.

L’hétérogénéité de la participation des corps sociaux à la conférence a ainsi permis d’introduire de véritables porte-paroles des entités naturelles. Au-delà des chercheurs, régulièrement convoqués pour en expliquer les comportements et la dégradation, elles ont également mis à l’honneur les communautés indigènes, paysannes ou afro-descendantes

Le mariage cognitif entre ces savoirs hétérogènes requiert toutefois un travail transépistémique. Les épistémies varient considérablement entre celles fondées sur le scepticisme organisé (les disciplines scientifiques) et celles recourant aux explications traditionnelles parfois d’ordre religieux, qui font intervenir des entités spirituelles, par exemple. Pourtant, des convergences notables existent, notamment pour ce qui est de la conscience écologique, susceptibles d’influencer les positions politiques qui en découlent.

Malgré tout, une certaine hiérarchie a pu perdurer durant la conférence entre ces acteurs de la diversité culturelle et ceux de la gouvernance, inscrite dans la division successive des séquences (académique, société civile puis représentation gouvernementale) et leur degré d’exclusivité. Mais la tendance à l’ouverture et à l’inclusion manifeste plus qu’un changement idéologique : c’est aussi une modification (partielle mais réelle) des références objectives.

On retrouve en effet, dans la nouvelle diplomatie climatique portée à Santa Marta, une « esquisse du Parlement des choses », telle que décrite par Bruno Latour en 2018. Elle consiste à revoir les rôles attribués au politique, à l’expertise et à la technocratie, et où ce ne serait plus seulement les humains qui auraient le droit d’être représentés.

Ce concept pose de nouvelles questions au droit et à l’économie politique internationale. Un ouvrage à paraître prochainement, issu d’un projet européen et latino-américain sur la transition écologique auquel j’ai collaboré, entame la remise en question de la conception de la géopolitique centrée sur l’humain.

Vers une nouvelle géopolitique climatique ?

Les efforts déployés à Santa Marta ont transcendé les clivages nationaux, mais aussi nord-sud, d’une certaine manière. Avec une présidence bicéphale eurolatino (colombo-néerlandaise), et euro-océanique pour la prochaine conférence qui sera co-organisée par l’Irlande et Tuvalu, le grand partage manichéen des responsabilités historiques de l’empreinte écologique (qui, historiquement, est un point d’achoppement des COP climat) n’a, certes, pas été complètement effacé. Il a toutefois été adouci par le cadrage de la conférence sur la recherche de solutions.

Toutes les régions du monde étaient représentées, avec une majorité relative de l’Europe (plus d’un tiers des pays officiellement présents), suivie de l’Amérique latine, puis de l’Asie, de l’Afrique et de l’Océanie. Aucun des grands pays à prétention hégémonique n’était invité – ni les États-Unis, ni la Chine, ni la Russie – et le seul des grands émergents à participer était le Brésil.

En janvier 2026, le premier ministre canadien Mark Carney évoquait justement un tel modèle à l’occasion du Forum économique de Davos : celui où la volonté des pays intermédiaires permettrait de construire et de viabiliser des coalitions alternatives, face à l’imposition unilatérale de l’hyperpuissance.

Déclaration du premier ministre canadien Mark Carney, lors du Forum de Davos, en janvier 2026.

Mais la vision de la conférence de Santa Marta s’affirme et se distingue sur au moins deux points :

  • le premier concerne l’importance accordée au Sud global,

  • et le deuxième, l’irruption des non-humains dans le champ de la géopolitique.

Même si la prégnance du Nord demeurait dans les coordinations, la composition de l’assistance lors des réunions privilégiait naturellement la participation de ressortissants du Sud. Les sujets abordés reflétaient des enjeux qui les concernent au premier chef, puisque les impacts écologiques actuels les affectent en priorité. En mettant le Sud au cœur des débats, une telle rencontre participe du rééquilibrage de ces derniers et renouvelle la façon de les aborder.

Avec ce renouvellement de la contradiction à son endroit, le négationnisme climatique (qui peut, on l’a vu avec la sortie des États-Unis de l’accord de Paris, trouver des relais à l’échelle des États) a de fortes chances d’être progressivement confronté à un isolement accru. Ses velléités d’entraînement ont fait long feu à Belém, où aucun pays n’est sorti de l’accord de Paris. Elles pourraient se voir débordées par des initiatives telles que celles explorées à Santa Marta, qui a aussi voulu anticiper ses effets pervers. Des mécanismes ont ainsi été envisagés pour contrer l’augmentation de la demande d’hydrocarbures que pourrait générer une baisse des prix du fait de la croissance des énergies renouvelables.

La crise économique mondiale causée par les tensions sur l’approvisionnement en pétrole passant par le détroit d’Ormuz rappelle, dans tous les cas, l’urgence d’accélérer la transition énergétique.

The Conversation

Jean-Baptiste Meyer a reçu des financements de son institut l’IRD.

ref. Conférence de Santa Marta : les nouvelles pistes de la diplomatie climatique qui émergent hors des COP climat – https://theconversation.com/conference-de-santa-marta-les-nouvelles-pistes-de-la-diplomatie-climatique-qui-emergent-hors-des-cop-climat-282288

Hacker la bombe ? Ce que l’IA Mythos révèle du pari de la dissuasion nucléaire

Source: The Conversation – France in French (3) – By Thomas Fraise, Postdoctoral research fellow, University of Copenhagen; Sciences Po

Claude Mythos est une intelligence artificielle de pointe, développée par la société Anthropic, dont les capacités avancées en cybersécurité offensive suscitent autant de fascination que d’inquiétude. Gguy/Shutterstock

L’apparition de l’IA Mythos, présentée comme capable de détecter rapidement des failles informatiques majeures, montre que les capacités offensives dans le cyberespace progressent très vite. Cette évolution pourrait rendre les systèmes nucléaires plus vulnérables et augmenter le risque d’erreurs, de sabotage ou d’escalade accidentelle.


En 1983, le film WarGames imaginait un adolescent qui, entré par accident dans un système informatique du Pentagone, déclenchait un programme de simulation, lequel était interprété comme un prélude à une guerre nucléaire. Le film avait tant marqué Ronald Reagan qu’il avait interrogé ses conseillers sur la possibilité d’une telle intrusion dans les systèmes américains les plus sensibles. Une semaine plus tard, la réponse était venue : « Monsieur le Président, le problème est bien plus grave que vous ne le pensez. »

Les politiques autour de l’armement nucléaire reposent sur une série de paris, souvent lointains, sur l’avenir de la dissuasion nucléaire. D’abord, les pays dotés de l’arme nucléaire considèrent que la peur de leur riposte suffira toujours à empêcher un adversaire de les attaquer en premier, et qu’ils disposeront toujours de l’expertise et de la chance nécessaires pour prévenir des explosions accidentelles. Ils estiment donc que la possession de l’arme nucléaire sera pour eux, au cours des décennies à venir, source de sécurité et non d’insécurité.

Or, comme nous le montrons avec mes collègues Sterre van Buuren et Benoît Pelopidas, il existe plusieurs scénarios futurs plausibles dans lesquels posséder des armes nucléaires engendrera plus de coûts réels que de bénéfices potentiels dans un monde où la température aura augmenté de plusieurs degrés. Maintenir un arsenal crédible et sûr exigera de faire des choix budgétaires, au détriment d’autres dépenses rendues urgentes par la crise climatique. L’univers des risques existentiels pour un Etat, qui pourrait justifier l’usage de l’arme nucléaire, peut aussi s’élargir. Des experts s’inquiètent que des risques de pénurie d’eau au Pakistan et en Inde ne deviennent un terrain fertile pour un conflit menant à une escalade nucléaire.L’univers des risques existentiels pour un État, qui pourrait justifier l’usage de l’arme nucléaire, peut aussi s’élargir. Des experts s’inquiètent que des risques de pénurie d’eau au Pakistan et en Inde ne deviennent un terrain fertile pour un conflit menant à une escalade nucléaire.

Mais il existe un autre pari, bien plus implicite : celui que les arsenaux nucléaires, qui sont des systèmes technologiques complexes et hautement digitalisées, ne possèdent aucune vulnérabilité cyber qui pourrait être exploitée par un acteur souhaitant empêcher son fonctionnement normal.

La récente percée de l’intelligence artificielle Mythos révèle à quel point les conditions de ce pari peuvent changer sur le long terme.

Mythos et l’avenir de la cybersécurité

Le 7 avril 2026, la compagnie Anthropic – qui commercialise la série de grands modèles de langages (LLM) Claude – annonçait la création de son nouveau modèle d’intelligence artificielle (IA) : « Mythos ». Ce modèle, qui n’a pas été mis sur le marché mais rendu disponible à un groupe de travail restreint composé d’une douzaine des principaux géants américains de la technologie (Google, Microsoft, Apple, NVidia, Amazon Web Services, etc.), obtiendrait un taux de succès sans précédent en matière de détection des failles dans les systèmes informatiques.

Mythos aurait ainsi été capable de détecter, avec un impressionnant taux de succès, des failles « zero-day » dans différents navigateurs informatiques, logiciels ou systèmes d’exploitation. Une faille « zero-day » est une faille de sécurité critique dans un système d’information, contre laquelle aucune protection n’existe pour l’instant, rendant ainsi possible une attaque laissant un délai de « zéro jour » pour réagir. Selon Anthropic, Mythos aurait réussi à développer en un temps record (sans doute moins d’une journée) des méthodes permettant d’exploiter ces failles avec un taux de succès de 72,4 %, largement supérieur aux autres modèles existants.

Si ces informations proviennent de la compagnie elle-même – qui a tout intérêt à exagérer les résultats –, certaines preuves publiques ont toutefois été apportées. Sylvestre Ledru, le directeur de l’ingénierie chez Mozilla responsable du navigateur Firefox, a déclaré que Mythos avait permis de découvrir un nombre « proprement hallucinant » de vulnérabilités dans leurs logiciels. Une faille de sécurité vieille de près de vingt-sept ans, ayant survécu à un grand nombre d’audits, a par exemple été découverte dans un système d’exploitation libre très utilisé par des services de sécurité informatique, OpenDSB.

Mythos révèle un problème de fond : l’augmentation des capacités offensives – non seulement des États, mais aussi d’acteurs privés comme des cybercriminels – dans le cyberspace risque d’être accélérée par le développement de l’IA, et une incertitude émerge quant à la capacité des acteurs défensifs à réagir suffisamment vite pour corriger les vulnérabilités existantes.

Même dans le cas où Mythos ne serait pas à la hauteur des performances annoncées, le développement des LLM depuis le début des années 2020 a montré à quel point leurs performances s’améliorent vite. Nous faisons donc face à une accélération du développement des capacités offensives et de la diffusion de celles-ci à un nombre d’acteurs plus large. Cela signifie une potentielle tendance à la hausse de la probabilité de succès d’une cyberattaque, ainsi qu’une augmentation du nombre absolu de ces attaques.

La vulnérabilité des arsenaux nucléaires

Pour comprendre la vulnérabilité des armes nucléaires aux cyberattaques, il faut avoir à l’esprit le fait que par « arsenal nucléaire », on entend bien plus qu’un stock de têtes nucléaires. Le fonctionnement normal des arsenaux nucléaires modernes repose sur une large configuration de technologies : têtes nucléaires, missiles permettant de transporter ces armes, technologies de communication (permettant d’assurer que l’ordre soit transmis depuis le président jusqu’à l’opérateur chargé d’actionner ces armes), ainsi qu’un ensemble de technologies d’alerte avancée servant à surveiller le ciel à la recherche de potentiels signaux d’une attaque nucléaire adverse. Ces éléments doivent être capables de communiquer entre eux pour assurer le contrôle de ces armes.

Et ils sont plus nombreux qu’on pourrait le penser. Comme le note Herbert Lin, chercheur à l’Université de Stanford et auteur d’une étude sur les cybermenaces contre les armes nucléaires, la métaphore du « bouton nucléaire » est simplifiée : une fois que le président appuie dessus, un ensemble de « cyber-boutons » doivent être pressés pour déclencher les opérations nucléaires, et les contrôler – autant d’échelons où des attaques informatiques pourraient s’insérer pour empêcher, par exemple, l’arrivée de l’information pertinente.

Le président pourrait ne pas recevoir suffisamment d’informations – ou ne pas en recevoir du tout – pour déterminer qu’une attaque est en cours. Ou alors, il pourrait ne pas être en mesure de communiquer à ses forces sous-marines l’ordre de tir. Pis, on pourrait voir se réaliser le scénario catastrophe imaginé depuis les années 1950 : un faux ordre de tir pourrait être communiqué aux opérateurs de missiles.

Les scénarios n’ont pas besoin d’être aussi radicaux : l’ordre pourrait être communiqué, mais avec un retard, ou ne pas être communiqué à l’ensemble des forces, menant à une riposte moindre que celle désirée. Ladite riposte pourrait être bloquée : en 2010, un centre de commandement américain a perdu la communication avec une cinquantaine de missiles nucléaires pendant près d’une heure. Un adversaire pourrait savoir tirer profit de telles failles.

Alternativement, une cyberattaque d’ampleur menée par des acteurs non étatiques pourrait créer l’impression qu’un adversaire cherche à s’en prendre à notre arsenal nucléaire, créant un risque d’escalade par « inadvertance ».

On peut aussi imaginer des actions cyber contre les armes elles-mêmes, le hardware plutôt que le software de l’arsenal. Bien sûr, les acteurs de la sécurité nucléaire ne se contentent pas d’attendre qu’une attaque survienne sur l’un de ces systèmes. Ils développent et testent leurs capacités défensives de manière continue. Le problème est que la complexité des systèmes existants ne permet pas d’affirmer avec certitude qu’il n’existe « aucune vulnérabilité ».

C’est James Gosler, ancien responsable de la sécurité informatique des systèmes nucléaires américains au sein du laboratoire Sandia, qui l’affirme : à partir des années 1980, du fait de la complexification exponentielle des composants internes aux armes nucléaires, « vous ne pouvez désormais plus affirmer que l’ensemble des microcontrôleurs (destinés à assurer le fonctionnement du mécanisme déclenchant l’explosion) sont invulnérables ».

Cela ne signifie pas non plus que des vulnérabilités existent nécessairement. Mais cela veut dire qu’aucun acteur n’est en mesure de savoir s’il y en a. Alors, faut-il craindre que l’arsenal nucléaire français, ou bien n’importe quel autre arsenal ciblant la France, soit « hacké » dans le futur ?

En fait, on ne sait pas. Des scénarios de ce type sont de l’ordre du possible : il n’existe pas de large système d’information complexe dont on puisse garantir, avec une totale certitude, la fiabilité totale. L’évolution des outils permettant des cyberattaques, et leur potentielle diffusion auprès d’un large nombre d’acteurs étatiques et non étatiques, rend ce type de scénario futur potentiellement plus probable et, dans tous les cas, plausible.

Un nouveau pari sur le futur

Mythos met en lumière une nouvelle modalité du pari nucléaire, née du développement des nouvelles technologies et de leur intégration aux arsenaux nucléaires.

Nous parions d’abord sur l’absence de vulnérabilité au sein de ces systèmes – alors même qu’il est impossible de mesurer cette probabilité avec certitude. Elle évolue avec le temps, au rythme des systèmes mis à jour, remplacés, connectés à d’autres. Si une vulnérabilité existe malgré tout, nous parions ensuite sur le fait que, en temps voulu, l’évolution des capacités offensives dans le cyberespace sera constamment égalée, et toujours à temps, par l’évolution des capacités défensives – y compris à l’ère de l’intelligence artificielle. Là encore, cette probabilité est elle aussi indéterminable, puisque le développement de capacités défensives est réactif : il se fait en fonction de la connaissance que l’on a de la nature des capacités offensives et des vulnérabilités existantes, qui sont indéterminables. On fait donc le pari que nos défenses, et celle des autres États dotés d’armes nucléaires, suffiront.

Nous faisons donc le pari que nos défenses contre les cyberattaques, et celle des autres États dotés d’armes nucléaires, seront suffisantes. Dans le cas contraire, alors on fait le pari que la chance sera de notre côté et que les vulnérabilités existantes ne seront pas détectées – comme celle qui existait depuis 27 ans dans le code d’OpenDSB. Il s’agit d’un pari sur la chance puisque dans ce scénario, c’est l’incapacité ou l’absence de volonté adverse, sur laquelle nous n’avons aucun contrôle, à développer des capacités efficaces qui nous sauve.

La capacité des pratiques existantes de contrôle à remplir leur tâche est rendue plus incertaine par l’arrivée de grands modèles d’IA capables de détecter des vulnérabilités et concevoir des cyberattaques de façon massive et automatisée. Faire le choix d’une politique de sécurité fondée sur les armes nucléaires revient à parier sur le fait que, dans le futur comme par le passé, la chance restera toujours de notre côté.

The Conversation

Ce travail a été financé par le Conseil Européen de la Recherche (ERC) au titre du programme-cadre de l’Union européenne pour la recherche et l’innovation Horizon Recherche (projet RITUAL DETERRENCE, convention de subvention n°101043468).

ref. Hacker la bombe ? Ce que l’IA Mythos révèle du pari de la dissuasion nucléaire – https://theconversation.com/hacker-la-bombe-ce-que-lia-mythos-revele-du-pari-de-la-dissuasion-nucleaire-281557

Biais de la recherche médicale : l’Afrique absente des essais cliniques

Source: The Conversation – in French – By Bamba Gaye, MD, MPH, MSc, PhD, Executive Director, Alliance for Medical Research in Africa (AMedRA) | Adjunct Professor at Biomedical Informatics, Emory School of Medicine in Atlanta, Georgia, USA |, Université Cheikh Anta Diop de Dakar

La médecine moderne se targue d’être une science universelle, fondée sur les données issues des essais cliniques.

Mais il existe un biais dans la recherche médicale. Alors que l’Afrique représente environ 25 % de la charge de morbidité du monde et 19 % de la population mondiale. Pourtant, sa population est largement absente des essais cliniques.

L’ampleur de cette exclusion est révélée par une étude phare portant sur 2 472 essais contrôlés randomisés publiés dans le monde entier entre 2019 et 2024.

J’ai dirigé cette équipe de chercheurs, qui a passé au crible les publications médicales les plus influentes dans le monde monde afin de quantifier la représentation africaine. Parmi celles-ci figuraient le New England Journal of Medicine, The Lancet, le Journal of the American Medical Association, Nature Medicine et le British Medical Journal. L’étude portait également sur trois revues de référence en cardiologie : Circulation, l’European Heart Journal et le Journal of the American College of Cardiology.

Je suis médecin-chercheur et je travaille à la croisée de l’épidémiologie cardiométabolique et de la science des données biomédicales. Je me consacre également aux études de population à grande échelle en Afrique et à la prévention cardiovasculaire fondée sur les données.

Les essais cliniques randomisés constituent la pierre angulaire de la médecine factuelle. Introduits au milieu du XXe siècle, ils évaluent rigoureusement la sécurité et l’efficacité des traitements en répartissant aléatoirement les participants dans différents groupes. Cette méthode vise à minimiser les biais. De tels essais ont joué un rôle central dans les avancées médicales majeures, des thérapies cardiovasculaires aux vaccins. Ils continuent de guider les décisions cliniques et le développement de nouveaux traitements à travers le monde.




Read more:
Accords sanitaires Afrique–États-Unis : les alertes d’un virologue


Ce que nous avons découvert

Nos résultats révèlent un profond déséquilibre dans le paysage mondial de la recherche clinique. Parmi les cinq revues médicales les plus prestigieuses dans le monde, seuls 3,9 % des essais ont été menés exclusivement en Afrique. En matière de santé cardiovasculaire, ces chiffres tombent à un niveau statistiquement insignifiant. Parmi les essais majeurs publiés dans les principales revues de cardiologie, seules deux études (0,6 %) ont été menées uniquement sur le sol africain.

C’est un problème de fiabilité scientifique. Lorsque les essais cliniques excluent les populations africaines, ils produisent des données qui manquent de « validité externe ». Cela fait référence à la capacité des résultats d’une étude à être généralisés au-delà des participants. La question est de savoir si les conclusions d’un essai clinique resteront valables lorsqu’elles seront appliquées à des populations, des contextes ou des conditions réelles différents.

Sans cette validité, les médecins appliquent des résultats incertains à des millions de patients chaque jour.

La médecine moderne ne peut prétendre être universelle si des populations entières restent invisibles dans la base de données probantes. La biologie, les systèmes de santé et les schémas épidémiologiques ne sont pas identiques partout dans le monde.




Read more:
Protocole d’accord avec les États-Unis : le Sénégal teste un nouveau modèle de financement de la santé


Le fossé et son importance

De nombreux traitements utilisés sur le continent reposent sur des données générées auprès de populations non africaines, ce qui soulève des inquiétudes quant à leur applicabilité.

De plus, la plupart des essais menés en Afrique se concentrent encore sur les maladies infectieuses, malgré le fardeau croissant des maladies non transmissibles telles que les maladies cardiovasculaires.

De nouvelles données montrent que la génétique, l’environnement et l’alimentation peuvent modifier radicalement la façon dont un organisme réagit à un médicament. Il n’est donc pas logique, d’un point de vue médical, qu’un continent entier soit exclu du réseau des essais cliniques.

Il existe également des preuves montrant que certains traitements présentent des profils de sécurité différents chez les patients noirs. Le diabète et la goutte n’en sont que deux exemples. Il en va de même pour certains médicaments courants contre l’hypertension, tels que les inhibiteurs de l’enzyme de conversion de l’angiotensine (ECA). Des recherches montrent qu’ils présentent un risque trois à quatre fois plus élevé d’effets secondaires graves et potentiellement mortels chez les personnes d’origine africaine par rapport aux autres populations.

Lorsque les essais cliniques excluent certaines populations, les médecins sont contraints d’extrapoler les résultats obtenus sur une population et de les appliquer à une autre.

L’étude met également en évidence un décalage dangereux entre le financement mondial de la recherche et l’évolution de la réalité sanitaire en Afrique. Les nouvelles données montrent que près de 76 % des essais menés exclusivement en Afrique portaient sur des maladies infectieuses. Or, le continent connaît actuellement une transformation épidémiologique majeure. Les maladies non transmissibles – maladies cardiaques, accidents vasculaires cérébraux et diabète – représentent désormais environ 38 % de tous les décès dans de nombreux pays africains.

La classe moyenne en Afrique a triplé pour atteindre 300 millions de personnes, contre environ 100 millions au début des années 2000. De plus en plus de personnes vivent désormais suffisamment longtemps avec des modes de vie qui augmentent le risque de maladies chroniques telles que les maladies cardiaques, le diabète et l’hypertension. Par conséquent, il existe un besoin et un marché croissants pour des traitements à long terme permettant de prendre en charge ces maladies, plutôt que pour des thérapies à court terme contre les infections. Pourtant, les essais cardiovasculaires continuent d’être découragés.

Même au sein du continent, les données révèlent de véritables zones d’ombre en matière d’information. L’Afrique du Sud représente plus de 62 % de tous les essais menés sur le continent. L’Afrique centrale, une région qui compte plus de 180 millions d’habitants, était pratiquement absente des registres mondiaux de la recherche. Elle a contribué à moins de 3 % de la production limitée d’essais cliniques du continent.

Parmi les raisons possibles, on peut citer les décennies d’investissements cumulés de l’Afrique du Sud, qui se traduisent par des pôles universitaires plus solides, une meilleure gouvernance de la recherche, des unités d’essais expérimentées et des relations plus établies avec les promoteurs. D’autres régions sont confrontées à des obstacles tels que des institutions de recherche disposant de moins de ressources, un accès plus limité aux plateformes d’essais cliniques, et parfois des problèmes linguistiques et de publication qui peuvent réduire leur visibilité dans les revues de premier plan.

Cette inégalité s’étend à la hiérarchie scientifique elle-même. Même lorsque des sites africains sont inclus dans de grands essais cliniques multiconinentaux, ils sont souvent relégués au rôle de « centres de recrutement » plutôt qu’à celui de partenaires scientifiques.

Notre étude a révélé que les scientifiques africains ne dirigeaient que 3,6 % des essais sur plusieurs continents incluant un site africain.




Read more:
L’Afrique perd ses professionnels de santé au pire moment : les racines coloniales d’une crise


Vers une nouvelle ère pour la science africaine

L’Afrique ne devrait pas se contenter d’être un simple lieu où l’on mène des études.

Elle doit être un lieu où la recherche est conçue, dirigée et interprétée. Le modèle actuel crée un cycle de dépendance vis-à-vis de l’extérieur, dans lequel les institutions internationales gèrent le financement et les données. Cela rend les systèmes de recherche locaux fragiles et incapables de traduire les données probantes en politiques nationales.

Il est nécessaire de mettre en place un financement « réservé » pour la recherche dirigée par des Africains, de développer des réseaux régionaux d’essais cliniques et d’imposer aux revues médicales de rendre compte de la diversité des populations participant aux essais.

Des signes indiquent une dynamique croissante. Des organisations telles que l’Alliance pour la recherche médicale en Afrique s’efforcent de former une nouvelle génération de chercheurs africains. L’Afrique doit créer un écosystème de recherche trop important pour que la communauté internationale puisse l’ignorer.

The Conversation

Bamba Gaye, MD, MPH, MSc, PhD does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Biais de la recherche médicale : l’Afrique absente des essais cliniques – https://theconversation.com/biais-de-la-recherche-medicale-lafrique-absente-des-essais-cliniques-282184

Studio Ghibli y la magia de aprender a mirar

Source: The Conversation – (in Spanish) – By Luis López Vecino, Profesor asociado del Grado en desarrollo de aplicaciones 3D interactivas y videojuegos, Universidad de Salamanca

Imagen de _Mi vecino Totoro_, de Studio Ghibli. Studio Ghibli

El reciente Premio Princesa de Asturias de Comunicación y Humanidades ha recaído en Studio Ghibli “por haber transformado excepcionalmente la creatividad en conocimiento y comunicación”.

El galardón sirve para recordar algo que muchos espectadores ya sabían desde hace años: que sus películas no son solo historias bonitas, sino una forma distinta de mirar el mundo. A lo largo de décadas, el estudio de animación japonés ha creado un imaginario propio que ha marcado a varias generaciones, no tanto por lo que cuenta sino por cómo lo cuenta.

La fantasía como herramienta

La obra de Hayao Miyazaki, director, cofundador de Ghibli y probablemente su nombre más conocido, es una manera de hacer cine donde la fantasía no es evasión, sino una herramienta para entender mejor la realidad. Sus historias funcionan con una lógica más abierta, más intuitiva. No hace falta entenderlo todo para sentir que ese mundo es real. Una de las claves de ese estilo está en cómo construyen sus mundos.

En Mi vecino Totoro, por ejemplo, la historia de una familia que, en el Japón de la posguerra, comienza a interactuar con una criatura, nadie explica qué o quién es Totoro ni de dónde viene. El personaje es tan ambiguo como real. Aparece, y lo aceptamos, bien sea una deidad sintoísta o una imaginación infantil. Forma parte del paisaje igual que los árboles y la casa familiar. Lo mismo sucede en El viaje de Chihiro, donde la protagonista, en medio de una mudanza, entra en un mundo lleno de normas extrañas que nunca se explican del todo. Y, sin embargo, lo aceptamos. Hay cosas que van más allá de la lógica.

Fotograma de una película de animación en la que un ente gigante con la cara cubierta con una máscara extiende la mano hacia una niña.
Fotograma del filme El viaje de Chihiro.
Studio Ghibli

La magia en Studio Ghibli tampoco funciona como en otras historias. No es un poder para dominar o vencer, sino una forma de relacionarse. En El castillo ambulante, la fortaleza móvil del título, en su inexplicable funcionamiento, sirve de representación física de la inestabilidad emocional y agente transformador de su dueño. En La princesa Mononoke o Nausicaä del Valle del Viento, lo fantástico está profundamente conectado con la naturaleza. Los dioses, los espíritus o los ecosistemas no son decorado: son el centro del conflicto.

Las películas del estudio hablan, una y otra vez, de la relación entre los seres humanos y su entorno. Pero lo hacen sin sermones. No hay discursos directos ni moralejas evidentes. Lo que hay es aprendizaje, personajes que se equivocan, que dudan, que intentan entender.

Por eso es tan importante el tipo de protagonistas que aparecen en estas historias. Muchas veces son niñas o jóvenes en proceso de crecimiento, como Chihiro o las hermanas Satsuki y Mei de Mi vecino Totoro. No son heroínas clásicas que salvan el mundo, sino personas que aprenden a habitarlo. Su fuerza no está en vencer, sino en comprender, en cuidar, en establecer vínculos.

Esa idea conecta con otra de las características más reconocibles del estudio: la importancia de lo cotidiano. En las películas de Ghibli, cocinar, limpiar, trabajar o viajar tienen tanto peso como cualquier elemento fantástico. No son momentos de transición, sino parte esencial de la historia. Gracias a eso, la magia no aparece como algo lejano. Está en los pequeños gestos, en los silencios, en la forma en que los personajes se relacionan con su entorno. Lo extraordinario no rompe lo cotidiano: convive con él.

Fotograma de una película animada en la que dos personajes cocinan en un fuego tradicional.
Cocinando en El castillo ambulante.
Studio Ghibli

El papel de los recuerdos

Pero no se puede hablar de Ghibli sin mencionar también la figura del director Isao Takahata, otro de los cofundadores, que aportaba una mirada muy distinta.

Si Miyazaki explora la realidad a través de la fantasía, Takahata se acercaba más a ella a través de los recuerdos y de la consciencia del pasado. Y lo hacía sin suavizarla. En La tumba de las luciérnagas, la Segunda Guerra Mundial se muestra sin épica ni heroicidad. Es una experiencia dura, cotidiana, que golpea especialmente a los más vulnerables. No hay victimismo, pero tampoco consuelo fácil; solo una mirada honesta sobre lo que la violencia provoca.

Esa sensibilidad aparece también en Recuerdos del ayer, donde Takahata convierte la memoria en el verdadero centro de la narración. La película no necesita grandes conflictos: le basta con observar cómo los recuerdos de la infancia moldean la identidad adulta de Taeko, su protagonista. Algo parecido ocurre en El cuento de la princesa Kaguya, quizá su obra más poética y estéticamente única, donde la belleza de la vida coexiste con la pérdida y la imposibilidad de detener el paso del tiempo.

Fotograma de una película de animación con una mujer arrodillada en una habitación japonesa con una niña arrodillada frente a ella.
Fotograma de El cuento de la princesa Kaguya.
Studio Ghibli

Películas que no se acaban

Esa convivencia entre lo fantástico y lo realista es lo que hace de Studio Ghibli algo único. No es solo un estudio de animación, sino un espacio donde distintas formas de entender el mundo dialogan entre sí.

En el caso de Miyazaki, su cine transmite una sensación de calma que a veces puede engañar. Sus películas son tranquilas, incluso luminosas, pero no necesariamente optimistas. En ellas hay conflictos que no se resuelven del todo, heridas que no desaparecen, como si fuesen un comentario directo a la realidad. Y, sin embargo, ahí está su fuerza. No ofrecen respuestas cerradas, sino formas de mirar, de estar en el mundo. Por eso, con el paso del tiempo, esos filmes no se agotan: siguen acompañando a quienes las ven porque dejan espacio para volver a ellas, para entenderlas de otra manera.

El reconocimiento a Studio Ghibli no premia solo una colección de películas inolvidables. Reconoce una forma de contar historias que apuesta por la sensibilidad, la empatía y la capacidad de asombro. En un momento en el que todo parece necesitar explicación, sus mundos nos recuerdan algo más simple e importante: que a veces basta con aprender a mirar.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


The Conversation

Luis López Vecino no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Studio Ghibli y la magia de aprender a mirar – https://theconversation.com/studio-ghibli-y-la-magia-de-aprender-a-mirar-282327

La lamprea aún vive en el Guadalquivir

Source: The Conversation – (in Spanish) – By Miguel Clavero Pineda, Científico titular CSIC, Estación Biológica de Doñana (EBD-CSIC)

La lamprea marina (Petromyzon marinus) se encuentra en declive en España, donde se considera una especie en peligro crítico de extinción. La situación es especialmente preocupante en los ríos sureños, en los que ha sido registrada muy pocas veces en las últimas décadas, hasta el punto de que prácticamente se la consideraba extinta en el río Guadalquivir. Hasta ahora.

Acabamos de capturar una lamprea adulta de casi un metro de longitud en la Rivera de Huelva, uno de los principales afluentes del Bajo Guadalquivir (posteriormente, fue liberada). El hallazgo pone de manifiesto la importancia de los pocos tramos fluviales que aún conservan la conexión con el mar, fundamentales para estos animales. También pone el foco sobre la necesidad de mejorar nuestro conocimiento sobre peces migradores, uno de los grupos de animales más amenazados en España y en todo el mundo.

Malos tiempos para ser un pez migrador

Los peces anádromos nacen en los ríos y tienen un periodo de crecimiento en el mar, por lo que necesitan moverse libremente entre ambos ambientes. Son particularmente sensibles a la fragmentación de ríos por la construcción de barreras (como presas y azudes), ya que el bloqueo de las rutas migratorias hace que pierdan el acceso a las zonas de reproducción.

En el Guadalquivir, la presa de Alcalá del Río, a pocos kilómetros aguas arriba de Sevilla y en funcionamiento desde 1931, hizo que la mayor parte de la cuenca perdiese la conexión con el mar. La peor parte de los impactos generados se la llevaron peces migradores como el sollo (Acipenser sturio), al que hoy llamamos esturión, y el sábalo (Alosa alosa).

En la década de 1970 la lamprea ya se consideraba una especie rara en el Bajo Guadalquivir. Los registros posteriores se cuentan con los dedos de la mano, el último de ellos en 2014.

Sin embargo, vecinos de Guillena, localidad situada a orillas de la Rivera de Huelva, nos contaron que en torno a 1980 podían pescarse muchas lampreas. Es por tanto probable que la escasez de registros de lamprea se deba, al menos en parte, a la falta de cultura culinaria asociada a la especie en el sur de España. De hecho, nos dijeron que las lampreas se solían coger por el simple gusto de la captura, porque “ese pez tan raro” no lo comían.

En el Bajo Guadiana sí existe una explotación comercial de la lamprea debido a su gran valor en la gastronomía portuguesa. Es por esto que, desde hace años, se dedican importantes esfuerzos a su estudio y monitorización, algo que no se hace en el Guadalquivir. Además, estas pesquerías dirigidas a la especie dan lugar a capturas más frecuentes y trazables.

Aún así, la lamprea también se ha convertido en un animal extraordinariamente escaso en el Bajo Guadiana, hasta el punto de que los pescadores portugueses se quejan de que ya casi no vale la pena salir a pescarla.

Un ciclo complejo

La vida de la lamprea sigue un ciclo fascinante. Los individuos reproductores, como el capturado en la Rivera de Huelva, remontan los ríos buscando lugares apropiados para el desove. Hacen nidos en zonas de arena, en los que eliminan las piedras, moviéndolas con su boca en forma de ventosa.

De las puestas nacen larvas que, rápidamente, se entierran en sedimentos arenosos, donde viven filtrando agua para alimentarse. Cuando acaba esa fase filtradora, que puede durar más de cinco años, las larvas sufren una metamorfosis durante la que, por primera vez, desarrollan ojos funcionales, una boca succionadora repleta de dientes córneos y una lengua raspadora.

Estas lampreas juveniles abandonan la arena y viajan al mar. Allí se alimentan como parásitos de otros peces, a los que se aferran con la ventosa que forma su boca. En el Mediterráneo se les ha visto alimentándose de peces tan grandes como el pez luna (Mola mola) o la manta de espina (Mobula mobular).

Después de entre dos y tres años de vida en el mar, las lampreas dejan de comer y emprenden su regreso a los ríos para reproducirse.

La reproducción de la lamprea nunca se ha descrito en la cuenca del Guadalquivir, pero el tramo en el que ahora la hemos detectado podría tener las condiciones necesarias para albergarla, por sus grandes lechos de arena y aguas permanentes. De hecho, puede haber sido un lugar tradicional de reproducción, pero nadie ha estudiado esta posibilidad. Lo que sí es evidente es que en toda la cuenca del Guadalquivir quedan pocos lugares, si es que queda alguno, tan adecuados para la reproducción de la especie.

Un tramo excepcional y amenazado

El tramo de la Rivera de Huelva que queda aguas abajo del embalse del Gergal, del que se toma el agua que abastece al área metropolitana de Sevilla, es excepcional por ser el principal ecosistema fluvial de la cuenca del Guadalquivir que aún mantiene contacto directo con el estuario y, a través de él, con el mar.

En ese tramo coexisten anguilas, llegadas del mar, y lisas (llamadas albures en la zona), que se mueven entre este, el estuario y el río, con especies típicamente fluviales como el barbo, el camarón de río y hasta tres especies de náyades –grandes y muy amenazadas almejas de agua dulce–.

Este es seguramente el tramo más importante en toda la cuenca del Guadalquivir para la conservación de los peces y otra fauna acuática. Pero las figuras de protección de ríos, como las Reservas Naturales Fluviales, suelen establecerse en zonas de montaña, protegiendo tramos de río de aguas limpias y bien oxigenadas, que recorren bonitos paisajes con pocos impactos. Pero eso no implica que sean los más importantes para la conservación de la biodiversidad.

A pesar de sus indudables valores, el tramo bajo de la Rivera de Huelva enfrenta numerosas amenazas, entre las que destacan una nutrida representación de especies invasoras. Una especialmente preocupante es el siluro (Silurus glanis), capaz de comerse los elementos más valiosos de esta zona, como la anguila y, ahora lo sabemos, la lamprea.

La porción de la Rivera de Huelva que queda accesible a los peces migradores podría no ser suficiente para garantizar su conservación o favorecer su recuperación en la cuenca del Guadalquivir. Lo que vemos hoy es un residuo ínfimo de lo que debía ser una frecuente y abundante presencia en ríos y arroyos, un escenario que ha desaparecido de la memoria colectiva.

El descubrimiento de la lamprea en el Guadalquivir es una buena noticia. Sería todavía mejor si empezáramos a recuperar para los peces migradores parte de la enorme cantidad de hábitat que les hemos quitado.

En la cuenca del Guadalquivir sería fundamental eliminar las barreras que forman las presas de Alcalá del Río y Cantillana, estructuras antiguas, pequeñas, con una exigua producción eléctrica, pero con un impacto gigantesco. Sin esas barreras, el tramo bajo de la Rivera de Huelva no sería tan excepcional y daríamos una oportunidad a varias especies de peces que están a punto de desaparecer, de los ríos y de nuestra memoria.

The Conversation

Miguel Clavero Pineda es investigador principal del proyecto CRAYMAP (PID2020-120026RB-I00), financiado por el Ministerio de Ciencia e Innovación, en el cuál se enmarca este trabajo

Sergio Bedmar Castillo es miembro del equipo del proyecto CRAYMAP (PID2020-120026RB-I00).

ref. La lamprea aún vive en el Guadalquivir – https://theconversation.com/la-lamprea-aun-vive-en-el-guadalquivir-282091

Donald Trump’s chaotic mess: When U.S. power serves the ‘sultan,’ global rules erode

Source: The Conversation – Canada – By Christopher Collins, Fellow, Geopolitics, Cascade Institute, Royal Roads University

Historically, the United States hasn’t always been easy to deal with, but it was consistent. Even countries that disagreed with American policies knew there was a logic underlying its actions, and this predictability gave the country some credibility.

But now, under U.S. President Donald Trump’s second administration, American foreign policy has become haphazard and contradictory, driven by a leader who believes his ability to exercise power around the world is constrained only by his own morality.

This is new and, for observers around the world, perplexing. As Canadian Prime Minister Mark Carney recently said: “Washington has changed. There is almost nothing normal now in the United States.”

Trump maelstrom

Some, like U.S. Vice President JD Vance, are labouring to erect a retroactive, pseudo-intellectual scaffolding around this chaotic mess, seeking to frame it as a coherent doctrine. But it’s become increasingly clear there’s no grand plan, just a Trumpian maelstrom of impulsive reactions, extractive transactions and personal grudges that shift with the news cycle.

To understand this political dysfunction, a German thinker from more than 100 years ago, Max Weber, offers a helpful guide.

Most famous today for his theory of “the Protestant work ethic,” Weber’s writing also explored the concept of “patrimonialism.”

This is a system of governance in which a ruler treats the state as personal property, governs by whim and uses the state’s resources to reward cronies and enrich family. Drawing largely on his understanding of the Ottoman Empire, Weber called the most extreme form of this system “sultanism.”

Reading Weber today, it seems the best description of how the U.S. engages the wider world could be termed “sultanism with American characteristics.”

Loyalty over experience

Consider Iran. Following the start of Operation Epic Fury, the Trump administration cycled through so many conflicting war aims that CNN was able to assemble a montage of the contradictions.

Senior administration officials worked feverishly to build a strategy around the operation, but it soon became clear that this “war of choice” was started based on little more than the president’s whim.




Read more:
Vietnam ruined Lyndon B. Johnson’s political career. Will Donald Trump face the same fate over Iran?


Weber’s framework extends to the people around Trump. In sultanistic systems, staff are selected based on loyalty, not merit, and serve the ruler, not the state.

As Weber wrote, this leads to “an administration and a military force which are purely personal instruments of the master.”

We see this pattern vividly illustrated by the Trump administration’s approach to staffing senior roles, including those leading high-stakes diplomatic negotiations.

Look at Steve Witkoff, a real estate developer and longtime Trump friend with no foreign policy experience, who has served as the administration’s lead envoy on some of the most sensitive negotiations in the world.

Or Jared Kushner, the president’s son-in-law, who, despite having no background in foreign policy, was entrusted with key roles in Middle East diplomacy, while his investment firm pursues deals with the same Gulf states he is negotiating with on behalf of his country.

Serving the sultan

These are not appointments that a merit-based system would produce. But right now in America, officials serve the sultan, not the republic, which is why their speeches are regularly given for an “audience of one.”

Furthermore, in seeking the sultan’s favour, appointees regularly debase themselves on television, such as when Kevin Warsh, Trump’s pick to be the next head of the Federal Reserve, refused to admit Trump lost the 2020 election.

This sultanistic pattern of rewarding loyalty and punishing defiance is expanding. Federal disaster relief, long treated as a non-partisan obligation of the government, has become a stark illustration of this logic.

Since the start of his second term, Trump has approved just 23 per cent of disaster funding requests from blue states, compared to 89 per cent for red states. In some cases, the conditionality for disaster aid has been made explicit: for example, in 2025, as fires ravaged Los Angeles, Trump threatened to withhold aid unless California enacted voter ID laws — a condition with no relationship to disaster recovery.

This fear of punishment also helps explain why, fearing for their businesses, many media companies are bowing to “the court of King Trump.”

‘Orgy of corruption’

Finally, Weber’s framework sheds light on what may be the most defining feature of the Trump administration: a blurring of the lines between public office and private enrichment. Under sultanism, the distinction between the ruler’s personal wealth and the state’s treasury is, at best, notional.

Trump and his team have governed accordingly, with perhaps the most egregious example being hundreds of millions of dollars of insider trading around the Iran war. In a healthy democracy, this “orgy of corruption” would be investigated and prosecuted. But in a patrimonial system this is simply how things work: the state exists to serve the ruler and his inner circle.

This is what the world must now manage. A sultanistic system does not respond to appeals to shared values or long-standing agreements. It responds to leverage, personal relationships with the ruler and transactional incentives.

Policymakers and business leaders increasingly understand they are dealing with a court that rewards fealty and punishes defiance. That’s why the Swiss gave Trump a gold bar in exchange for lower tariffs, and why the Qataris gave him a “palace in the sky.”

In 2026, appeals to shared democratic values or common national interests are pointless; bring the sultan something he wants or face punishment. Weber helps explain why.

The Conversation

Christopher Collins does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Donald Trump’s chaotic mess: When U.S. power serves the ‘sultan,’ global rules erode – https://theconversation.com/donald-trumps-chaotic-mess-when-u-s-power-serves-the-sultan-global-rules-erode-281941

Dissuasion algorithmique, rétention : l’IA fait-elle passer la cybersécurité à une nouvelle ère ?

Source: The Conversation – France in French (2) – By Christine Abdalla Mikhaeil, Assistant professor in information systems, IÉSEG School of Management

L’entreprise états-unienne Anthropic, spécialisée en intelligence artificielle générative, a pris début avril la décision de geler la diffusion publique de l’un de ses modèles récents, baptisé « Mythos ».

Selon un communiqué de la société, cette décision découle d’une puissance de calcul et d’une capacité de raisonnement jugées trop « offensives ». Anthropic a choisi de ne partager son modèle qu’avec une coalition de géants technologiques (Apple, Amazon Web Services, Cisco, Google, Microsoft, etc.) dans le cadre du projet Glasswing. Le but annoncé est d’utiliser Claude Mythos Preview pour détecter des vulnérabilités dites « zero-day » (c’est-à-dire inconnues et n’ayant aucun correctif connu) et sécuriser proactivement les logiciels critiques… avant que des acteurs malveillants n’exploitent ces failles.


Les grands modèles de langage savent déjà coder depuis quelques années, mais la presse spécialisée documente désormais un saut plus préoccupant. Des systèmes d’intelligence artificielle (IA) peuvent identifier des vulnérabilités réelles dans des logiciels critiques. Les autorités, comme l’Agence nationale de la sécurité des systèmes d’information (Anssi), soulignent la capacité des systèmes d’IA à automatiser les attaques.

Les enjeux de la diffusion massive de tels modèles, Mythos compris, dépassent largement le cadre technique. Une cyberattaque d’envergure, automatisée par une IA, pourrait paralyser des systèmes financiers ou logistiques en quelques secondes, avec un coût de remédiation se chiffrant en milliards d’euros. Les enjeux sont aussi sociétaux et de santé, puisque nos hôpitaux, nos réseaux énergétiques et les autres systèmes critiques reposent sur des couches logicielles souvent anciennes, vulnérables à des « attaques de zero-day » désormais générées à la chaîne.

Dans ce contexte, des IA ultraperformantes, comme Mythos, peuvent-elles contribuer à une forme de « dissuasion algorithmique » ? Celle-ci repose sur un principe simple : détecter et neutraliser ses propres vulnérabilités critiques plus vite que n’importe quel attaquant humain ou automatisé – y compris lors d’une attaque – si rapidement que l’attaque en devient inutile ou trop coûteuse.

La rétention de ce modèle par une ou des entreprises privées états-uniennes rouvre également la question de la souveraineté numérique à l’échelle mondiale.

Les systèmes d’IA facilitent les cyberattaques

Historiquement, la cybersécurité repose sur une asymétrie fondamentale : l’attaquant n’a besoin de trouver qu’une seule faille de sécurité, tandis que le défenseur doit toutes les combler dans une forme de course contre la montre.

L’intégration de systèmes d’IA renforce les capacités des attaquants, en premier lieu parce qu’un modèle comme Mythos peut scanner des millions de lignes de code en quelques minutes, là où un humain passait des semaines à analyser le code source d’un logiciel pour y déceler une erreur de mémoire. C’est ce que l’on appelle l’« automatisation de la reconnaissance ».

De plus, l’IA permet le phishing de haute précision, c’est-à-dire des messages frauduleux (le phishing classique) mais plus crédibles, sans fautes d’orthographe, dans n’importe quelle langue et ultrapersonnalisés pour tromper l’utilisateur. L’Anssi alerte d’ailleurs sur l’usage de l’IA générative pour briser les barrières linguistiques et psychologiques traditionnelles qui rend les « pare-feux humains » – c’est-à-dire la vigilance et l’esprit critique des lecteurs – de plus en plus obsolètes.

Enfin, des malwares peuvent désormais réécrire leur propre code en temps réel pour échapper à la détection « par signature ». Cette méthode classique des antivirus consiste à identifier un virus par son « empreinte » (un code déjà connu et répertorié). En changeant constamment de forme (exploitation polymorphe), le malware devient invisible pour ces outils traditionnels.

L’IA pour la cyberdéfense

En miroir, l’IA améliore aussi les capacités de cyberdéfense, grâce à des analyses causales, qui permettent de modéliser les relations entre événements, ainsi qu’en accélérant l’identification d’anomalies par une surveillance automatisée et la priorisation de leurs corrections. Ainsi, un système d’analyse IA a permis en janvier de découvrir 12 failles de sécurité dans OpenSSL, un logiciel essentiel à la protection des communications internet mondiales.

Mythos semble également déjà participer à cette automatisation, et Firefox affirme déjà avoir identifié et réparé 271 vulnérabilités grâce à ce logiciel, ce qui suggère que Mythos excelle effectivement dans la détection de vulnérabilités lorsqu’il a accès au code source.

En revanche, rien ne prouve pour l’instant que Mythos puisse, sans accès au code source et sans intervention humaine, compromettre de manière autonome n’importe quel logiciel fermé.

De plus, des analyses suggèrent que des capacités comparables seraient déjà reproductibles à partir de modèles publics, remettant en cause l’efficacité de cette rétention. Ainsi, Mythos ressemble aujourd’hui davantage à un analyste de sécurité surpuissant, capable d’identifier des failles et de proposer des pistes d’exploitation, qu’à une entité autonome de cyberattaque universelle.

Ce qui inquiète vraiment, ce n’est pas seulement que Mythos sache mieux coder ou mieux tester du code : c’est qu’il semble abaisser le coût, le temps et le niveau d’expertise nécessaires pour découvrir et enchaîner des failles, donc potentiellement accélérer aussi bien la défense que l’attaque.

Vers un nouvel équilibre de la « dissuasion algorithmique » ?

Dans ce contexte, la notion de « dissuasion algorithmique » (algorithmic deterrence en anglais) émerge. Elle peut être comprise par analogie avec la dissuasion nucléaire : il ne s’agirait plus seulement de se protéger, mais de posséder une capacité de réponse et de détection si rapide que l’attaque en devient inutile ou trop coûteuse.

Contrairement au domaine nucléaire, la dissuasion algorithmique repose sur le renforcement des mécanismes défensifs (plutôt que de réponse) : détection accélérée des intrusions, analyse des causes et simulation d’attaques pour boucher les failles avant qu’elles ne soient exploitées.

Avant l’ère de l’IA, la dissuasion algorithmique était plus limitée : les équipes de sécurité réalisaient des tests d’intrusion, une méthode d’évaluation de la sécurité qui repose sur la simulation de cyberattaques, pour identifier les ports ouverts et failles connues, pour enclencher leur correction.

Aujourd’hui, on l’a vu, l’IA peut renforcer les mécanismes défensifs et donc la dissuasion. Mais, dans le meilleur des cas, une IA de défense permet de réduire le coût de la protection et d’augmenter la probabilité qu’un attaquant soit repéré ou neutralisé avant d’atteindre son objectif.

La dissuasion algorithmique reste donc fragile. Même à l’ère de l’IA, elle dépend beaucoup des pratiques des acteurs opérationnels (agences de cybersécurité, armées, entreprises), de la qualité et de la modernité des systèmes hérités qu’ils doivent protéger et intégrer, des stratégies nationales et militaires mises en œuvre par les États ainsi que des dispositifs de gouvernance qui définissent les règles, les responsabilités et les mécanismes de contrôle de l’IA.

Le dilemme de la rétention d’outils de dissuasion : sécurité contre transparence

Ne pas rendre disponibles au grand public certains modèles peut sembler responsable, car cela évite de publier des capacités offensives qui seraient immédiatement détournées. Mais cette rétention concentre le pouvoir technologique entre quelques mains et réduit la transparence scientifique.

Le débat rejoint ici celui du cadre l’AI Act européen, qui impose déjà des obligations de transparence, de traçabilité et de documentation pour les modèles d’IA d’usage général, tout en cherchant à concilier innovation, sécurité et protection des secrets industriels.

L’opacité des modèles d’IA limite leur auditabilité, entrave le développement de contre-mesures appropriées et concentre le pouvoir technique entre quelques acteurs principalement américains, au détriment de la recherche ouverte et de la gouvernance démocratique. Cette critique s’inscrit dans une littérature académique plus large montrant que l’opacité des systèmes d’intelligence artificielle compromet leur reproductibilité, leur auditabilité et, in fine, leur valeur scientifique.

The Conversation

Christine Abdalla Mikhaeil est membre de Association for Information Systems (AIS). Elle a reçu des financements de l’Institut Bachelier et du LEM CNRS UMR 9221.

ref. Dissuasion algorithmique, rétention : l’IA fait-elle passer la cybersécurité à une nouvelle ère ? – https://theconversation.com/dissuasion-algorithmique-retention-lia-fait-elle-passer-la-cybersecurite-a-une-nouvelle-ere-282192

Motown’s Black women songwriters and producers were the invisible architects behind the pop music juggernaut

Source: The Conversation – USA (2) – By Margena A. Christian, Emeritus professor, University of Illinois Chicago

Sylvia Moy was a trailblazing Motown songwriter. L. Busacca/WireImage for Songwriter’s Hall of Fame

During the 1960s, in a country divided by racial strife, the music of Berry Gordy Jr.’s Motown Records helped bring people together.

Motown was noted for star performers like Mary Wells, The Miracles, The Supremes, The Temptations, Martha Reeves and the Vandellas, Marvin Gaye and Stevie Wonder. But, behind the scenes, a talented group of lesser known women were driving the hits in Hitsville U.S.A.

I’m a scholar of popular culture and author of the biography “It’s No Wonder: The Life and Times of Motown’s Legendary Songwriter Sylvia Moy.” Researching my book inspired me to find other women who contributed to the Detroit label’s era of chart dominance and helped change the music industry, despite going largely unrecognized for their efforts.

I listened to Motown growing up, but it wasn’t until 2021, while sitting at home during the pandemic, that I discovered Moy’s history as the lyricist for Stevie Wonder and how she helped revive his early career.

Because Moy died in 2017, I wasn’t able to speak with her for the book. Instead I researched her life by reading countless interviews she gave, along with talking to her former colleagues at Motown, family and ethnomusicologists, who are scholars that study music through the lens of culture.

Architect of the early sound

When Gordy was organizing his company, Janie Bradford was one of the original five founding members who arrived in 1958. She was the label’s first secretary and its first female songwriter after co-writing, with Gordy, the song “Money (That’s What I Want).” That song was released on Tamla Records in 1959 and performed by Barrett Strong. When Motown was incorporated the following year, the song became the label’s first hit record on the R&B chart and Billboard Hot 100.

Woman stands behind a podium and speaks into a microphone.
Janie Bradford speaks at a 2022 tribute to Mary Wilson, a member of The Supremes, in Los Angeles. Bradford was one of the founding members of Motown.
Alison Buck/Getty Images for The Recording Academy

Later, Bradford co-wrote “Contract on Love” for Wonder and “Too Busy Thinking About My Baby,” first recorded by The Temptations and later, Marvin Gaye. Bradford, who later became Motown’s director of writer’s relations, teamed up with pianist Richard “Popcorn” Wylie in the early 1960s to form Janard, a small production company.

Bradford’s collection of poetry is what captured Gordy’s attention, so he encouraged her to be a songwriter. Her witty lyrics told stories about situations that most anyone could relate to – namely, money and love – blended with up-tempo, thumping beats.

Laying the foundation as a producer

Another key figure who paved the way with the Motown sound was Raynoma Gordy Singleton, who was married to Berry Gordy Jr. from 1960 to 1964. She organized Motown during its beginnings by completing the necessary paperwork to incorporate the business. Known as “Miss Ray” to some and “Mother Motown” to others, she located the legendary house at 2648 West Grand Boulevard that became the Motown headquarters and, decades later, the Motown Museum.

In her role as the label’s first executive vice president, she established a tape library. A piano virtuoso and singer, the Cass Technical High School graduate wrote that she was able to play all string and wind instruments. As a result, she became the company’s first female arranger and producer by putting together its first backup vocal group, the Rayber Voices, in 1958.

“Producing records was where the action was controlled – and where the money was to be made,” she wrote in her memoir, “The Untold Story: Berry, Me, and Motown,” which aimed to reclaim her place in the Motown echelon.

During the 1960s, women weren’t considered producers because of broader biases and norms in the male-dominated music industry. Even so, Miss Ray got credit for producing Jimmy Ruffin’s song “Don’t Feel Sorry for Me” in 1961.

Earning a producer’s credit was a sign of legitimacy. Most producers received a songwriting credit and determined who received credit in the liner notes for their contribution to the recording.

While women mostly worked in administrative roles at Motown, there still weren’t any female full-time, in-house songwriters and producers. Like the rest of the music industry back then, Motown’s internal structure was patriarchal with those positions.

The first certified female songwriter and producer

Yet this imbalanced gender dynamic at Motown didn’t stop Sylvia Moy.

There hadn’t been any women producers behind significant, popular songs at Motown until Moy arrived, according to interviews I conducted for her biography.

Motown was at its peak in 1964. Demand for new songs was intense. When the label’s executives realized how skillfully the two audition songs Moy performed were composed, they decided that her future was in songwriting instead of singing.

Discovered by William “Mickey” Stevenson and Marvin Gaye, Moy was hired as the first female in-house songwriter, competing with eminent colleagues like Smokey Robinson, Norman Whitfield and the songwriting trio Holland-Dozier-Holland who wrote 10 of the Supremes’ chart-topping singles. Moy made more history in 1965 after co-writing and co-producing Stevie Wonder’s “Uptight (Everything’s Alright).”

While she received the songwriting credit and helped revive the teenaged Wonder’s career, Moy wasn’t given the producer’s credit, unlike her two male counterparts, Stevenson and Henry “Hank” Cosby.

A lack of recognition stymied Moy’s career opportunities. If a songwriter or producer wasn’t credited, their value could not be validated or established, which made it harder for them to find work at other record labels.

According to my research, Moy revealed that she never got producer credit for any of her work while at Motown. This is why her legacy was buried for so long.

Other tunes she wrote for Wonder were “I Was Made to Love Her,” “My Cherie Amour” and “With A Child’s Heart,” co-written with Vicki Basemore. Moy also wrote Marvin Gaye and Kim Weston’s “It Takes Two” and The Isley Brothers’ “This Old Heart of Mine (Is Weak For You).” Though songwriter Eddie Holland told me he gave her a co-writing credit for “This Old Heart of Mine,” Moy’s name was not listed on the record, only Holland-Dozier-Holland.

Interviews I conducted with Moy’s family members and research from an ethnomusicologist suggest she was even an uncredited co-writer for Wonder’s “Signed, Sealed, Delivered (I’m Yours),” his first song as a solo producer, and The Temptations’ “Ain’t Too Proud to Beg.”

However, Holland denied this claim in an interview with me, though he also admitted that the song’s late co-writer and producer, Norman Whitfield, presented him with the lyrics, and he wasn’t sure where they came from.

Full credit along with creative control

In 1968, Valerie Simpson became Motown’s first female songwriter to also receive a producer credit. This possibly happened because her songwriting partner was her husband, Nickolas Ashford.

Other famous female songwriters like Carole King, Ellie Greenwich and Cynthia Weil also had a prominent husband in the music industry. Sylvia Moy did not, which made what she did unprecedented.

A man and a woman stand for a portrait
Valerie Simpson poses next to her husband, Nickolas Ashford. Together, they formed the famed singing and songwriting duo Ashford and Simpson. She was the first woman songwriter and producer at Motown to receive complete credit for her creative contributions.
Aaron Rapoport/Corbis/Getty Images

Simpson told Billboard in 2023 that the credit was difficult to attain because so few women were producers back then. It finally happened with the Tammi Terrell and Marvin Gaye song “Ain’t Nothing Like The Real Thing,” with Simpson getting credit for co-writing, co-producing and performing background vocals along with Ashford.

This was their third hit tune by Terrell and Gaye, who also recorded “Ain’t No Mountain High Enough” and “Your Precious Love,” in 1967. The following year, they had another hit with “You’re All I Need to Get By,” which Ashford and Simpson also co-wrote, co-produced and did background vocals on.

‘Ain’t Nothing Like the Real Thing’ was performed by Marvin Gaye and Tammi Terrell. Valerie Simpson co-wrote and co-produced the song along with her husband, Nickolas Ashford.

Simpson became the first Black woman to be inducted into the Songwriters Hall of Fame in 2002. Moy became the second in 2006.

Though female songwriters and producers continue the fight for inclusion in the recording studio, the doors were opened by the tenacious women of Motown. It is because of them that future generations of female creatives know what is possible.

The Conversation

Margena A. Christian does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Motown’s Black women songwriters and producers were the invisible architects behind the pop music juggernaut – https://theconversation.com/motowns-black-women-songwriters-and-producers-were-the-invisible-architects-behind-the-pop-music-juggernaut-278514

Lower East Side street named for ‘King of Comics’ Jack Kirby, a nod to one of the countless kids of immigrants who shaped the genre

Source: The Conversation – USA (2) – By Miriam Eve Mora, Managing Director of the Raoul Wallenberg Institute, University of Michigan

The Thing is from the fictional Yancy Street in Manhattan’s Lower East Side, where creator Jack Kirby was raised. Richie S/flickr, CC BY

The gesture may lack the explosive drama of a rooftop fight or the tension of a car chase, but on May 11, 2026, a street sign honoring a legendary comics creator will be unveiled in Manhattan’s Lower East Side.

After a lobbying effort by comics expert Roy Schwartz, the New York City Council in December 2025 approved the naming of a block of Essex Street between Delancey and Rivington streets in honor of Jack Kirby.

Black-and-white photo of middle-aged white man smoking a pipe.
Comic book artist Jack Kirby attends San Diego Comic Con in 1973.
Clay Geerdes/Getty Images

Kirby, born Jacob Kurtzberg in 1917 to Jewish immigrants, spent roughly the first 40 years of his life in New York, aside from a stint serving in the military during World War II. Before enlisting, he’d already embarked on a career as a comics artist. He went on to become a key figure during the medium’s golden age, a period that most scholars and fans agree began with the creation of Superman in 1938 and ended with the implementation of the Comics Code Authority in 1956, which heavily restricted content until enforcement weakened in the 1970s.

Though you may not have heard of Kirby, you’d have to deliberately avoid pop culture to miss his most influential creations: Captain America, the Fantastic Four, X-Men, Thor, Hulk, Iron Man and Black Panther.

For my part, however, as a scholar of American Jewish immigration history – and as a lifelong comic book fan – I hold a place of reverence for the man known as the “King of Comics.”

Jewish American history, immigration history, the history of New York City and the origins of the comics industry are inextricably linked. New York played a starring role in the golden age of comics. And like Kirby, many of the genre’s most famous artists were Jewish.

Jewish immigrants put pen and ink to paper

Comics found a wide audience in New York City during their early years in the late 19th and early 20th centuries, from early newspaper strips like “The Yellow Kid” and “Abie the Agent” to later ones like “Little Orphan Annie.”

As World War II drew to a close in the summer of 1945, there was a citywide newspaper delivery strike, leaving many New Yorkers desperate for news and entertainment – so much so that Mayor Fiorello LaGuardia took it upon himself to read the Sunday comic strips over the radio, performing them with characteristic vigor and enthusiasm.

Among the first publications that would today be recognizable as “comic books” were compilations of these early newspaper strips, assembled by newsprint salesman and Jewish New Yorker Max Gaines. Gaines, born Maxwell Ginzburg, compiled various comic strips into neatly packaged, inexpensive entertainment for the masses, helping pioneer the saddle-stitched comic book – thin, stapled magazines that would become the primary format for superhero stories.

As the superhero genre took off in the late 1930s, other publishers emerged from Jewish New York. Harry Donenfeld and Jack Leibowitz, in partnership with Malcolm Wheeler-Nicholson, created Detective Comics and Action Comics, which helped establish the company later known as DC Comics.

In addition to early publishers, many pioneering comics artists were raised in New York City as the children of Jewish immigrants, including Marvel Universe architect Stan Lee and his brother, Larry Lieber; Will Eisner, creator of “The Spirit” and co-creator of “Sheena: Queen of the Jungle”; and Al Jaffee, a longtime contributor to Mad Magazine.

An ode to the Lower East Side

In Jack Kirby’s comics, the city shines through.

The Fantastic Four – the superhero squad that Kirby created with Stan Lee – operates out of midtown Manhattan’s fictional Baxter Building, which Kirby modeled after the city’s mid-century skyscrapers.

Kirby also based the character of Ben Grimm – The Thing – on himself, mining his own life to write Grimm’s backstory. Grimm’s home is on the fictional Yancy Street, a tribute to Kirby’s own working-class upbringing on the Lower East Side’s Delancey Street. The thoroughfare is rich with Jewish history and in close proximity to iconic businesses like Katz’s Deli and Russ and Daughters.

Another of Kirby’s most iconic characters was Steve Rogers – Captain America – which he co-created with Joe Simon.

A poor orphan from Brooklyn, Rogers attempts to enlist in the U.S. Army to fight the Axis powers during World War II, but is rejected as unfit for duty. He is later recruited into Project Rebirth, where he is transformed into a super-soldier after being injected with a serum designed to maximize human physical and mental abilities.

Captain America attracted legions of fans among American youth, many of whom saw themselves in the superhero. Though Rogers is Christian, his story of transformation from weakling to hero certainly spoke to young Jewish boys and men, who were often inaccurately portrayed in the media and press as intellectually superior but physically inferior.

Captain America, though fictional, is already recognized as a part of New York City history, and has a statue in Brooklyn, which was unveiled in 2016 with the inscription “I’m just a kid from Brooklyn.”

The city as a muse

Even comics created by artists outside New York City – like Ohio natives and Superman co-creators Jerry Siegel and Joe Shuster – are, by virtue of their content, still in many ways New York comics.

The glittering Metropolis in “Superman” is widely understood as a stand-in for New York; for example, in the April 1950 issue of Action Comics, the Statue of Liberty is said to appear in “Metropolis Harbor.”

A bronze statue of a muscular superhero who's hoisting a shield with a star on it into the air.
A Captain America statue is unveiled during a ceremony at Prospect Park in New York’s Brooklyn borough on Aug. 10, 2016, in honor of the character’s 75th anniversary.
Angela Weiss/AFP via Getty Images

If Metropolis is the bright, shining, optimistic view of the city, then Gotham, the home of Batman, reprises the city through a grittier lens.

Writer Washington Irving had first described New York as Gotham in the early 1800s. But by the time Batman came on the scene, the term had become less common in everyday speech, and DC Comics repurposed the name for the fictional Gotham City. Beyond the name, Gotham City’s architecture, bridges, boroughs and neighborhoods are an homage to New York.

By officially recognizing Jack Kirby, the city adds the artist to a distinguished roster of politicians, community activists and celebrities honored with street names.

Jack Kirby Way celebrates a legendary comics artist while also acknowledging the immigrant creators who helped shape the genre. It’s a fitting tribute: As much as the comics industry is indebted to the city, the city is indebted to the comics industry.

The Conversation

Miriam Eve Mora does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Lower East Side street named for ‘King of Comics’ Jack Kirby, a nod to one of the countless kids of immigrants who shaped the genre – https://theconversation.com/lower-east-side-street-named-for-king-of-comics-jack-kirby-a-nod-to-one-of-the-countless-kids-of-immigrants-who-shaped-the-genre-279716

The American Revolution’s triumphant story of democracy and freedom overlooks loyalists who paid a steep price for allegiance to Britain

Source: The Conversation – USA – By Kimberly Nath, Dean of the School of Arts and Humanities, San Juan College

The announcement of the Declaration of Independence on July 4, 1776, in Philadelphia. Hulton Archive via Getty Images

On the eve of the American Revolution, Matthias Aspden made a decision that would change the trajectory of his life. A wealthy merchant from Philadelphia, Aspden carefully prepared to leave his home in March 1776 as rumors of revolution circulated. He drafted a will and appointed trusted friends to manage his property while he traveled to England.

As a loyalist, someone who wanted to remain loyal to the crown and the British empire, Aspden believed the war would be brief. Historians estimate that at the beginning of the war as many as one-third of all American colonists identified as loyalists. Aspden believed his departure would be temporary. Order, he assumed, would soon be restored, and he would permanently return within a few years.

But that wasn’t the case.

The American Revolution is often told as a triumphant story of democracy and freedom. But this narrative leaves out a significant group: the loyalist men and women who remained faithful to Britain and, as a result, lost their homes, property and sometimes their sense of belonging.

As a historian of the American Revolution who studies Philadelphia loyalists, I believe Aspden’s story offers a glimpse into an overlooked experience of the war.

A wealthy Philly merchant exiled in England

Born and raised in Philadelphia, Aspden was not a marginal figure. He was a Quaker merchant with extensive property holdings, including a home on Water Street, in what is now the Old City neighborhood, and land in Chester County outside Philadelphia.

When he left in 1776, he abandoned nearly everything he owned, believing he would return. As others celebrated independence that summer, Aspden quietly slipped away to London.

Black text on white page
A letter written by Matthias Aspden from London in 1779.
Yale University

In England, reality set in. Exile was not just physical; it was deeply social and emotional. In Philadelphia, Aspden had been established. In London, he was one of tens of thousands of displaced loyalists trying to rebuild a life. He gravitated toward communities of fellow exiles. These networks offered some stability, but they could not replace what he had left behind.

Aspden’s letters to friends and family from this period reveal a man caught between hope and anxiety. He followed news from Philadelphia obsessively, requesting newspapers and updates from friends and business contacts. At one point, he described himself as “an idle man until I can return to America.” His words suggest both longing and uncertainty, as if his life were on pause.

By 1780, that uncertainty turned into fear.

A ‘traitor’ trying to come back home

Aspden began hearing about laws in Pennsylvania aimed at confiscating loyalist property. These laws required individuals accused of treason to appear in court and defend themselves. Aspden, still in England, could not do so. As a result, he was tried in absentia, declared a traitor and subjected to the state’s harshest penalties.

The consequences were devastating. In 1782, Aspden learned that all of his property had been confiscated and would be sold to aid the patriots in the American Revolution. An official commissioner of confiscation seized his Philadelphia home and wharf, which were worth thousands of pounds, along with his land in Chester County. Aspden, facing financial ruin, decided to return to Philadelphia to defend his name and his property.

In 1785, after nearly a decade abroad and with the war over, he crossed the Atlantic, hoping the new United States would restore his property under the terms of the peace treaty with Britain. Instead, he was met with rejection.

Pennsylvania officials informed him that individuals in his position were not protected. He had no legal claim to his property and, more shockingly, no rights as a citizen. While the peace treaty prevented further confiscation of loyalist property, his property was not restored.

The message was clear: Philadelphia was no longer his home.

Rows of two-story, red-brick homes on cobblestone street
Matthias Aspden longed to return to his life in Philadelphia.
Brian Logan/iStock via Getty Images Plus

One last trip to Philadelphia

Aspden left again, traveling through New Jersey and New York before securing passage back to England. Reflecting on his departure, he wrote of the pain of being forced from his “native country.” His brief return confirmed what he had feared. He had no home.

In the years that followed, Aspden sought compensation wherever he could. The American government offered nothing, so he turned to Britain. The Loyalist Claims Commission, established to reimburse those who had lost property during the war, eventually awarded him just over 1,100 pounds, a fraction of his estimated losses.

Aspden made one final visit to America in the early 1790s. By then, he had received a legal pardon and could travel without fear of arrest. But he still could not recover his property or successfully pursue compensation in American courts. Once again, he left – this time for good.

Black and white illustration of line of children in colonial dress waving to soldiers
About a third of American colonists were loyal to the British Crown during the American Revolution.
H A Ogden/Frederick A Stokes Company via Getty Images

Heirs recover his fortune

Aspden died in England in 1824, having spent nearly 50 years in exile from the city he always considered home.

Decades after his death, his heirs pursued a legal claim in the United States against Pennsylvania, arguing that his estate had been unjustly seized. After years of litigation, the court ruled in their favor in 1848, awarding them over a half-million dollars – approximately US$20 million today. It was a remarkable reversal, but Aspden never saw justice.

His life raises difficult questions about loyalty, identity and belonging. Aspden did not see himself as disloyal to Philadelphia. To him, loyalty to the British Crown and loyalty to home were not opposites.

His story reminds us that the Revolution was not just a fight for independence. It was also a civil conflict that divided communities and reshaped lives. For every celebrated patriot, there were loyalists like Aspden and others who lost so much during the American Revolution.

Read more of our stories about Philadelphia, or sign up for our Philadelphia newsletter on Substack.

The Conversation

Kimberly Nath does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The American Revolution’s triumphant story of democracy and freedom overlooks loyalists who paid a steep price for allegiance to Britain – https://theconversation.com/the-american-revolutions-triumphant-story-of-democracy-and-freedom-overlooks-loyalists-who-paid-a-steep-price-for-allegiance-to-britain-280421