La ley de Heisenberg en la evaluación de los exámenes y la carrera académica

Source: The Conversation – (in Spanish) – By Jesús Pérez Gil, Catedrático de Universidad, Dpto. Bioquímica y Biología Molecular, Facultad de Ciencias Biológicas, Universidad Complutense de Madrid

A punto de iniciarse el curso 2025-26, es fácil predecir que una de las cuestiones que harán los estudiantes el primer día de clase hará referencia a cómo serán los exámenes y la evaluación. El profesor explicará sus propios criterios y a partir de ese momento… ¡Heisenberg entrará en acción!

La ley de Heisenberg

En la mítica serie Breaking Bad, Walter White era un profesor de química de secundaria mal valorado por sus estudiantes. Su apodo, “Heisenberg”, hace referencia al físico alemán Werner Heisenberg, premio Nobel, conocido por su trabajo en física cuántica y su Principio de Incertidumbre. Walt adopta este alias para ocultar su identidad en el mundo del crimen, donde todo es incierto y desconocido, al igual que el principio de incertidumbre. Esta regla puede trasladarse a los métodos que se diseñan para medir/evaluar cualquier proceso. La “ley” de Heisenberg está también presente en la evaluación de los exámenes y la carrera académica.

Según el principio de incertidumbre, no se pueden determinar de forma simultanea dos propiedades de una partícula cuántica, su posición y su velocidad, por ejemplo. Para colmo, el propio proceso de medición lo modifica todo aunque no se quiera, de forma que el comportamiento de la partícula ya no será el que tenía antes de ser “observada” o medida. Dicho de otro modo: el proceso de medición altera inevitablemente la condición de lo medido.

El profesor y su examen

En el primer día de clase, la información que dé el profesor sobre cómo hará la evaluación activará la perturbación predicha por Heisenberg. Los estudiantes, inconscientemente, prepararán la asignatura de forma distinta en función de cómo se les vaya a exigir rendirla.

¿La evaluación reflejará hasta qué punto han aprovechado la asignatura? ¿O su nota dependerá del grado en que se han ajustado al método de evaluación? En el mejor de los casos ambas cosas se parecerán, pero no necesariamente siempre.

La perturbación señalada por Heisenberg, inexorable y en muchos casos desastrosa, entra en el proceso de medida sobre el objeto mismo que se mide, el examen, hasta el punto de que puede dejar de cumplir el objetivo perseguido: medir de verdad el nivel de capacitación de los estudiantes. Al menos, siendo conscientes, podremos valorar adecuadamente el nivel de “incertidumbre” que ello supone.

Los baremos y la “baremitis” en la carrera académica

Otro ejemplo de las jugarretas que implica la incertidumbre de Heisenberg lo encontramos en esos detallados baremos oficiales que buscan transparencia para evaluar los méritos de los candidatos que concurren a concursos de acceso. En el mejor de los casos, estos baremos habrán sido diseñados de forma concienzuda para reconocer las múltiples actividades que reflejan la calidad del desempeño. Por ejemplo, en el caso de un profesor o investigador, sus años de experiencia.

Pero para completar la construcción de los baremos, todas esas actividades a considerar deben sistematizarse, jerarquizarse y cuantificarse de forma relativa a su peso en lo que se quiere valorar. Y es aquí donde la recalcitrante tiranía de la ley de Heisenberg se hace presente.

Los candidatos acaban modelando su actividad para optimizar la forma en la que será medida cuando llegue el momento. Es la “baremitis”, que acaba convirtiendo a esos futuros profesores e investigadores en coleccionadores de puntos en las diferentes casillas del baremo, en lugar de desarrollar de la mejor manera posible la actividad académica, que en último término va a ser objeto de evaluación.

Esta desgraciadamente generalizada confusión del “continente por el contenido”, resultante del supuesto afán por una aplicación transparente y “objetiva” de criterios a salvo de arbitrariedades, puede estar lastrando de forma importante la confección de muchas plantillas, y por extensión, las capacidades futuras de nuestras instituciones.

No estamos hablando de corrupción, aunque las prácticas corruptas también minan la solidez del edificio de nuestra ciencia y academia. No es más que, según los postulados de Heisenberg, la inexorabilidad en la práctica de los principios de la física y la materia, a los que también está sometida la naturaleza humana.

Lo que comienza siendo una feliz invención en la forma de medir algo aparentemente intangible, acaba modificando de una forma incluso dramática lo que se mide.

El factor de impacto

En los años 60 del siglo pasado, se ideó el llamado Factor de Impacto (Impact Factor en inglés, o IF) para valorar la calidad de las revistas científicas. Este factor IF se calcula dividiendo el número de veces que se citan los trabajos publicados en una revista durante un tiempo determinado, generalmente los dos últimos años, entre el número total de artículos en el mismo periodo. Es decir, ofrece una media del número de veces que los artículos de esa revista han sido útiles para otros trabajos.

El manoseado IF ha permitido a los científicos durante décadas valorar la mayor o menor calidad promedio de una revista y decidir en consecuencia donde intentar publicar sus investigaciones (en teoría, en función de la calidad que estas investigaciones y sus resultados tienen, o al menos, que creen que tienen).

Sin embargo, el IF ha acabado siendo usado no ya para valorar las revistas, sino sus artículos, y por extensión, ¡los méritos de los investigadores!

Los ‘cárteles’ del sistema

A partir de aquí, la revista científica busca incrementar de la forma que sea su IF. Por ejemplo, facilitando la publicación de “revisiones”, artículos que solo recopilan y actualizan lo ya publicado sobre un tema concreto, lo que resulta muy útil para que los científicos se pongan al día. O, en una práctica mucho más cuestionable, “estimulando” que los autores citen de forma preferente los artículos que aparecen en las revistas en las que quieren publicar.

Surgen así los “cárteles de citas”, tristemente en el candelero mediático en algún caso reciente, cuando la citación de los trabajos busca intereses espurios al mero reconocimiento de la ciencia ya hecha. Puro principio de incertidumbre de Heisenberg, que quizá podríamos también denominar como “principio de distorsión de los procedimientos de medida/evaluación”.

¿Alguna esperanza de poder desarrollar procesos de evaluación Heinsenberg-free? Quizá mediante un análisis “inteligente” de los múltiples aspectos asociados con la actividad que se quiere evaluar. Una aplicación sabia de la inteligencia artificial puede suponer en breve un avance importante y mucho más difícil de ser interferido. Aunque seguramente la propia IA, plegada a Heisenberg, también modificará conductas y méritos de forma inevitable.

Como último recurso queda apelar al rigor, la competencia y la integridad de los evaluadores, con autonomía y en un número suficiente para promediar y compensar sesgos involuntarios, sometidos a procesos de rendición de cuentas sobre el resultado de lo medido y evaluado. Pero sin perder de vista a Heisenberg.

The Conversation

Jesús Pérez Gil no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La ley de Heisenberg en la evaluación de los exámenes y la carrera académica – https://theconversation.com/la-ley-de-heisenberg-en-la-evaluacion-de-los-examenes-y-la-carrera-academica-263584

Nintendo : « Super Mario Bros. », quarante ans de jeunesse éternelle

Source: The Conversation – France (in French) – By Arnault Djaoui, Doctorant en Science de l’Information et Communication – Laboratoire LIRCES, Université Côte d’Azur

L’iconique plombier à moustaches, mascotte de la firme Nintendo, célèbre, le 13 septembre, le quarantième anniversaire de sa première aventure vidéoludique. Cet emblème intergénérationnel n’en finit pas de séduire de nouveaux adeptes en réussissant à se renouveler constamment. Alors, d’où ce sympathique personnage puise-t-il son secret de jouvence ?


Avant qu’il ne soit Mario, le personnage est d’abord introduit sous le sobriquet de Jumpman dans le jeu d’arcade Donkey Kong, en 1981. La figure mythique du petit plombier espiègle – à cette époque charpentier et aujourd’hui sans profession attitrée – montrait déjà la volonté du fabricant Nintendo d’installer une mécanique de jeu simple et audacieuse. Le joueur incarne, dans cette première mouture, un personnage haut en couleur évoluant sur des plateaux urbains ascensionnels. Le but du jeu est de déjouer les assauts du gorille Donkey Kong au moyen de sauts allègres, exécutables à l’aide d’une simple pression sur une touche jusqu’à atteindre le vil primate et libérer une demoiselle en détresse.

La fantaisie de l’action et des éléments narratifs affiche d’emblée une forte envie de proposer un univers durable, amusant et identifiable. Plus encore, la volonté initiale du concepteur, Shigeru Miyamoto, est de conférer à son personnage une stature marquée et une vraie personnalité. Ainsi, cette vedette en devenir synthétise dès sa première apparition les attributs d’une entité originale et attractive, qui se démarque de ses prédécesseurs, Pacman ou les space invaders. C’est donc après une seconde incursion dans les salles d’arcade que l’élu de Nintendo va réellement marquer le début de sa légende, durant l’année 1985.

Le raz-de-marée « Super Mario Bros. »

L’arrivée de son propre jeu attitré marque un tournant dans le jeu de plateformes et plus globalement dans l’industrie du jeu vidéo. Désormais baptisé Mario, cet attachant héros dispose alors de tout un « lore » (l’ensemble des éléments relatifs à l’univers d’un jeu) qui lui est propre, jonché de créatures alliées (la princesse Peach, Toad le champignon, etc.) ou ennemies (Bowser, les Koopas, etc.) qui définissent également le caractère incontournable de cette mythologie.

En plus de parcourir des dizaines de niveaux, tous plus colorés, riches en animation et périlleux dans les dangers dont ils sont parsemés, le joueur découvre au cours des péripéties du plombier une approche bien plus enchanteresse du challenge dans le jeu vidéo. Le médium, qui reposait jusqu’ici sur des principes réitératifs et contenus dans des parties courtes, trouve avec Super Mario Bros. la possibilité de combiner le sens de l’amusement machinal et le sentiment pur de voyage immersif. Les effets de jouabilité, simples d’utilisation mais extrêmement exigeants dans ce qu’ils invoquent de dextérité et d’attention, inaugurent également une nouvelle manière de ressentir la difficulté graduelle des épreuves au fil de cette odyssée d’un genre nouveau.

Un univers qui inspire et qui s’exporte

Très rapidement, le modèle instauré par cet opus fondateur cristallise une nouvelle ère vidéoludique, qui se caractérise par une réutilisation appuyée du système simple et efficace des fondements de Mario. Outre les innombrables créations qui s’inspirent directement de cette œuvre instauratrice (Castle of Illusion, Disney’s Duck Tales, Castlevania II: Simon’s Quest, etc.), de nouveaux volets de la saga Mario vont être logiquement mis en chantier. Le personnage évolue continuellement au gré de nombreuses modifications de modélisation (character design), de nouveaux pouvoirs à sa disposition (feu, glace, agilité féline, etc.) et de nouvelles rencontres de personnages en tout genre, en même temps que le public grandit aussi de son côté.

Cette proximité entretenue entre les joueurs et le personnage de fiction marque une permanence de cet espace de dérivation, d’époque en époque. Telle une saga cinématographique ou une série télé, l’univers de Mario se décline en plusieurs épisodes (Super Mario Land, en 1989, Super Mario World, en 1990, etc.) qui apportent tous leurs lots de nouveautés tant sur la technique que sur l’agrandissement du lore.

Ainsi, de nouvelles figures incontournables de l’estampille Nintendo sont introduites pour la première fois dans les jeux Mario. C’est le cas de l’attendrissant dinosaure Yoshi, dans la série Super Mario World, ou du patibulaire double maléfique Wario, dans Super Mario Land 2 en 1992, qui bénéficieront par la suite de leurs propres jeux à succès.

De son côté, Mario ne va cesser d’asseoir son hégémonie et d’étendre sa galaxie. Au cinéma, avec une première adaptation en prises de vue réelles en 1993, à la télévision, avec une série animée datant de 1989, en jeux de société ou en produits dérivés, la machine tentaculaire de Nintendo entend bien investir tous les secteurs du divertissement. L’amélioration substantielle des graphismes au gré de chaque génération de consoles va ensuite permettre la réalisation des ambitions les plus folles des concepteurs.

L’avènement de nouveaux enjeux

L’exploitation du monde de Mario se ressent donc avant tout dans la sphère vidéoludique. Chacune de ses nouvelles apparitions est synonyme d’une version soit alternative, soit sublimée de sa dialectique. Les séries secondaires, telles que le jeu de course Mario Kart 64 (1996) ou le jeu de plateau et minijeu Mario Party (1998), deviennent par conséquent des ouvrages aussi appréciés que les opus de la série mère.

Par la suite, le plombier et sa myriade de compagnons s’inviteront dans toutes sortes de genres vidéoludiques (football, basketball, jeux olympiques, jeux de réflexion, jeux de rôle, jeux de modélisation, etc.) pour définir une mosaïque où l’universalité est au centre du propos. C’est pourtant bel et bien avec son arrivée dans la sphère du jeu de plateformes en 3D que l’égérie de Nintendo marque une nouvelle révolution à l’aube du XIXe siècle.

Jouissant désormais d’une technique graphique permettant de profiter des environnements de façon totale avec une profondeur de champ à 360°, Mario s’illustre dans Super Mario 64 (1996) de façon homérique.

La 3D polygonale, qui était jusqu’à présent l’adage de créations globalement plus sérieuses, atteint avec ce titre des sommets de liberté, de dépaysement et d’enivrement pour l’époque. Les contrées visitées par le plombier (déserts, volcans, plaines enneigées, îles tropicales, etc.), dans ses anciennes aventures, sont remises au goût du jour pour permettre au joueur de redécouvrir leur exotisme à travers un prisme complètement remanié. Le fait de pouvoir aborder ces surfaces en profitant des nouvelles aptitudes du héros, désormais fort de 28 mouvements distincts, configure une ergonomie de l’exploration encore jamais atteinte dans un jeu de ce type.

Cette étape d’innovation marque un tournant dans l’approche du jeu de plateformes et d’aventure dans le secteur du jeu vidéo, qui deviennent des références en matière de prouesses interactives.

Un personnage qui mute dans le sens du perfectionnement

Chaque nouvelle sortie devient ainsi l’occasion de faire évoluer cette formule dans le sens de la modernité, en capitalisant toujours sur l’effet d’originalité et d’amélioration. Les différents gameplay (jouabilité) mis en œuvre participent à cet état de réinvention puisqu’ils mettent à l’honneur une thématique différente à chaque aventure. Super Mario Sunshine (2002) fait la part belle au maniement d’un jetpack (réacteur dorsal) aquatique, qui propulse le personnage pour parcourir les environnements tropicaux de l’île Delfino, pendant que Super Mario Galaxy (2007) mise sur la découverte de plusieurs planètes en mettant au centre du gameplay la gravitation.

Des tonalités atypiques qui composent l’effet de dérivation – un concept qui désigne l’agentivité des règles de fonctionnement et de participation du jeu – et qui créent par conséquent des attentes fortes dans le public quant aux prochaines trouvailles. En 2017, un nouveau cap d’immersion et d’ambition artistique est franchi pour la franchise. Mario s’essaye au genre révolutionnaire de l’open-world (jeu en monde complètement ouvert) avec Super Mario Odyssey, qui propose d’arpenter différentes époques et différents pays (Égypte ancienne, Japon féodal, mégapole américaine, etc.) à la façon des voyages dans le temps. Cette vision de l’épopée spatio-temporelle résonne comme l’aboutissement suprême des prédispositions originelles de la formule Mario.

Le personnage s’est développé au fil du temps, il a éveillé de nouvelles capacités, il a rencontré de nouveaux compagnons puis quitté son royaume Champignon natal pour découvrir le reste du monde jusqu’aux tréfonds de l’espace.

Cette empreinte impérissable démontre la virtuosité de la série à garder constamment en vue les changements de la modernité pour se les approprier sans pour autant perdre l’essence traditionnelle qui a construit la légende de ses premiers triomphes.

La postérité toujours en ligne de mire

Dans son sillage, il laisse une multitude d’influences conceptuelles qui se ressentent jusque dans l’actualité la plus récente. Kirby et le monde oublié (2022) et le tout nouveau Donkey Kong Bananza (2025), des studios Nintendo, réutilisent clairement le système de jeu libre instauré dans Super Mario Odyssey.

Les chiffres parlent d’eux-mêmes. En 2025, la saga Mario Bros. (sans les séries secondaires) a franchi le seuil des 400 millions d’exemplaires vendus depuis ses débuts en 1985. Plus encore, le blockbuster cinématographique de 2023 produit par le studio américain Illumination enregistre la même année plus de 1,3 milliard de dollars de recette, devenant le second long-métrage d’animation le plus rentable au monde.

Aujourd’hui plus que jamais, Super Mario montre son statut d’œuvre indéfectible du jeu vidéo et de la pop culture mondiale, avec ce que cela implique d’adaptation permanente au public et aux transformations sociales. Comme Mickey Mouse en son temps, Mario a littéralement ouvert des portes à tout un espace de création et de rêverie aux yeux du monde. Il est devenu l’ambassadeur légitime de ces contrées virtuelles où s’animent l’ivresse d’un instant stimulant, la féerie d’un univers facétieux, la joie d’un défi relevé.

The Conversation

Arnault Djaoui ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Nintendo : « Super Mario Bros. », quarante ans de jeunesse éternelle – https://theconversation.com/nintendo-super-mario-bros-quarante-ans-de-jeunesse-eternelle-264230

How Israel’s attack on Qatar erodes peace — and American influence — in the Middle East

Source: The Conversation – Canada – By Spyros A. Sofos, Assistant Professor in Global Humanities, Simon Fraser University

The bombing of a Hamas office on Qatari soil by Israeli jets was more than a strike against a militant group. It was a bold and deeply consequential act against a state that has long positioned itself as a mediator in Middle Eastern conflicts and hosts 11,000 American troops on its territory.

For decades, Qatar has balanced its role as an American ally with its open lines of communication to groups that include Hamas and the Taliban. It has provided an indispensable channel for negotiations that the United States itself cannot conduct.

By targeting Qatar directly, Israel has crossed into uncharted territory. The strike is not just a military move — it is an unmistakably revisionist act, challenging the norms, alliances and security architecture of the region.




Read more:
Israel’s attack on Syria: Protecting the Druze minority or a regional power play?


Defining revisionism

In international relations, “revisionism” refers to attempts by states to revise the existing order of rules, institutions or the distribution of power.

Revisionist states seek to undermine the constraints imposed by the international system, reshaping it in ways that benefit them. They often do this not only by rejecting particular norms, but also by bending them to suit their own purposes.

Israel’s strike on Qatar demonstrates this pattern clearly.

By attacking a U.S. ally, Israel is not just pursuing Hamas operatives, it’s asserting that its own security imperatives override the norms of sovereignty, alliance management and the delicate balance that underpins regional diplomacy.

Qatar’s unique position

Qatar, unlike other Gulf states, has built a reputation as a broker of peace processes, hosting talks between Israel and Hamas, the U.S. and the Taliban and even among rival Palestinian factions.

Its role has often been tolerated, and even encouraged, by the U.S., which benefits from having a close ally act as a mediator of last resort.

The strike, therefore, is likely not just about Hamas. It is an apparent attempt to discredit Qatar’s mediating role, portraying it instead as a protector of terrorists and therefore unfit to serve as a diplomatic arbitrator. But more importantly, it seems an attempt to undermine diplomacy in the region as it eliminates a crucial venue for negotiation, leaving military action as the primary currency in Israeli–Palestinian relations.

With the massive U.S. Al Udeid airbase located in Qatar, Israel’s actions place American officials in an uncomfortable position: tolerate Israeli overreach and risk undermining their own ally, or confront Israel and fracture an already tense relationship. Either outcome serves Israel’s interests and loosens U.S. influence in the Middle East.

Hijacking U.S. foreign policy

Successive U.S. administrations have increasingly outsourced mediation to partners like Qatar. This reflects a recognition of American limits: its deep alliance with Israel makes it an unconvincing neutral broker, while states such as Qatar can talk to countries and organizations the U.S. designates as adversaries.

Yet Israel has repeatedly undercut such efforts. The 2015 Joint Comprehensive Plan of Action agreement on the Iranian nuclear program was relentlessly opposed by Israel, whose intelligence leaks and lobbying helped derail American efforts at forging a new deal in 2018.




Read more:
US-Iran tensions: no route for de-escalation in sight


In June 2025, just days before an Iranian delegation was scheduled to meet the American envoy for renewed discussions on the nuclear program, Israel initiated its 12-day war with Iran, collapsing the conditions for diplomacy before talks could even begin.

More recently, Gaza ceasefire talks in Doha were repeatedly disrupted by Israeli escalations on the ground or by making new demands, ensuring that negotiations never moved beyond crisis management.

The strike on Qatari soil takes this interference to a new level. It is not only a rejection of particular negotiations, but an attack on the infrastructure of American-led diplomacy.

Israel is seemingly aiming to hijack American foreign policy, narrowing U.S. options and entrenching Israel’s role as the sole gatekeeper of “acceptable” peace processes in the region.

Weaponizing peace processes?

Revisionist Israeli governments have tended to use negotiations not as pathways to a permanent peace, but as tools for managing conflict on their own terms.

By selectively engaging in negotiations while simultaneously engaging in settlement expansion in the West Bank, Israeli actions mean talks rarely translate into substantive concessions. The peace process becomes a means of buying time, dividing opponents and presenting Israel as a willing but frustrated partner.

Targeting Qatar continues this pattern. By undermining the one Gulf state that consistently invests in dialogue, Israel shrinks the diplomatic horizon. If no credible mediator is left standing, peace negotiations become a hollow exercise — something Israel could invoke to deflect criticism while pursuing its own security goals via military action.

This seems like peace as spectacle, weaponized to perpetuate the very state of war it claims to want to overcome.

A state of permanent war

One of the striking features of Israel’s regional stance is its reliance on a “permanent war” condition. Periodic escalations with Gaza, Lebanon, Syria, or Iran are not anomalies, but seem to be part of a strategy to normalize insecurity.

This strategy enables Israel to consolidate domestic political support, sustain high levels of military aid and investment and maintain control over the Palestinian Territories under the guise of an omnipresent existential threat.

That threat isn’t unfounded — and was underscored by the Hamas attacks of Oct. 7, 2023 — but Israel has used it to entrench a permanent-war posture that extends well beyond immediate security needs instead of pursuing peace.

The strike on Qatar extends this logic outward as Israel signals that there is no neutral space left and that even mediators can be attacked. The result is not the resolution of conflict but its apparent institutionalization: an endless cycle of violence where war is the baseline, not the exception.




Read more:
Can Israel still claim self-defence to justify its Gaza war?


What does Israeli revisionism achieve?

Israel’s strategy achieves several goals. By striking a U.S.-allied state, Israel challenges the principle that allied territory is off-limits.

At the same time, undercutting Qatar’s mediating role undermines the American ability to engage in diplomacy in the region, and leaves fewer avenues for talks, which means military action sets the agenda. Finally, expanding the geography of conflict turns instability into the Middle East’s default condition.

Such strategies may achieve short-term gains, but they come at enormous cost. The strike risks fracturing Israel’s quiet alignment with Gulf monarchies, alienating the U.S.

If the U.S. cannot or will not restrain strikes against its key allies, what meaning do American security guarantees truly carry? U.S. allies in the Middle East will point to the Qatar strikes as evidence that American protection is conditional, eroding confidence in the very alliance system that underpins U.S. power.

For the U.S., the attack underscores a deeper dilemma: the more it outsources its regional diplomacy to Israel, the more vulnerable it becomes. Israel’s repeated strikes in the midst of sensitive negotiations — from the Iran nuclear talks to Gaza ceasefires — show how effectively it can hijack American policy and systematically undermine the prospect of peace in the Middle East.

The Conversation

Spyros A. Sofos does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How Israel’s attack on Qatar erodes peace — and American influence — in the Middle East – https://theconversation.com/how-israels-attack-on-qatar-erodes-peace-and-american-influence-in-the-middle-east-265017

Quand l’intelligence artificielle bouscule le journalisme

Source: The Conversation – in French – By Vincent Pasquier, Professeur en GRH et relations professionnelles, HEC Montréal

L’intelligence artificielle (IA) semble aujourd’hui offrir à la profession de journaliste le meilleur… comme le pire.

D’un côté, des usages portés par la rigueur et l’excellence, comme en témoignent plusieurs finalistes et lauréats du prestigieux prix Pulitzer. Par exemple, le New York Times a utilisé l’IA pour détecter des cratères de bombes sur images satellites à Gaza, prouvant des frappes en zones civiles.

De l’autre, des usages plus préoccupants : production de contenus trompeurs, standardisation du travail et suppressions de postes dans des rédactions déjà fragilisés par plus d’une décennie de crise.

Depuis 2022, ce tournant technologique s’est nettement accéléré avec la diffusion massive d’outils d’IA générative accessibles au grand public, dont ChatGPT est devenu la figure de proue.

Nous sommes des chercheurs et professeurs au sein du département de Département de gestion des ressources humaines de HEC Montréal. Notre équipe a mené, à la fin de l’année 2024, une enquête auprès de 400 journalistes canadiens et internationaux. Cinq enjeux en ressortent, qui dessinent autant de défis à venir pour les journalistes et les rédactions.

Enjeu #1 : un risque de polarisation de la profession

L’IA générative est déjà bien implantée dans les rédactions. Deux journalistes sur trois déclarent y avoir déjà eu recours et près d’un tiers l’utilisent au moins trois fois par semaine. Son adoption reste toutefois inégale : les jeunes journalistes et les pigistes en font un usage plus fréquent.

Ces écarts générationnels et statutaires laissent entrevoir une possible fracture au sein du métier. D’un côté, les journalistes les plus stables, souvent mieux rémunérés et plus encadrés, pourraient tirer profit de ces outils pour gagner du temps ou améliorer leur production. De l’autre, les professionnels plus jeunes et plus précaires risqueraient davantage d’être mis en concurrence avec la machine pour l’exécution de tâches routinières ou peu valorisées. Une telle polarisation de la profession pourrait constituer un premier enjeu de taille pour les journalistes, d’autant que ce type de phénomène a déjà été largement documenté dans d’autres secteurs suite à l’introduction de nouvelles technologies.




À lire aussi :
L’intelligence artificielle à la rescousse du journalisme


Enjeu #2 : à qui profiteront les gains de productivité ?

Les journalistes qui utilisent l’IA en tirent souvent des bénéfices concrets. Ils évoquent les gains de temps et l’amélioration de la qualité du travail produit, en particulier pour la collecte et l’analyse de données, ainsi que pour la production et l’édition de textes.

Mais ces bénéfices perçus soulèvent un enjeu central : comment serait utilisé le temps nouvellement « libéré » par la machine ? Servirait-il à produire mieux, ou simplement plus ? Profiterait-il aux journalistes, ou aux organisations qui les emploient ? Cet enjeu du partage des gains de productivité se posera avec d’autant plus d’acuité que, dans certains cas, les journalistes participeront eux-mêmes à l’entraînement de ces outils.

Enjeu #3 : le risque d’une diminution de l’effort intellectuel

Malgré son apparition récente, l’IA générative suscite déjà un sentiment de dépendance chez près d’un quart des journalistes. Cette tendance est particulièrement marquée chez les jeunes journalistes, pour qui ces outils sont présents dès le début de carrière.

En déléguant régulièrement des tâches telles que la structuration d’un raisonnement ou l’organisation d’un récit, les journalistes risqueraient d’affaiblir certaines compétences fondamentales, voire d’en retarder l’acquisition. Des recherches menées dans d’autres professions évoquent même le risque d’une « paresse métacognitive » : une diminution de l’effort intellectuel induite par une confiance excessive dans la machine.

Enjeu #4 : plus on s’en sert, moins on s’en méfie

De nombreux journalistes sondés expriment des craintes liées à l’usage de l’IA générative, notamment en ce qui concerne la qualité et l’authenticité des contenus produits.

Toutefois, ces craintes ne sont pas réparties de manière homogène au sein de la profession. Elles sont particulièrement vives chez les non-utilisateurs, au point de s’apparenter, dans certains cas, à une forme de résistance.

À l’inverse, elles tendent à s’atténuer chez les utilisateurs réguliers : plus l’usage devient fréquent, plus la vigilance éthique diminue. Plus frappant encore, les journalistes se déclarant les plus dépendants à l’IA générative sont aussi ceux qui expriment le moins de craintes vis-à-vis de cette technologie.

Enjeu #5 : une régulation qui reste largement à construire

La régulation de l’IA générative dans les rédactions reste embryonnaire. Seul un tiers des journalistes déclarent que leur rédaction dispose d’une politique claire encadrant l’usage de ces outils. Plus étonnant, ils sont encore plus nombreux (36 %) à ne pas savoir si une telle politique existe.

Nos résultats montrent pourtant que, lorsque ces politiques sont connues, elles influencent directement les usages de l’IA générative. En revanche, la présence syndicale ne semble pas jouer, à ce stade, un rôle significatif dans l’appropriation de ces outils. Cette absence de balises collectives s’explique notamment par le manque de recul, mais aussi par la prudence des employeurs, qui hésitent à freiner l’innovation.

Quel avenir pour le journalisme à l’heure de l’IA générative ?

Sans verser dans l’alarmisme, cette étude met en lumière des transformations rapides et encore insuffisamment encadrées. L’IA générative peut faire gagner du temps et améliorer la qualité des contenus, mais elle pourrait aussi, selon les usages, renforcer la précarité, affaiblir certaines compétences ou accentuer les inégalités professionnelles.

Face à ces enjeux – qu’ils touchent à l’emploi, à l’autonomie, à la rémunération ou aux conditions de travail – la mise en place de garde-fous collectifs apparaît essentielle pour préserver un avenir souhaitable pour la profession.


Nous tenons à souligner l’importance des contributions de Xavier Parent-Rocheleau, Nicolas Turcotte-Légaré, Marie-Claude Gaudet et Antoine Bujold à la réalisation du rapport.

La Conversation Canada

L’équipe coordonnées par Vincent Pasquier a reçu des financements de l’Obvia (Observatoire sur les impacts sociétaux de l’IA et du numérique) pour réaliser ce projet .

Catherine Lespérance ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’intelligence artificielle bouscule le journalisme – https://theconversation.com/quand-lintelligence-artificielle-bouscule-le-journalisme-256729

Crisis política en Francia: guía rápida para entender qué está ocurriendo en el país

Source: The Conversation – (in Spanish) – By Manuel Torres Aguilar, Catedrático de Historia del Derecho y de las Instituciones y director de la Cátedra UNESCO de Resolución de Conflictos, Universidad de Córdoba

Sébastien Lecornu, nuevo primer ministro francés y exministro de Defensa, preside una ceremonia militar en 2022. Tm/Wikimedia Commons, CC BY

La política francesa acaba de entrar en una nueva fase de inestabilidad tras la caída del primer ministro François Bayrou, después de perder la moción de confianza a la que se sometió en la Asamblea Nacional el 8 de septiembre. El resultado de 364 votos en contra y 194 a favor mostró una clara debilidad que le ha obligado a presentar su dimisión al presidente de la República.

Macron ha visto así como cuatro jefes de gobierno han caído durante su segunda legislatura.

El experimentado político francés, líder del Movimiento Demócrata (MoDem), de carácter centrista y profundamente europeísta, asumió el cargo en enero de este año, después de la dimisión de Michel Barnier, que tiene el dudoso honor de haber sido el primer ministro de mandato más breve en la historia de la V República.

Estos casi nueve meses de gobierno de Bayrou han estado marcados por una agenda económica muy impopular, que preveía un plan de recortes presupuestarios de 44 000 millones de euros anuales y otras medidas de limitación del gasto público que han provocado una fuerte contestación social y la oposición parlamentaria.

Su estrategia de tratar de evitar una moción de censura sometiéndose a una moción de confianza ha fracasado claramente, poniendo de manifiesto la polarización de la vida política francesa entre la extrema derecha de Marine Le Pen y la izquierda del radical Jean-Luc Mélenchon.

Los votos de ambos extremos junto a los de varios diputados del bloque oficialista, que muestran también la fractura del macronismo, han provocado su caída y una crisis que abre una nueva incertidumbre en uno de los socios claves de la Unión Europea.

Las opciones de Macron

No tenía demasiadas opciones Emmanuel Macron, que está en una posición francamente delicada. En concreto, podemos señalar tres:

  1. Convocar elecciones legislativas anticipadas, que es lo que exige la oposición, aunque según los sondeos la Asamblea podría resultar aún más fragmentada.

  2. Nombrar un nuevo primer ministro, eligiendo entre su círculo de confianza más próximo o entre los socialistas, que forman parte del bloque ganador de las elecciones legislativas.

  3. Dimitir, que es una opción que él ya ha descartado públicamente a pesar de que un 64 % de los franceses apoyarían su salida de la presidencia.

Razones de la crisis de gobernabilidad

Desde que se convocaron las elecciones legislativas de junio de 2024, la Asamblea ha quedado dividida en tres bloques: ultraderecha, centroderecha gubernamental e izquierda, sin que ninguno tenga una mayoría clara. Esta fragmentación ha hecho imposible la estabilidad en el gobierno.

Así, los antecesores de quien ahora ejerce como primer ministro de Francia, Sébastien Lecornu –Élisabeth Borne, Gabriel Attal, Michel Barnier y François Bayrou–, han dependido de alianzas frágiles, de presión social constante ante cualquier intento de reforma y de una polarización creciente entre extrema derecha e izquierda radical con el objetivo de hacer oposición frontal. Finalmente, hay que tener en cuenta el error estratégico de Macron al disolver la Asamblea tras el varapalo electoral de las europeas, que no ha hecho sino agravar más la crisis política y acentuar su debilidad. Macron buscaba obtener un mejor resultado para su bloque presidencial y el resultado fue incrementar su debilidad.

Los retos del nuevo primer ministro

Solo cinco horas después de aceptar la dimisión de Bayrou, Macron ha nombrado como primer ministro a Sébastien Lecornu, hasta ahora responsable de la cartera de Defensa de su Gobierno, que era la opción más previsible y cómoda de entre las expuestas más atrás.

El nuevo primer ministro se enfrenta desde hoy a las protestas convocadas en la calle y, el viernes, a Fitch, la agencia internacional de calificación crediticia, que tiene previsto anunciar la nueva calificación de la deuda soberana francesa.

La necesidad de una reajuste económico es el principal caballo de batalla que moviliza a la calle y a los mercados, cada uno por intereses contrapuestos. El ajuste de unos 44 000 millones de euros con medidas impopulares para rebajar el déficit fiscal y la deuda pública, que soporta una carga de intereses que en 2025 asciende a 55 000 millones de euros, se antojan un reto demasiado grande para un gobierno demasiado débil.

Macron ha tirado del manual clásico del presidente arrinconado: buscar entre sus más leales y en la “comodidad” del continuismo la solución. El enrocamiento frente a todos parece inspirar esta decisión. Lecornu es valorado por su fidelidad, discreción y capacidad de consenso, pero supone no adoptar una medida más audaz para intentar salir de la actual aritmética parlamentaria.

Tratar de buscar el acuerdo con el resto de fuerzas políticas “respetando las convicciones de cada uno” es el primer objetivo que la presidencia de la República ha emitido en el comunicado oficial hecho público el 9 de septiembre (que, por cierto, ha desaparecido de la web del Elíseo).

Macron no ha optado por la solución de dar la presidencia del Gobierno a un socialista como fuerza ganadora en 2024, opción que ha venido evitando desde entonces. Esto supondría, al menos, un intento más novedoso de alterar el curso de la política francesa, pero ha preferido no arriesgar nada, enrocarse en su posición inicial. Así demuestra su carga ideológica contraria a subir la tributación a las rentas más altas para tratar de equilibrar en algo las cuentas.

En el camino al autoritarismo

Ya sabemos lo que decía Einstein: “No pretendamos que las cosas cambien si siempre hacemos lo mismo”. Olivier Faure era una propuesta más social que habría facilitado, al menos, una mayor paz social.

Marine Le Pen lo tiene claro: “El presidente dispara su último cartucho”.

Así las cosas, aguantar hasta 2027 con esta misma Asamblea será un reto muy difícil. Celebrar nuevas elecciones legislativas cambiaría poco el panorama, por lo que Francia, y con ella Europa, están justo en el escenario que parece evocar tiempos en los que la debilidad de las democracias abrió el camino al autoritarismo que destruyó la vieja Europa.

La obstinación de la izquierda francesa y el enrocamiento del macronismo pueden construir un puente nefasto para las presidenciales de 2027 que, por otro lado, afectaría gravemente a la continuidad de la Unión Europea que conocemos.

Como conclusión, la encrucijada actual requiere de la capacidad de pacto, que es el eje más noble de la política. Cuando esto falla, el desapego y la desafección buscan consuelo en las posiciones antipolíticas. Además, la V República, pensada para el bipartidismo de gobiernos estables, ha sido superada por otra realidad electoral en la que aquella ya no encaja.

The Conversation

Manuel Torres Aguilar no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Crisis política en Francia: guía rápida para entender qué está ocurriendo en el país – https://theconversation.com/crisis-politica-en-francia-guia-rapida-para-entender-que-esta-ocurriendo-en-el-pais-264904

The discovery of a gravitational wave 10 years ago shook astrophysics – these ripples in spacetime continue to reveal dark objects in the cosmos

Source: The Conversation – USA – By Chad Hanna, Professor of Physics, Penn State

When two massive objects – like black holes or neutron stars – merge, they warp space and time. Mark Garlick/Science Photo Library

Scientists first detected ripples in space known as gravitational waves from the merger of two black holes in September 2015. This discovery marked the culmination of a 100-year quest to prove one of Einstein’s predictions.

Two years after this watershed moment in physics came a second late-summer breakthrough in August 2017: the first detection of gravitational waves accompanied by electromagnetic waves from the merger of two neutron stars.

Gravitational waves are exciting to scientists because they provide a completely new view of the universe. Conventional astronomy relies on electromagnetic waves – like light – but gravitational waves are an independent messenger that can emanate from objects that don’t emit light. Gravitational wave detection has unlocked the universe’s dark side, giving scientists access to phenomena never observed before.

As a gravitational wave physicist with over 20 years of research experience in the LIGO Scientific Collaboration, I have seen firsthand how these discoveries have transformed scientists’ knowledge of the universe.

This summer, in 2025, scientists with the LIGO, Virgo and KAGRA collaboration also marked a new milestone. After a long hiatus to upgrade its equipment, this collaboration just released an updated list of gravitational wave discoveries. The discoveries on this list provide researchers with an unprecedented view of the universe featuring, among other things, the clearest gravitational wave detection yet.

A map showing five yellow points indicating operational gravitational wave observatories: two in the US, two in Europe and one in Japan, and one orange point in India indicating a planned observatory.
The more operational gravitational-wave observatories there are around the globe, the easier it is to pin down the locations and sources of gravitational waves coming from space.
Caltech/MIT/LIGO Lab

What are gravitational waves?

Albert Einstein first predicted the existence of gravitational waves in 1916. According to Einstein’s theory of gravity, known as general relativity, massive, dense celestial objects bend space and time.

When these massive objects, like black holes and neutron stars – the end product of a supernova – orbit around each other, they form a binary system. The motion from this system dynamically stretches and squeezes the space around these objects, sending gravitational waves across the universe. These waves ever so slightly change the distance between other objects in the universe as they pass.

Detecting gravitational waves requires measuring distances very carefully. The LIGO, Virgo and KAGRA collaboration operates four gravitational wave observatories: two LIGO observatories in the U.S., the Virgo observatory in Italy and the KAGRA observatory in Japan.

Each detector has L-shaped arms that span over two miles. Each arm contains a cavity full of reflected laser light that precisely measures the distance between two mirrors.

As a gravitational wave passes, it changes the distance between the mirrors by 10-18 meters — just 0.1% of the diameter of a proton. Astronomers can measure how the mirrors oscillate to track the orbit of black holes.

These tiny changes in distance encode a tremendous amount of information about their source. They can tell us the masses of each black hole or neutron star, their location and whether they are spinning on their own axis.

An L-shaped facility with two long arms extending out from a central building.
The LIGO detector in Hanford, Wash., uses lasers to measure the minuscule stretching of space caused by a gravitational wave.
LIGO Laboratory

A neutron star-black hole merger

As mentioned previously, the LIGO, Virgo and KAGRA collaboration recently reported 128 new binary mergers from data taken between May 24, 2023, and Jan. 16, 2024 – which more than doubles the previous count.

Among these new discoveries is a neutron star–black hole merger. This merger consists of a relatively light black hole with mass between 2.5 and 4.5 times the mass of our Sun paired with a neutron star that is 1.4 times the mass of our Sun.

In this kind of system, scientists theorize that the black hole tears the neutron star apart before swallowing it, which releases electromagnetic waves. Sadly, the collaboration didn’t manage to detect any such electromagnetic waves for this particular system.

Detecting an electromagnetic counterpart to a black hole tearing apart a neutron star is among the holy grails of astronomy and astrophysics. These electromagnetic waves will provide the rich datasets required for understanding both the extreme conditions present in matter, and extreme gravity. Scientists hope for better fortune the next time the detectors spot such a system.

A massive binary and clear gravitational waves

In July 2025, the LIGO, Virgo and KAGRA collaboration also announced they’d found the most massive binary black hole merger ever detected. The combined mass of this system is more than 200 times the mass of our Sun. And, one of the two black holes in this system likely has a mass that scientists previously assumed could not be produced from the collapse of a single star.

When two astrophysical objects – like black holes – merge, they send out gravitational waves.

The most recent discovery announced by the LIGO, Virgo and KAGRA collaboration, in September 2025, is the clearest gravitational wave observation to date. This event is a near clone of the first gravitational wave observation from 10 years ago, but because LIGO’s detectors have improved over the last decade, it stands out above the noise three times as much as the first discovery.

Because the observed gravitational wave signal is so clear, scientists could confirm that the final black hole that formed from the merger emitted gravitational waves exactly as it should according to general relativity.

They also showed that the surface area of the final black hole was greater than the surface area of the initial black holes combined, which implies that the merger increased the entropy, according to foundational work from Stephen Hawking and Jacob Bekenstein. Entropy measures how disordered a system is. All physical interactions are expected to increase the disorder of the universe, according to thermodynamics. This recent discovery showed that black holes obey their own laws similar to thermodynamics.

The beginning of a longer legacy

The LIGO, Virgo and KAGRA collaboration’s fourth observing run is ongoing and will last through November. My colleagues and I anticipate more than 100 additional discoveries within the coming year.

New observations starting in 2028 may bring the tally of binary mergers to as many as 1,000 by around 2030, if the collaboration keeps its funding.

Gravitational wave observation is still in its infancy. A proposed upgrade to LIGO called A# may increase the gravitational wave detection rate by another factor of 10. Proposed new observatories called Cosmic Explorer and the Einstein Telescope that may be built in 10 to 20 years would increase the rate of gravitational wave detection by 1,000, relative to the current rate, by further reducing noise in the detector.

The Conversation

Chad Hanna receives funding from the National Science Foundation.

ref. The discovery of a gravitational wave 10 years ago shook astrophysics – these ripples in spacetime continue to reveal dark objects in the cosmos – https://theconversation.com/the-discovery-of-a-gravitational-wave-10-years-ago-shook-astrophysics-these-ripples-in-spacetime-continue-to-reveal-dark-objects-in-the-cosmos-264554

Le dernier accord de paix vacille en RDC : pourquoi ces échecs à répétition

Source: The Conversation – in French – By Kristof Titeca, Professor in International Development, University of Antwerp

Une série d’initiatives de paix lancées depuis 2021 ont cherché à remédier à l’escalade du conflit dans l’est de la République démocratique du Congo (RDC) à la suite d’une nouvelle offensive du groupe rebelle M23.

Les origines de cette crise remontent à la première guerre du Congo en 1996. Depuis lors, l’intensité du conflit dans l’est de la RDC a connu des hauts et des bas. L’offensive actuelle du M23 représente l’une de ses phases les plus violentes.

Au cours de près de trois décennies, de nombreux efforts de paix ont été entrepris, mais aucune intervention locale, régionale ou internationale n’a réussi à instaurer une stabilité durable. Elles n’ont surtout pas réussi à s’attaquer aux dynamiques profondes qui sous-tendent cette violence dans l’est du pays, riche en minerais, où au moins 120 groupes armés seraient actifs.

Parmi ces efforts récents, on peut citer le processus de Nairobi lancé en avril 2022 par la Communauté de l’Afrique de l’Est, et le processus de Luanda en juin de la même année, lancé par le président angolais João Lourenço.

La Communauté d’Afrique de l’Est a déployé sa force régionale en RDC en novembre 2022. Elle a été suivie par la Communauté de développement de l’Afrique australe, qui a déployé des troupes en décembre 2023. Ces troupes se sont retirées respectivement en 2023 et 2025.

Plus récemment, des pourparlers de paix ont eu lieu à Doha, après une rencontre entre les présidents du Congo et du Rwanda en mars 2025. Les États-Unis ont joué le rôle de médiateur à Washington à partir d’avril 2025.

Le conflit a continué de s’intensifier. Plus de 7,8 millions de personnes sont désormais déplacées à l’intérieur de la RDC orientale. Environ 28 millions de personnes supplémentaires sont confrontées à l’insécurité alimentaire, dont près de quatre millions se trouvent dans une situation d’urgence.

Pourquoi tous ces processus de paix n’ont-ils pas réussi à instaurer la stabilité et que pourrait-on faire pour les renforcer ?

J’ai étudié les dynamiques des conflits en Afrique centrale pendant des décennies et, à mon avis, la persistance des conflits dans l’est de la RDC n’est pas due à un manque d’initiatives de paix. Je soutiens que certaines initiatives souffrent d’une conception défaillante, d’autres d’une mise en œuvre difficile, et certaines d’une combinaison des deux.

Une profonde méfiance, des engagements au point mort, l’exclusion d’acteurs clés, des efforts de médiation fragmentés, une importance excessive accordée aux incitations économiques et une faible légitimité nationale ont entravé les progrès.

Idéalement, les processus de paix devraient remédier de manière globale à ces lacunes et jeter les bases d’une stabilité durable.

Mais les conditions idéales sont rares.

Le défi consiste donc à recourir à une diplomatie soutenue pour rendre les cadres imparfaits actuels plus efficaces, tout en instaurant progressivement la confiance et l’inclusivité nécessaires à une paix plus durable.

Ce qui a mal tourné

1. Profonde méfiance entre les parties

Depuis 2021, les processus de paix se sont concentrés sur les négociations de paix entre le gouvernement de la RDC, les représentants du M23 (et leur branche politique Alliance Fleuve Congo) et le gouvernement rwandais. L’ONU et de nombreux autres acteurs ont montré que le Rwanda soutenait le M23, une accusation que Kigali niée à plusieurs reprises.

Au cœur de l’échec de ces processus se trouve un profond manque de confiance. Les relations entre Kinshasa, le M23 et Kigali sont marquées par l’hostilité, la méfiance mutuelle et les promesses non tenues.

De plus, le M23, l’Alliance Fleuve Congo et le Rwanda ne peuvent être considérés comme des acteurs interchangeables. Parmi ces acteurs, des divergences subsistent quant aux objectifs ultimes de la rébellion : marcher sur Kinshasa, prendre le contrôle des territoires clés de l’est du pays ou renforcer leur influence à travers les structures étatiques congolaises plutôt que par le biais d’une administration séparée de facto.

Les atrocités qui continuent d’être commises sur le terrain renforcent la méfiance. Des rapports récents de l’ONU, Human Rights Watch et Amnesty International documentent les meurtres et les exécutions sommaires continus de civils congolais par les rebelles du M23 soutenus par le Rwanda, soulevant des inquiétudes de nettoyage ethnique. Ces atrocités s’ajoutent aux abus commis par les forces congolaises et les milices alliées (regroupées sous le nom de Wazalendo).

2. Mesures de mise en œuvre insuffisantes

En raison de cette méfiance, les parties hésitent à faire le premier pas dans la mise en œuvre des accords. La Déclaration de principes de Doha du 19 juillet 2025, par exemple, engageait les deux parties à procéder à des échanges de prisonniers et à rétablir l’autorité de l’État dans les zones contrôlées par les rebelles. Cependant, Kinshasa a refusé d’échanger des prisonniers avant un règlement définitif, une condition que le M23 considérait comme essentielle.

3. Échec à inclure tous les acteurs régionaux

La guerre dans l’est de la RDC implique plusieurs États voisins. L’Ouganda, en particulier, dispose d’une présence militaire importante et partage les préoccupations et les motivations du Rwanda : tous deux considèrent la région comme une menace pour la sécurité et une opportunité économique, notamment grâce aux exportations d’or et au commerce transfrontalier. Pourtant, l’Ouganda a été exclu de certaines négociations.

Début août 2025, les États africains ont annoncé qu’ils fusionneraient les structures de médiation de la Communauté de l’Afrique de l’Est, de la Communauté de développement de l’Afrique australe et de l’Union africaine en un processus consolidé dirigé par l’Union africaine. Cela pourrait potentiellement impliquer ces acteurs régionaux, en particulier l’Ouganda.

4. Duplication et fragmentation des initiatives

Depuis la reprise du conflit en 2021, un problème récurrent est la prolifération d’initiatives de paix parallèles et qui se chevauchent. Elles impliquent divers acteurs et manquent souvent de cohérence.

5. Le rôle et les limites de la pression extérieure

Le succès des négociations dépend dans une certaine mesure de la marge de manœuvre diplomatique dont disposent les acteurs de la médiation.

Dans le contexte actuel, la pression exercée par les États-Unis est essentielle. Et en effet, à la lumière de la reprise des combats à la mi-août 2025, les États-Unis ont publié une série de déclarations et de sanctions contre les parties impliquées, principalement le M23. Cependant, les attentes d’une intervention musclée des États-Unis, y compris l’idée irréaliste d’un « déploiement de troupes américaines sur le terrain », ont suscité la déception de nombreux acteurs, en particulier en RDC.

6. Les incitations économiques ne suffisent pas

Le processus de Washington a mis fortement l’accent sur la promotion du commerce avec les États-Unis, présentant la croissance économique comme une voie vers la stabilité. Mais la paix nécessite plus que des accords économiques. Cette approche risque de réduire un conflit multidimensionnel, enraciné dans des griefs politiques, sécuritaires et sociaux, à une question de marchés. Elle risque également de donner la priorité aux intérêts économiques américains plutôt que de répondre aux réalités locales.

7. Faible légitimité interne

Enfin, la légitimité des accords de paix actuels en RDC reste contestée. L’intensification du conflit a coïncidé avec une montée des critiques internes à l’encontre du président Félix Tshisekedi, dont l’autorité a été sapée par son incapacité à mettre fin à la violence. Les accords ont été critiqués par la société civile congolaise comme étant dictés par l’extérieur et insuffisamment inclusifs. Ils n’ont pas été ratifiés par le Parlement et n’ont pas impliqué la société civile ni les acteurs locaux.

Que faut-il changer ?

L’est de la RDC reste en proie à des conflits malgré les initiatives de paix. Les promesses non tenues, la mise en œuvre insuffisante et la profonde méfiance freinent les progrès. Les incitations économiques ne peuvent à elles seules résoudre une crise qui trouve ses racines dans des enjeux politiques, la sécurité et les revendications sociales.

Les puissances extérieures ne peuvent qu’exercer une influence. Une paix durable doit être négociée et approuvée par les parties elles-mêmes. Sans un soutien plus large, les processus de paix risquent de ne servir que de mécanismes d’apaisement, et non de véritables voies vers une résolution.

The Conversation

Kristof Titeca does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Le dernier accord de paix vacille en RDC : pourquoi ces échecs à répétition – https://theconversation.com/le-dernier-accord-de-paix-vacille-en-rdc-pourquoi-ces-echecs-a-repetition-264556

La France, championne de la lutte mondiale contre le VIH/sida ? Retour sur 40 ans de diplomatie face à la pandémie

Source: The Conversation – France in French (3) – By Marion Aballéa, Historienne, maître de conférences en histoire contemporaine, Sciences Po Strasbourg – Université de Strasbourg

Depuis la découverte du VIH par une équipe de l’Institut Pasteur en 1983, Paris s’est trouvé à l’origine de plusieurs initiatives diplomatiques notables visant à endiguer l’épidémie. Pour autant, ses contributions financières n’ont pas toujours été à la hauteur des grandes déclarations qu’ont multipliées ses dirigeants et ses diplomates.


« La France veut bien avoir les lauriers et devenir […] la championne de la santé mondiale. En revanche, quand il s’agit de mettre les financements sur la table, il n’y a personne. »

Au cœur de l’été, l’association Aides mettait la pression sur le gouvernement français. Alors que le Fonds mondial de lutte contre le sida, la tuberculose et le paludisme organisera fin 2025 sa huitième levée de fonds, Aides réclame que la France porte à 2 milliards d’euros sa contribution pour les trois prochaines années, soit une augmentation de 25 % par rapport à son engagement précédent.

Dans un contexte d’incertitudes, marqué par le probable désengagement des États-Unis – premier contributeur du Fonds – et par la réduction de l’aide au développement de plusieurs donateurs européens, l’association appelle la France, elle-même engagée dans une politique de réduction des dépenses, à intensifier son engagement pour se hisser à la hauteur du rôle que le pays prétend historiquement jouer en matière de santé globale, particulièrement en matière de lutte contre le VIH/sida.

Au moment où l’administration Trump réduit drastiquement les aides extérieures de Washington, où l’attention internationale se réoriente sur les enjeux sécuritaires et militaires, et où la France est le théâtre d’une crise budgétaire et politique inédite, cet appel doit être compris dans la longue durée : voilà 40 ans que la France se rêve en championne de la lutte mondiale contre le VIH/sida, sans toujours mettre sur la table les moyens qui lui permettraient de réaliser pleinement cette ambition.

L’ambition précoce de construire un leadership français

L’engagement français dans ce qui allait devenir « la diplomatie du sida » remonte à l’apparition de la pandémie au début des années 1980. Il trouve son point de départ dans l’identification, début 1983, du virus responsable de la maladie par une équipe française – celle coordonnée, à l’Institut Pasteur de Paris, par Luc Montagnier, Jean-Claude Chermann et Françoise Barré-Sinoussi.

Cette découverte constitue une opportunité diplomatique : elle permet de faire rayonner l’excellence de la science française et de nouer des coopérations avec divers pays touchés par l’épidémie.

En 1986, la tenue à Paris de la deuxième Conférence mondiale sur le sida témoigne déjà d’une reconnaissance internationale. Et lorsque, au même moment, la primauté de la découverte pastorienne est remise en cause par une équipe américaine, c’est l’ensemble de l’appareil politico-administratif français qui se met en action pour défendre tant les retombées symboliques et financières que l’honneur national. Jusqu’à l’Élysée où François Mitterrand ordonne au Quai d’Orsay d’« agir énergiquement » et d’« engager une campagne » pour défendre la cause française (Archives nationales, 5AG4/5801, « Le point sur le problème du sida », note de Ségolène Royal, 3 septembre 1985, annotation de la main de François Mitterrand).

Sur fond de contentieux franco-américain, le président s’engage personnellement dans la diplomatie du sida. Il pousse à ce que la question soit mise à l’agenda du G7 de Venise en 1987 et préside à la création d’un Comité international d’éthique sur le sida, dont la première réunion se tient à Paris, en 1989.

Alors que discriminations et violations des droits des malades et des séropositifs sont dénoncées internationalement par les associations, se placer en pionnier d’une réflexion sur les enjeux éthiques associés au sida est non seulement un moyen de conforter le leadership français, mais également de se distinguer du rival américain, critiqué pour les mesures discriminatoires et attentatoires aux droits imposées par l’administration Reagan dans sa réponse à l’épidémie.

Cinq ans plus tard, le 1er décembre 1994, le Sommet mondial de Paris sur le sida, porté notamment par Simone Veil, vise à consolider la place singulière que la France pense s’être construite dans la mobilisation internationale face au sida.

Ouverture du Sommet mondial de Paris sur le sida par Édouard Balladur, alors premier ministre, le 1erdécembre 1994.

Le Sommet débouche sur la « Déclaration de Paris », signée par 42 gouvernements, qui acte notamment le principe d’une plus grande implication des personnes malades ou vivant avec le VIH dans la réponse à la maladie. La France se pose en moteur de la diplomatie du sida, et fait de la défense des droits des malades le cœur d’un engagement qui est aussi l’outil d’une stratégie d’influence à l’échelle globale.

Un engagement financier critiqué

Toutefois, la réussite du Sommet de Paris n’est pas à la hauteur des attentes françaises. On pensait y réunir chefs d’État et de gouvernement, mais peu répondent finalement à l’appel. Les États-Unis, l’Allemagne ou le Royaume-Uni n’y envoient, par exemple, que leur ministre de la santé. Les associations dénoncent, par ailleurs, des engagements décevants sur l’inclusion et les droits des malades. Surtout, au printemps 1995, au lendemain de l’élection de Jacques Chirac à la présidence de la République, le nouveau gouvernement dirigé par Alain Juppé revient sur la promesse faite lors du Sommet de mobiliser 100 millions de francs pour la mise en œuvre des projets qui y avaient été discutés.

Ce renoncement vient conforter ceux qui dénoncent déjà, depuis plusieurs années, les postures françaises sur la scène internationale du sida : celles d’une diplomatie qui veut jouer les premiers rôles, qui s’épanouit dans les grands discours et la défense de grands principes, mais qui refuse de contribuer de manière proportionnelle à l’effort global contre la maladie.

Entre 1986 et 1991, la France a consacré environ 38,5 millions de dollars au combat international contre le sida : c’est infiniment moins que le leader américain (273 millions), mais aussi nettement moins que le Royaume-Uni (59,5 millions), et à peine plus qu’un « petit » pays comme le Danemark (36,9 millions) (Source : Commission européenne, « AIDS Policy of the Community and the Member States in the Developing World », 7 janvier 1994). Encore cette enveloppe est-elle très majoritairement consacrée à des aides bilatérales (notamment à destination de pays africains francophones) et très peu aux programmes multilatéraux mis en place pour répondre à la pandémie. Ce qui donne prise aux accusations de diplomatie opportuniste, utilisant le sida pour conforter son influence en Afrique au lieu de s’engager pleinement dans le nécessaire effort commun.

Dans un contexte bouleversé, en 1996, par l’arrivée de multithérapies efficaces pour neutraliser le VIH, la diplomatie française continue pourtant, au tournant du XXIe siècle, à se prévaloir de la découverte française du VIH, socle à ses yeux d’une légitimité et d’une responsabilité historiques, pour prétendre à une place singulière sur la scène internationale du sida, tout en restant discrète sur ses propres contributions.

En décembre 1997, à Abidjan (Côte d’Ivoire), Jacques Chirac est le premier dirigeant occidental à dénoncer le fossé des traitements entre Nord et Sud, et à appeler la communauté internationale à se mobiliser pour que les nouveaux traitements soient accessibles à tous. Une déclaration qui change la face du combat contre le sida, mais que la France est évidemment incapable de financer.

C’est, dès lors, moins en mettant de l’argent sur la table qu’en participant à imaginer de nouveaux mécanismes de financement que la diplomatie française parvient, à partir des années 2000, à maintenir son influence de premier plan.

Paris joue un rôle important dans la création du Fonds mondial, en 2002, dont un Français, Michel Kazatchkine, est entre 2007 et 2012 le deuxième directeur exécutif.

Jacques Chirac et son homologue brésilien Lula sont par ailleurs à l’origine, en 2006, de la création d’Unitaid, un mécanisme affectant à la lutte internationale contre le sida le produit d’une nouvelle taxe sur les billets d’avion. Le leadership français paraît aussi se décliner à l’échelle locale : la maire de Paris Anne Hidalgo est à l’initiative, en 2014, d’une nouvelle « Déclaration de Paris », fondant un réseau de métropoles mondiales engagées à devenir des « villes zéro-sida ».

Conférence de lancement d’Unitaid en 1996. Jacques Chirac, aux côtés du président brésilien Lula, au centre, entourés par le président des États-Unis Bill Clinton et le secrétaire général de l’ONU Kofi Annan.
UN Photo/Paulo Filgueiras

Dans un souci de cohérence, la France réoriente alors vers les programmes multilatéraux la majeure partie de l’aide internationale qu’elle consacre à la lutte contre le sida. Elle est, depuis sa création, la deuxième contributrice au Fonds mondial, (loin) derrière les États-Unis. En octobre 2019, elle accueille à Lyon la réunion des donateurs en vue de la sixième reconstitution du Fonds. Emmanuel Macron y ravive la tradition de l’engagement personnel des présidents français en annonçant une contribution française en hausse de 25 %. La promesse étant renouvelée trois ans plus tard, les engagements triennaux français sont passés d’un peu plus de 1 milliard d’euros en 2017-2019 à près de 1,6 milliard en 2023-2025.

Au 31 août 2025, à quatre mois de l’échéance, la France n’a toutefois versé qu’un peu plus de 850 millions d’euros sur les 1,6 milliard promis pour 2023-2025.

2025 : une ambition réalisée, ou enterrée

Marion Aballéa a récemment publié Une histoire mondiale du sida, 1981-2025, aux éditions du CNRS.

La France peut-elle dès lors être considérée comme une « championne » de la diplomatie du sida ? Depuis quarante ans, le Quai d’Orsay et l’Élysée, relayés par le ministère de la santé, ont voulu construire cette posture et en faire un levier d’influence internationale. Paris a été au cœur de plusieurs des grandes mobilisations ayant érigé la pandémie de VIH/sida en un défi global. Mais en rechignant à aligner ses contributions financières avec ses déclarations, la France s’est aussi attiré des critiques dénonçant l’instrumentalisation cynique de la pandémie à des fins purement diplomatiques.

En 2011, elle semblait encore chercher à contourner la logique multilatérale du Fonds mondial en instituant L’Initiative, un mécanisme vers lequel elle dirige 20 % de sa contribution et dont elle pilote l’attribution à des pays francophones.

L’appel d’Aides à porter la contribution française au Fonds mondial à 2 milliards d’euros doit être lu à la lumière de ce positionnement historique. À l’heure où le leader états-unien fait défection, et alors que les Nations unies n’ont pas renoncé à l’objectif de « mettre fin à la pandémie » d’ici à 2030, la France peut endosser pleinement le rôle de leader auquel elle prétend. Selon la réponse de Paris à cet appel, l’ambition affirmée il y a quarante ans sera réanimée ou, à l’inverse, durablement enterrée…

The Conversation

Marion Aballéa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La France, championne de la lutte mondiale contre le VIH/sida ? Retour sur 40 ans de diplomatie face à la pandémie – https://theconversation.com/la-france-championne-de-la-lutte-mondiale-contre-le-vih-sida-retour-sur-40-ans-de-diplomatie-face-a-la-pandemie-264297

Échec du présidentialisme, retour au parlementarisme ?

Source: The Conversation – in French – By Nicolas Rousselier, professeur d’histoire politique, Sciences Po

Après la chute des gouvernements Barnier et Bayrou, le nouveau premier ministre Sébastien Lecornu saura-t-il obtenir le soutien des parlementaires ? La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ?


Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.

Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.

Dès le Moyen Âge, le Parlement contre le prince

L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.

Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.

Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.

Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.

Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.

Une domination de l’exécutif fondée sur l’expertise et sur le règne des partis

Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).

D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.

Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec).

La « forme-parti » pour reprendre l’expression du politiste italien, Paol  Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.

Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.

Le parlementarisme a fonctionné sous la IIIᵉ et la IVᵉ République

Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.

L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.




À lire aussi :
Loi Duplomb, A69 : Comment le gouvernement Bayrou a contourné l’Assemblée nationale pour faire passer ses projets. La démocratie malmenée ?


Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.

La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.

The Conversation

Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Échec du présidentialisme, retour au parlementarisme ? – https://theconversation.com/echec-du-presidentialisme-retour-au-parlementarisme-264996

L’Allemagne face à Trump : le vrai poids du déséquilibre commercial

Source: The Conversation – France (in French) – By Damien Broussolle, Maître de conférences, Sciences Po Strasbourg – Université de Strasbourg

Le président des États-Unis Donald Trump s’est beaucoup inquiété de la place prise par les importations « Made in Germany » dans son économie. Qu’en est-il en réalité ? Dans quels secteurs l’Allemagne a-t-elle pris des parts de marché aux entreprises états-uniennes ? Quelle part occupent les biens et les services ?


La réélection de Donald Trump en 2024 a relancé une politique protectionniste à vocation mercantiliste aux États-Unis. Déjà la politique America First, lancée par le président Trump en 2018-2019, visait à réduire le déficit commercial américain en trois vagues de mesures, augmentant les droits de douanes jusqu’à 25 %. Si cette première offensive avait pu sembler surmontable, puisque finalement des aménagements avaient été trouvés, celle de l’administration Trump 2 apparaît extravagante.

En imposant des droits de douane exorbitants, prétendument réciproques, tous azimuts, elle déclare une guerre commerciale au monde entier. Dans ce combat, l’Union européenne (UE), et surtout l’Allemagne, avec ses excédents commerciaux élevés, sont présentées comme des profiteuses et des adversaires. La question se pose néanmoins de savoir dans quelle mesure ces accusations sont fondées. Cela conduit à examiner le commerce bilatéral entre l’Allemagne et les États-Unis.

Près de 247 milliards d’euros d’excédent

Avec un excédent du compte des transactions courantes de près de 247 milliards d’euros en 2024, proche du produit intérieur brut (PIB) de la Grèce, l’Allemagne apparaît comme un géant naturel du commerce international. Pourtant, jusqu’au début des années 1990, elle ne se distinguait que modestement de ses principaux concurrents de l’Organisation de coopération et de développement économiques (OCDE). On a ainsi oublié que le solde commercial allemand fut fragile jusqu’au début des années 1980.

La croissance prodigieuse date surtout de l’accentuation de la mondialisation consécutive à la crise de 2008. C’est à ce moment-là que l’économie allemande s’est franchement tournée vers la Russie, vers la Chine et vers les États-Unis, pays où les entreprises d’outre-Rhin avaient identifié de nouvelles sources de croissance des exportations pour les points forts du commerce allemand (automobile, équipement industriel,chimie-pharmacie).




À lire aussi :
Trump impose des droits de douane sur les automobiles : quels constructeurs ont le plus à perdre ?


Depuis le début des années 2000, l’Allemagne tutoie la part des États-Unis dans les exportations mondiales de marchandises, qui avoisine les 8 %. Depuis 2015, ils sont devenus son premier partenaire commercial. En 2024, le commerce vers les États-Unis représentait 10,4 % de ses exportations (1re position), et 6,9 % de ses importations (2e position). La même année, 3,7 % des exportations des États-Unis étaient destinés à l’Allemagne (7e position), alors que 4,9 % des importations (4e position) en provenaient, nous y reviendrons.

Dans les deux cas, le décalage entre exportations et importations illustre l’importance du surplus du commerce extérieur allemand. Sa valeur a d’ailleurs nettement augmenté depuis le premier mandat du président Trump, pour atteindre les 70 milliards d’euros en 2024 (Graphique 1). Ce chiffre est en grande partie dû à l’excédent de marchandises. Depuis plusieurs années, combiné avec les services, il se maintient aux environs de 1,75 % du PIB allemand.

Hausse des revenus des investissements

Les revenus des investissements allemands aux États-Unis renforcent l’excédent commercial. Ils ont augmenté de façon sensible depuis 2022. En 2024, l’Allemagne est le troisième investisseur aux États-Unis pour un montant de 677 millions de dollars. Du côté américain, le poids du déficit commercial bilatéral dans le PIB est globalement stable depuis plusieurs années, à 0,25 % du PIB : environ 10 % du déficit commercial des États-Unis est attribuable au commerce avec l’Allemagne.

Graphique 1 : Solde des échanges de biens et services de l’Allemagne avec les États-Unis

Première partie de la balance des paiements : échanges de biens et de services et flux des revenus primaires et secondaires.


Fourni par l’auteur

Source : Destatis (N. B. En noir, années du premier mandat de Trump marquées par la crise du Covid-19).

L’ampleur du déficit américain de marchandises apparaît spectaculaire. Depuis près de vingt-cinq ans, bon an mal an, les entreprises installées en Allemagne vendent aux États-Unis le double de la valeur des marchandises qu’elles y achètent (Graphique 2).

Graphique 2 : Commerce bilatéral de marchandises (en milliards de dollars réels)


Fourni par l’auteur

Source : Census Bureau of USA. Poids du solde échelle de droite, inversée ; (20) = – 20.

_Lecture : En 2024, le déficit des marchandises atteint -50 % du commerce bilatéral.

Dollars US réels : hors inflation (déflateur du PIB, Banque mondiale)_.

Un concurrent industriel de premier plan

Au cours de cette période, la plupart des lignes de la nomenclature de produits marquent une dégradation pour les États-Unis. De sorte qu’actuellement, mis à part les produits pétroliers et ceux tirés de l’agriculture ou de la pêche, toutes les grandes rubriques sont excédentaires pour l’Allemagne (Graphique 3).

Graphique 3 : Contribution au solde des échanges de marchandises, moyenne 2022-2024 (en %)


Fourni par l’auteur

Source : Destatis. Le solde global équivaut à 100 %.

_Lecture : En moyenne, sur les trois années 2022-2024, le solde des échanges de métaux et articles en métal contribue au solde global positif pour +8,1 %.

N. B. Certains soldes étant volatils, la moyenne sur trois ans a été utilisée pour lisser les données_.

Ces constats confirment, s’il en était besoin, que l’Allemagne est une redoutable concurrente industrielle, fournissant des produits de qualité peu sensibles aux prix du fait de leurs caractéristiques, avec une spécialisation dans les machines, dans les équipements industriels, dans l’automobile et dans la chimie. Moins connue est, toutefois, sa position dans le domaine des échanges de services.

Il convient, tout d’abord, de souligner que les spécificités des échanges de services font que les volumes enregistrés dans la balance commerciale sont habituellement modestes. Le commerce entre les deux pays ne déroge pas à ce constat général. Ainsi, en 2024, leurs échanges de services représentaient pour chacun d’entre eux moins de 30 % du commerce extérieur. Pour autant, l’Allemagne bénéficie depuis au moins deux décennies d’un excédent dans le domaine des services. Il est revenu, en 2024, à un étiage proche de celui du premier mandat de Trump, à moins de 4 milliards d’euros (Graphique 4). Cet excédent résulte d’un tableau contrasté avec de forts déficits bilatéraux, compensés par des excédents encore plus élevés (graphique n°5).

Graphique 4 : Échanges de services de l’Allemagne avec les États-Unis (milliards de dollars courants)


Fourni par l’auteur

Source : OCDE, Balanced trade in services (BaTIS).

Les États-Unis plus forts que l’Allemagne pour le tourisme

L’Allemagne est un pays moins touristique que les États-Unis, qui, du fait de leur spécialisation internationale, ont, en outre, des surplus dans les services de télécommunications et d’information, dans les services financiers, dans les services aux entreprises et, enfin, dans les services récréatifs et culturels. Plusieurs de ces excédents américains ont néanmoins subi une érosion entre 2005 et 2023. Cumulées, ces rubriques font plonger le solde allemand des échanges de services (Graphique 5).

France 24, 2025.

Toutefois l’impact des échanges de marchandises sur les flux de services contrebalance quasiment cette chute (transports de marchandises, services de réparation, revenus de la propriété intellectuelle sur les produits industriels, chimiques et pharmaceutiques). Ces catégories rétablissent déjà quasiment l’équilibre. S’ajoute une catégorie hybride, excédentaire depuis des années, qui recense l’ensemble des échanges des administrations gouvernementales et de leur personnel (ambassades, organisations internationales, bases militaires…) et englobe essentiellement des mouvements de marchandises. Son excédent est donc aussi en relation avec la puissance industrielle allemande.

Graphique 5 : Contributions au solde des échanges de services de l’Allemagne avec les États-Unis en 2023 (en %)


Fourni par l’auteur

Source : OCDE (BaTIS). Le solde global équivaut à 100 %.

Lecture : Le solde des échanges de services de télécommunications et d’information contribue pour -61 % au solde global.

Une dernière rubrique largement excédentaire (près de +70 % en 2023), illustre la compétitivité de l’Allemagne dans le secteur de l’assurance. Finalement, si de nombreuses rubriques de la balance des services sont défavorables à l’Allemagne, sa force dans le domaine industriel lui permet de les compenser presque entièrement. Ceci étant dit, l’image donnée est probablement incomplète.

Le rôle de l’optimisation fiscale

Comme le souligne la Bundesbank, les principales économies des pays de l’UE ont toutes une balance des services excédentaires vis-à-vis des États-Unis, alors que l’UE, considérée globalement, est largement déficitaire (-109 milliards d’euros en 2023). Les stratégies d’optimisation fiscales des entreprises américaines d’Internet pourraient expliquer cette étrangeté.

Ce tour d’horizon du commerce entre l’Allemagne et les États-Unis illustre le fait que, malgré ses outrances et son comportement apparemment incohérent, le président Trump ne choisit pas ses attaques ni ses points de blocage au hasard. Il y a, en effet, un important déséquilibre commercial entre les deux pays. Cela n’en valide pas pour autant sa méthode ou son raisonnement, qui bafouent les principes des négociations commerciales internationales menées depuis 1947, sous l’égide des États-Unis, avec la création du GATT.

Ce « problème » bilatéral nourrit un différend européen puisque le commerce international est du domaine communautaire. L’UE tout entière s’est donc trouvée placée dans le collimateur de Trump 2, en partie du fait de l’ampleur de l’excédent allemand.

De 2022 à 2024, à elle seule, l’Allemagne expliquait quasiment 40 % de l’excédent européen vis-à-vis des États-Unis. Les pays déficitaires avec les États-Unis (Espagne, Belgique, Pays-Bas), ou à faible excédent comme la France, se sont alors trouvés indûment frappés des mêmes droits prétendument réciproques que l’Allemagne, qui en revanche a pu s’abriter derrière sa situation commerciale moins problématique du point de vue américain. Cette « solidarité » européenne s’est retrouvée dans les négociations commerciales, qui ont surtout consisté, du côté européen, à éviter à l’automobile et à la chimie-pharmacie allemande les conséquences les plus désastreuses des outrances trumpiennes (DGTES 2025).

The Conversation

Damien Broussolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’Allemagne face à Trump : le vrai poids du déséquilibre commercial – https://theconversation.com/lallemagne-face-a-trump-le-vrai-poids-du-desequilibre-commercial-264499