Mars : les nouveaux résultats de la NASA démontrent-ils des signes de vie passée ?

Source: The Conversation – France in French (2) – By Sean McMahon, Reader in Astrobiology, University of Edinburgh

La roche surnommée Cheyava Falls présente des taches qui auraient pu être formées par une forme de vie microbienne. Nasa JPL-Caltech, CC BY

Les analyses d’une roche trouvée sur Mars par le rover Perseverance ont été publiées hier dans la revue Nature. Si ces taches auraient pu être créées par une activité microbienne, ces observations ne sont en fait que le début d’une longue enquête… qui nécessite de ramener la roche sur Terre.


Il y a un peu plus d’un an, la NASA a fait une grande annonce : le rover Perseverance, qui explore la surface de Mars, avait trouvé des signes potentiels d’une vie ancienne sur Mars. Les détails de cette découverte ont maintenant été évalués par les pairs et publiés dans la revue Nature. Un article qui, malgré sa formulation plutôt modeste, pourrait finalement s’avérer être l’un des plus importants de l’histoire des sciences.

Pour faire court : ces traces pourraient être des signes de vie passée, mais il faudrait ramener les échantillons sur Terre pour en être sûrs. Le rover Perseverance a collecté et analysé un fragment de la roche en question… il ne reste plus qu’à aller le chercher.

Et une mission visant à se rendre sur Mars, à récupérer les échantillons de roche collectés par Perseverance et à les ramener sur Terre a été élaborée par la NASA et l’Agence spatiale européenne — ceci inclut l’échantillon de roche qui fait l’objet de l’étude publiée dans Nature. Mais cette mission, Mars Sample Return, rencontre des difficultés en raison de l’augmentation des coûts de la mission ([ndlr : et le budget proposé en mars 2025 par le président Trump n’inclut pas cette mission]).

Au milieu de l’année 2024, le rover Perseverance a découvert un bloc de mudstone ancien, une roche sédimentaire composée à l’origine d’argile ou de boue, surnommée Cheyava Falls, qui se distingue par sa teinte rouge brique. Cette roche a été déposée par l’eau il y a environ quatre milliards d’années.

Alors que la plupart des roches martiennes sont rouges à cause d’une couche de poussière d’oxyde de fer, Cheyava Falls est rouge jusqu’à son cœur : l’oxyde de fer se trouve dans la roche elle-même.

Plus intriguant encore, Cheyava Falls est parsemée de douzaines de minuscules taches pâles, de tailles généralement inférieures à un millimètre. Ces taches sont bordées d’un minéral sombre, riche en phosphore, qui apparaît également sous forme de minuscules points dispersés entre les autres taches et que l’on appelle « graines de pavot ». Ce minéral plus sombre est associé à des traces d’anciens composés organiques : des composés qui contiennent du carbone et qui sont essentiels à la vie sur Terre… mais qui existent également en l’absence de vie et d’activité biologique.

Quel est le rapport avec la vie ?

Tous les organismes vivants sur Terre collectent l’énergie grâce à des réactions d’oxydoréduction (réactions redox) qui transfèrent des électrons entre des substances chimiques appelées réducteurs (qui cèdent des électrons) et d’autres, appelées oxydants (qui les acceptent).

Sur Terre par exemple, dans les cellules animales, des structures appelées « mitochondries » transfèrent des électrons du glucose (un réducteur) à l’oxygène (un oxydant). Certaines bactéries vivant dans les roches utilisent d’autres types de composés organiques à la place du glucose et, à la place de l’oxygène, de l’oxyde ferrique (un type d’oxyde de fer aux quel il manque trois électrons par rapport au métal fer).

Serpentine Rapids
Une autre roche martienne, baptisée Serpentine Rapids, présente également des caractéristiques rappelant les taches d’oxydoréduction.
NASA JPL-Caltech

Lorsque l’oxyde ferrique est réduit en un autre oxyde de fer appelé oxyde ferreux (il ne manque plus que deux électrons par rapport au métal fer), il devient soluble dans l’eau. Il peut ensuite être dispersé ou réagir pour former de nouveaux minéraux, de couleur plus claire.

Il en résulte que de nombreuses roches et sédiments rouges sur Terre contiennent de petites taches blanchies, appelées « taches de réduction », qui ressemblent de manière frappante à celles trouvées à Cheyava Falls.

Sur Mars, Perseverance a également repéré des caractéristiques blanchies encore plus évocatrices de taches de réduction sur un site appelé Serpentine Rapids. Malheureusement, le rover n’y a passé que trop peu de temps pour les analyser et n’a prélevé aucun échantillon.

Le nouvel article développe des résultats présentés lors de la Lunar and Planetary Science Conference de Houston (États-Unis) en mars 2025, avec plus de détails. Pour être publiés dans Nature, les résultats ont été évalués par des pairs (d’autres chercheurs spécialistes du domaine), ce qui ajoute du crédit à l’annonce de la NASA. Ainsi, la nouvelle publication confirme que les taches pâles sont associées à des matières organiques et qu’elles contiennent du fer ferreux et du soufre, plus précisément un minéral de sulfure de fer.

L’interprétation la plus plausible est que des réactions d’oxydoréduction se sont produites à l’intérieur de la roche après sa formation. Elles ont transféré des électrons des matières organiques vers l’oxyde ferrique et le sulfate, ce qui a produit les zones décolorées, où l’oxyde ferrique est réduit en oxyde ferreux.

Perseverance
Perseverance avec la roche de Cheyava Falls.
NASA JPL-Caltech

Le point crucial est que ces réactions, en particulier la réduction des sulfates, ne se produisent normalement pas aux températures relativement basses auxquelles la roche de Chevaya Falls a été soumise au cours de son histoire… à moins que des microbes ne soient intervenus pour aider la réaction à se produire. L’oxydation microbienne de la matière organique peut également produire des minéraux phosphatés, comme ceux trouvés à Cheyava Falls.

Si nous ne ramenons pas les échantillons dans des laboratoires sur Terre, nous ne pourrons pas savoir ce qui s’est réellement passé à Cheyava Falls il y a quatre milliards d’années.

Mais malgré cela, pour l’instant, nous n’avons pas identifié d’explication « non-biologique » (qui n’implique pas d’organisme vivant) qui soit entièrement satisfaisante et rende compte de l’ensemble des observations faites par Perseverance. Le nouvel article détaille ces potentielles explications, en examinant les possibilités une par une.

Mais quoi qu’il en soit, en astrobiologie, l’absence d’explication non biologique ne marque pas la fin de la recherche de vie, mais plutôt… son commencement. L’histoire nous enseigne que lorsque nous ne trouvons pas d’explication non biologique à un phénomène, ce n’est généralement pas parce qu’il n’y en a pas… c’est simplement parce que nous n’y avons pas encore pensé.




À lire aussi :
Comment cherche-t-on des traces de vie sur Mars ?


Que va-t-il se passer maintenant ?

Tout d’abord, les astrobiologistes du monde entier doivent étudier quelles réactions d’oxydoréduction impliquant le fer, le soufre, les composés organiques et le phosphate auraient pu se produire, avec ou sans organismes vivants, dans des conditions similaires à celles de Cheyava Falls.

Ensuite, la NASA et d’autres agences spatiales devront faire preuve d’un leadership audacieux dans le cadre de la mission Mars Sample Return. Oui, cela coûtera cher, peut-être des dizaines de milliards de dollars, mais le résultat pourrait être la découverte scientifique la plus importante jamais réalisée.




À lire aussi :
La politique spatiale de la Chine déjoue-t-elle le narratif imposé par les Etats-Unis ? Une conversation avec Isabelle Sourbès-Verger


The Conversation

Sean McMahon a reçu des financements de la NASA par le passé.

ref. Mars : les nouveaux résultats de la NASA démontrent-ils des signes de vie passée ? – https://theconversation.com/mars-les-nouveaux-resultats-de-la-nasa-demontrent-ils-des-signes-de-vie-passee-265084

Retraites par capitalisation ou par répartition : quel système est le plus rentable ?

Source: The Conversation – France (in French) – By Anne Lavigne, Professeure de Sciences économiques, Université d’Orléans

Le nouveau premier ministre Sébastien Lecornu a indiqué vouloir rouvrir le dossier des retraites. Lors du conclave, la retraite par capitalisation avait été rapidement évoquée. De quoi parle-t-on quand on évoque ce système de financement ? Est-il vraiment opposé à la retraite par répartition ? Quels sont ses réels atouts économiques et financiers ? Les risques qui lui sont associés le discréditent-ils, comme le disent ces critiques ?


Plus connue sous l’appellation « conclave », la délégation paritaire permanente installée le 27 février dernier s’est soldée par un échec, malgré une redéfinition par les partenaires sociaux eux-mêmes du périmètre des thématiques à aborder. Le financement des retraites par capitalisation a notamment été évoqué, avec prudence par les organismes syndicaux et plus d’enthousiasme par les représentants du patronat.

Parallèlement, le 11 juillet dernier, le comité de suivi des retraites a rendu son 12ᵉ avis. Il relève :

« Le recours accru à la capitalisation ne peut pas constituer à court terme une réponse au déséquilibre de notre système par répartition, et peut même avoir pour effet de détourner des ressources du financement des régimes »,

et souligne que :

« Recherche de rendement, préservation de la volatilité, financement de l’économie nationale, investissements souverains constituent autant d’objectifs qui ne sont pas forcément conciliables avec un seul outil dont l’objectif principal reste de verser des retraites aux anciens actifs. »

Comment ça marche ?

Dans un système de retraite par répartition, les cotisations des travailleurs actifs ont vocation à financer les pensions des retraités. S’y ajoutent, dans la plupart des pays, des prélèvements fiscaux. Si les cotisants d’une année donnée financent les pensions des retraités la même année, et non leur propre retraite, ils acquièrent un droit à pension financé par les générations ultérieures et garanti par la nation.




À lire aussi :
Retraites : l’allongement de la durée du travail, la moins mauvaise des solutions ?


Dans un système de retraite par capitalisation, les cotisations versées une année donnée sont placées dans des actifs financiers ou immobiliers, dont les rendements se cumulent au fil du temps. Les revenus des placements sont réinvestis année après année jusqu’à la retraite, et le capital accumulé pendant la vie active est versé à la liquidation des droits à la retraite, selon des modalités propres à chaque régime de capitalisation, en une rente viagère, en versements programmés ou en un versement unique.

Un outil de fidélisation

Historiquement, les régimes de retraite professionnels en capitalisation se sont développés lorsque les pays se sont industrialisés. L’objectif des employeurs était de fidéliser une main-d’œuvre par la promesse d’un salaire direct, mais également d’un salaire conditionnel (versement d’une pension d’invalidité en cas d’accident) ou différé (versement d’une pension de retraite lorsque la vieillesse rendait le travailleur inapte au travail).

Dans cette évolution historique, la France a emprunté une voie singulière : si des dispositifs de retraite par capitalisation ont été effectivement instaurés à la fin du XIXe et au début du XXe siècle, ils n’ont pas résisté aux turbulences économiques et financières de l’entre-deux-guerres. À la Libération, la nation a fait le choix d’un système public obligatoire en répartition pour l’ensemble des salariés, avec des caisses de retraite complémentaires professionnelles également financées en répartition.

Ce choix collectif pour la répartition est singulier. Dans tous les autres pays, la retraite de base est en répartition mais les retraites professionnelles sont en capitalisation. Dans le débat qui se rouvre aujourd’hui en France, la question posée est : jusqu’où et comment déplacer le curseur vers la capitalisation ?

Une question de dosage ?

Pour certains, la question ne se pose même pas. Par principe, la répartition doit rester l’unique mode de financement des retraites. En effet, développer la capitalisation reviendrait à renforcer le pouvoir actionnarial au détriment du travail, à démanteler la protection sociale solidaire, à accentuer les inégalités à la retraite (les épargnants plus fortunés ont une meilleure capacité à obtenir des rendements financiers plus élevés).

Au-delà de ce principe, qui a sa légitimité, quels arguments peut-on faire valoir pour introduire une dose de capitalisation dans notre système de retraite ? La capitalisation est-elle plus efficace, en termes de rendement et de risque, que la répartition dans sa capacité à procurer un revenu de remplacement pendant la retraite ?

Des systèmes complexes à comparer

Comparer le rendement de la retraite en répartition ou en capitalisation revient à se demander : pour chaque euro cotisé pendant ma vie active, combien d’euros obtiendrai-je sous forme de pension une fois à la retraite ?

Évaluer le rendement de la capitalisation est en théorie simple, plus délicat en pratique. En théorie, pour un cotisant, le rendement de la capitalisation est le rendement obtenu sur les placements effectués tout au long de sa carrière à partir des cotisations versées. Bien sûr, ces cotisations sont périodiques : celles de début de carrière seront capitalisées sur un temps très long, celles effectuées en fin de carrière sur un temps plus court. Et personne ne connaît avec certitude le nombre des années passées à la retraite, de sorte que le rendement de l’épargne retraite dépend de la durée probable de survie au départ à la retraite.

En définissant le taux de rendement interne (TRI) comme le taux qui égalise la somme (actuelle probable) des cotisations versées et des pensions reçues, le rendement de la capitalisation correspond au taux de rendement des placements dans lesquels ont été investies les cotisations, sous l’hypothèse que les pensions reçues sont actualisées à ce taux.

Un raisonnement fallacieux

En pratique, on présente souvent le rendement de la capitalisation comme le rendement moyen observé sur des placements financiers. Pour cela, on calcule le rendement moyen, par exemple sur une durée de quarante ans, d’un indice boursier, par exemple le CAC 40 et on affirme « Si on avait introduit la capitalisation en 1982, les retraités toucheraient 300 euros de plus que la pension offerte par l’actuel système en ayant cotisé deux fois moins ».

Cette expérience de pensée est en réalité fallacieuse. Aucun fonds de pension (a fortiori un épargnant individuel) ne place la totalité de ses actifs dans des actions. D’une part, pour diversifier les risques financiers ; d’autre part, parce qu’au départ à la retraite, il faut convertir le capital de cotisations accumulées en flux de pension. Et cette phase de décumulation nécessite d’avoir des actifs suffisamment liquides et dont la valeur de revente n’est pas (trop) volatile.

Évaluer le « rendement » de la répartition est aussi discutable, puisque la répartition n’est pas une opération financière intertemporelle. Sur un plan individuel, calculer un taux de rendement interne n’a pas grand sens, puisque précisément, on ne cotise pas pour soi-même. On peut néanmoins s’intéresser au rendement collectif d’un régime par répartition.

Le rôle des taux de croissance

La capacité d’un système de retraite par répartition à assurer un bon niveau de pension aux retraités dépend de manière cruciale du nombre de travailleurs effectivement employés et de leur productivité. Si le taux d’emploi augmente, cela fait plus de cotisants et si la productivité des travailleurs augmente, cela se traduit généralement par des rémunérations plus élevées, et donc une assiette de cotisations plus importante.

Schématiquement, la croissance démographique et le progrès technique jouent le même rôle dans le rendement implicite de la répartition. Pour x euros cotisés en répartition quand ils sont actifs, les salariés « récupèrent » lorsqu’ils partent à la retraite les x euros revalorisés de la somme du taux de croissance de la population (supposée employée pendant toute sa vie active) et du taux de croissance de la productivité.

Avantage en trompe-l’œil pour la capitalisation

On comprend donc que la capitalisation est plus rentable que la répartition si le taux de rendement du capital est supérieur au taux de croissance cumulé de la population et de la productivité, qu’on peut assimiler au taux de croissance économique en première approximation. Qu’en est-il dans les faits ?

Même si la crise financière de 2007 a ébranlé quelques certitudes, il ressort des études historiques sur longue période que le rendement réel des placements financiers est supérieur au taux de croissance économique dans les principaux pays industrialisés.

Arte 2025.

Dans une vaste fresque historique, Jordá et al. ont calculé que l’écart entre le taux de rendement de la richesse et le taux de croissance économique s’élevait à 2,68 % en moyenne pour un ensemble de 16 pays sur la période 1950-2015. En très longue période (1870-2015), leur étude montre que le rendement réel de la richesse est supérieur au taux de croissance réel dans tous les pays, sauf pendant les sous périodes de guerre.

Cette étude confirme, par ailleurs, un résultat observé par de nombreuses contributions antérieures : en moyenne, le rendement réel des actions est supérieur au rendement réel des actifs sans risque (obligations et actifs monétaires). La prime de risque, qui mesure l’écart entre rendement des actions et des actifs sans risque, s’élevait à environ 4 % en moyenne avant la Première Guerre mondiale, pour devenir légèrement négative lors de la grande dépression, puis s’envoler jusqu’à 14 % au début des années 1950 et revenir à son niveau séculaire autour de 4 % depuis 2000. Cette évolution tendancielle se retrouve dans tous les pays, à des niveaux de taux de rendement différents d’un pays à l’autre. Entre 1980 et 2015, la prime de risque en France se situe légèrement en dessous de la moyenne globale, à 2,14 %.

Rentabilité et risque

Pour autant, pour les individus, ce n’est pas le rendement moyen du système en longue période qui importe, mais le montant de la rente viagère qu’ils pourront obtenir chaque mois lorsqu’ils seront à la retraite. Observer qu’en moyenne, chaque année, sur une très longue période, le rendement du capital est supérieur à la croissance économique n’implique pas qu’il faille choisir la capitalisation pour couvrir le risque vieillesse, pour au moins trois raisons.

LCI 2025.
  • La première raison, c’est que, pour un individu donné, ce n’est pas le rendement moyen du système en longue période qui importe, mais le montant de la rente viagère qu’il pourra obtenir chaque mois lorsqu’il sera à la retraite. Et c’est là qu’intervient la notion de risque d’un placement financier. Chacun peut constater que le cours d’une action cotée varie jour après jour. Cette variation peut être mesurée par des indicateurs statistiques, tels que la variance ou l’écart-type ; grosso modo, ces indicateurs mesurent « de combien s’écarte le cours d’une action par rapport à sa tendance sur une période donnée ? ». Ce qu’on peut montrer théoriquement, et ce qu’on observe dans les faits, c’est que plus une action est détenue pendant une période de temps longue, plus la variation de son rendement autour de la tendance moyenne se réduit.

Pour autant, cela ne signifie pas que détenir des actions pendant une longue période, par exemple jusqu’à la retraite, ne soit pas risqué. En effet, pour quelqu’un qui souhaite financer sa retraite par un placement financier, ce qui importe, ce n’est pas le rendement annuel moyen de son placement sur trente ans, mais bien le rendement total qu’il obtiendra au bout de trente ans quand il partira à la retraite. Et il est possible que le rendement annuel moyen sur vingt-neuf ans soit favorable, mais qu’il soit anéanti par un krach boursier l’année suivante.

  • La deuxième raison, c’est que les rendements des actions tels qu’ils peuvent être calculés à partir des cotes officielles sont bruts de frais. En pratique, si on souhaite financer sa retraite par capitalisation, on doit utiliser les services d’un intermédiaire (fonds de pension, gestionnaire d’actifs, banque, entreprise d’assurance) et ces services sont facturés. Pour un individu donné, le rendement des actions doit s’apprécier « net de frais ». Or, ces frais peuvent s’avérer élevés lorsque la concurrence entre les intermédiaires est faible.

La troisième raison, c’est qu’à la base, financer sa retraite, c’est se couvrir contre les risques liés à la vieillesse (être dans l’incapacité physique ou mentale de travailler à âge élevé et ignorer combien de temps on passera à la retraite). Dans cette optique, il serait paradoxal de couvrir un risque (le risque vieillesse) en en prenant un autre (le risque financier).

Ce dernier argument ne suffit pas, toutefois, à disqualifier la capitalisation, d’autant que la répartition comporte aussi des risques.


Éditions La Découverte, Fourni par l’auteur

The Conversation

Anne Lavigne est membre du Conseil d’administration de l’Etablissement de retraite additionnelle de la fonction publique, en qualité de personnalité qualifiée. Cette fonction est assurée à titre bénévole.

ref. Retraites par capitalisation ou par répartition : quel système est le plus rentable ? – https://theconversation.com/retraites-par-capitalisation-ou-par-repartition-quel-systeme-est-le-plus-rentable-261477

Cancer du sein : une nouvelle étude révèle un risque génétique chez les femmes africaines

Source: The Conversation – in French – By Mahtaab Hayat, Lecturer, University of the Witwatersrand

Le cancer du sein est le cancer le plus fréquent chez les femmes dans le monde. En Afrique subsaharienne, il est aussi la principale cause de décès liés au cancer.

Les facteurs de risque connus incluent le fait d’être une femme, l’âge, le surpoids, la consommation d’alcool et les prédispositions génétiques.

Dans ce domaine, les études dites « d’association à l’échelle du génome » ou études d’association pangénomique constituent un outil puissant. Elles permettent d’identifier les variantes génétiques courantes, ou mutations, qui peuvent influencer la probabilité de développer une maladie. Ces études analysent l’ensemble du génome (l’ADN complet d’une personne) afin de trouver les différences génétiques présentes chez les personnes atteintes d’une maladie.

Depuis 2005, ces études ont fourni des informations utiles pour le diagnostic, le dépistage et la prédiction de certaines maladies, notamment le cancer du sein. Les découvertes récentes ont été utilisées pour développer des outils de prédiction qui aident à identifier les personnes présentant un risque élevé de développer des maladies. Les scores de risque génétique (également appelés scores de risque polygénique) estiment la prédisposition à une maladie en fonction de l’effet cumulatif de multiples variantes ou mutations génétiques.

Mais la plupart des recherches ont été menées sur des populations d’ascendance européenne. Cela pose un problème, car la diversité génétique et la variabilité environnementale diffèrent à travers le monde. En Afrique, la diversité génétique est la plus importante observée mondialement.

Pour combler cette lacune, nous, chercheurs de l’université de Wits, du Sydney Brenner Institute for Molecular Bioscience et nos collaborateurs du Registre National du Cancer d’Afrique du Sud (South African National Cancer Registry), avons mené la première étude d’association pangénomique sur le cancer du sein dans une population d’Afrique subsaharienne.

Nous avons comparé les variations génétiques entre les femmes atteintes d’un cancer du sein et celles qui n’en sont pas atteintes, à la recherche de variantes qui ont une différence de fréquence entre les Malades atteints de cancer et les individus sans cancer.

Nous avons identifié deux variantes génomiques proches des gènes RAB27A et USP22 qui contribuent au risque de cancer du sein chez les femmes noires sud-africaines. Ces variantes génétiques n’avaient jamais été associées au cancer du sein dans les populations non africaines auparavant.

Nos résultats soulignent l’importance d’identifier les variantes génétiques spécifiques à une population, en particulier dans les populations peu étudiées. Différentes populations peuvent être porteuses de variantes uniques qui contribuent différemment au risque de cancer du sein. Les variantes à risque trouvées dans d’autres populations peuvent ne pas être présentes dans les populations africaines. Cela renforce l’idée que les efforts de recherche et les scores de risque doivent être réalisés dans différentes populations, y compris les populations africaines.

Comparaison de l’ADN des femmes

Les chercheurs ont comparé l’ADN de 2 485 femmes atteintes d’un cancer du sein à celui de 1 101 femmes non touchées par la maladie. Toutes ces femmes résidaient à Soweto, en Afrique du Sud. Les cas de cancer du sein ont été recrutés dans le cadre de l’étude du Johannesburg Cancer Study sur une période de 20 ans et les témoins provenaient de l’étude Africa Wits-INDEPTH Partnership for Genomic Research.

L’analyse a utilisé une technologie (appelée puce ADN) spécialement conçue par le consortium H3Africa pour étudier la diversité génétique des populations africaines.

En comparant les variations génétiques chez les femmes atteintes d’un cancer du sein et celles qui n’en sont pas atteintes, nous avons identifié deux variantes génétiques qui contribuent au risque de cancer du sein chez les femmes noires sud-africaines. Elles sont situées à proximité de gènes impliqués dans la croissance des cellules cancéreuses, leur capacité à se propager (métastases) et le développement de tumeurs dans différents cancers.

Nous avons également appliqué des scores de risque polygéniques à notre ensemble de données africaines. Il s’agit d’une méthode qui estime le risque de cancer du sein pour un individu en fonction de la présence de variantes à risque. Ces variantes sont dérivées des résultats d’études d’association pangénomique. Le score de risque que nous avons utilisé était basé sur les variantes à risque d’une population européenne. Nous l’avons utilisé pour évaluer sa capacité à prédire le cancer du sein dans notre population africaine.

Les résultats ont montré que le score de risque était moins efficace pour prédire le cancer du sein dans notre population d’Afrique subsaharienne que dans une population européenne.

La prochaine étape

Il s’agit ici de la première analyse d’association pangénomique à grande échelle en Afrique subsaharienne visant à identifier les facteurs génétiques qui influencent le risque d’une personne de développer un cancer du sein.

Notre étude a porté sur moins de 4 000 échantillons. Des études génétiques plus importantes sur le cancer du sein ont porté sur plus de 200 000 cas et témoins, mais sans représentation des populations d’Afrique subsaharienne. Cela souligne le besoin urgent d’intensifier les efforts de recherche et d’accroître la participation du continent.

Les résultats de cette étude et des études futures aideront les médecins à dépister les patientes et à identifier celles qui présentent un risque élevé. Une fois que nous savons qui présente un risque élevé, nous pouvons leur proposer des examens plus fréquents et des mesures préventives. Cela nous permet de détecter le cancer du sein à un stade précoce, voire de le prévenir, avant qu’il n’ait eu le temps de se développer ou de se propager.

Des recherches supplémentaires seront nécessaires pour comprendre comment ces gènes augmentent le risque de développer un cancer du sein et améliorer la prédiction du cancer du sein. Il est à noter que l’application des scores de risque polygéniques dérivés de l’Europe n’a pas permis de prédire avec précision le cancer du sein dans l’ensemble des populations africaines. Ces résultats sont cohérents avec les conclusions précédemment rapportées pour d’autres maladies.

Enfin, les chercheurs participent aussi à une étude mondiale sur la génétique du cancer du sein, appelée Confluence, qui prend en compte de nombreuses populations, y compris africaines.

Le professeur Christopher Mathew et Beth Amato ont contribué à la rédaction de cet article.

The Conversation

ean-Tristan Brandenburg receives funding from the German Federal Ministry of Education and Research (BMBF) under grant 01KA2220B to the RHISSA Programme for the NORA Consortium. Additionally, he is supported by the Science for Africa Foundation through Programme Del-22-008, with funding from the Wellcome Trust and the UK Foreign, Commonwealth & Development Office. He is also a participant in the EDCPT2 programme, which is supported by the European Union.

Mahtaab Hayat does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Cancer du sein : une nouvelle étude révèle un risque génétique chez les femmes africaines – https://theconversation.com/cancer-du-sein-une-nouvelle-etude-revele-un-risque-genetique-chez-les-femmes-africaines-264509

60 % des Africains ne croient pas que la démocratie serve leurs intérêts : comment les parlements peuvent remédier à cela

Source: The Conversation – in French – By Temitayo Isaac Odeyemi, Research fellow, International Development Department, University of Birmingham

Partout en Afrique, la démocratie est mise à l’épreuve par la montée de l’autoritarisme et des coups d’État militaires, ainsi que par un fossé grandissant entre les citoyens et les institutions censées les représenter.

Le dernier rapport phare d’Afrobarometer, un réseau de recherche panafricain, lance un avertissement solennel. Publié en juillet 2025, le rapport intitulé « Citizen Engagement, Citizen Power » (Engagement citoyen, pouvoir citoyen) révèle que plus de 60 % des Africains sont insatisfaits du fonctionnement de la démocratie dans leur pays. Le soutien à la démocratie reste élevé, mais la confiance en son efficacité s’estompe, en particulier lorsque les citoyens se sentent exclus d’une participation significative aux décisions qui les concernent.

En termes simples, la crise de la participation résulte de l’absence des citoyens dans la salle où sont prises les décisions qui les concernent. Cet article présente des moyens pratiques permettant aux parlements d’impliquer les citoyens.

Je suis politologue et mes travaux en politique comparée portent sur les institutions politiques et l’engagement démocratique en Afrique. Mes recherches plus générales s’appuient sur ma thèse de doctorat sur le développement institutionnel et l’engagement public législatif au Nigeria.

Ces recherches ont montré que la lassitude démocratique a de nombreuses causes, notamment l’insécurité et les besoins socio-économiques non satisfaits. Mais le problème plus profond est une crise de la participation, où les décisions qui affectent les citoyens sont prises sans consultation. Trop souvent, les Africains ont le sentiment que les décisions sont prises pour eux, et non avec eux. Le pouvoir reste concentré dans les cercles élitistes, tandis que l’engagement public est réduit à des gestes symboliques.

Dans cette optique, la démocratie est quelque chose qui se pratique dans les capitales plutôt que dans les communautés.

Pour que cela change, les parlements doivent prendre l’initiative. En tant qu’institutions les plus visibles liées à la représentation, ils peuvent reconnecter les citoyens au processus démocratique. Lorsque les parlements incitent les citoyens à participer, ils contribuent à restaurer la confiance du public. Lorsqu’ils n’y parviennent pas, c’est tout le projet démocratique qui s’en trouve affaibli.

Il est encourageant de constater que de nombreuses constitutions africaines, notamment celles du Kenya, de l’Afrique du Sud, Zambie et Zimbabwe exigent désormais la participation du public à l’élaboration des lois.

Les parlements font de plus en plus référence à l’engagement citoyen dans leurs plans stratégiques, et des modèles remarquables tels que la participation publique offrent des cadres pratiques.

Les efforts de l’Afrique du Sud ont contribué à une augmentation de 27 % à une meilleure compréhension par le public des mandats du parlement. Les données provenant de la société civile et de recherches indépendantes corroborent cette affirmation.

Mais dans de nombreux pays, la mise en œuvre reste inégale et la plupart des parlements ne parviennent pas à impliquer suffisamment les citoyens.

Selon les données, la confiance dans les parlements a baissé de 19 points depuis 2011. Seuls 37 % des Africains disent avoir confiance dans ces organes politiques et représentatifs super importants.

On a l’impression que la participation publique est souvent juste pour la forme et que les parlements ne s’engagent avec les citoyens que quand ça les arrange politiquement.

Deux exemples récents illustrent le coût de ce désengagement. Au Kenya, des manifestations de masse contre le projet de loi de finances 2024 ont éclaté après que le parlement a adopté des mesures fiscales controversées sans consultation publique adéquate. Les réactions violentes, notamment l’assaut du parlement, ont reflété la colère généralisée non seulement à l’égard du contenu du projet de loi, mais aussi à l’égard du manque de participation des citoyens à son élaboration.

Au Nigeria, les législateurs ont rétabli en une seule journée l’hymne national de l’époque coloniale, sans consulter la population.

L’une des raisons pour lesquelles la confiance dans les parlements est en baisse est qu’il existe des lacunes dans la manière dont cette institution écoute et agit.

Comme le montrent les données d’Afrobarometer, les citoyens ont toujours considéré que les parlements jouaient un rôle clé dans l’élaboration des lois et la responsabilisation des dirigeants. Le défi ne réside donc pas dans ce que fait ou devrait faire cette institution, mais dans la manière dont elle le fait. Ainsi, mener des actions visibles est un moyen pour le parlement de restaurer la confiance du public.

Ce que nous apprend Afrobarometer sur la participation

Le message de Citizen Engagement, Citizen Power est clair : les citoyens veulent plus que le simple droit de vote. Ils veulent influencer les décisions, demander des comptes aux dirigeants et co-créer des solutions aux défis auxquels ils sont confrontés. La participation n’est pas un luxe, elle est essentielle à la légitimité et à l’efficacité des institutions démocratiques.

Pour les parlements, cela commence par la communication. De nombreux citoyens ignorent tout simplement ce que fait leur parlement ou comment l’influencer. Les sites web des parlements sont souvent obsolètes, les réseaux sociaux sous-utilisés et les documents législatifs remplis de jargon inaccessible.

Les parlements doivent utiliser des résumés en langage clair, des infographies et des documents axés sur les citoyens pour expliquer les questions clés. Cela est urgent à une époque marquée par la désinformation et les deepfakes.

La radio reste l’un des outils les plus puissants et les plus accessibles pour sensibiliser la population à la démocratie. Les assemblées législatives qui utilisent déjà des émissions de radio pour expliquer les projets de loi et recueillir des commentaires devraient étendre ces initiatives, en particulier dans les langues locales. Les podcasts, les dialogues publics et les événements communautaires peuvent également susciter l’engagement.

Mais l’engagement ne concerne pas seulement l’information, il concerne aussi la présence. De nombreux parlements restent physiquement et culturellement éloignés des personnes qu’ils servent. Les membres du parlement sont de plus en plus issus des élites riches et orientées vers les affaires, ce qui renforce l’impression que le parlement sert ses propres intérêts.

Autrefois, les enseignants, les fonctionnaires et les dirigeants communautaires étaient plus nombreux dans les assemblées législatives.

Pour combler ce fossé, les parlements doivent investir dans un engagement décentralisé. Cela implique notamment d’organiser des audiences en dehors des capitales, de mener des actions de sensibilisation dans les zones rurales et de nouer des partenariats avec les écoles, les universités et les institutions confessionnelles.

Il est essentiel que la consultation soit authentique. Trop souvent, la participation se limite aux ONG d’élite des centres urbains. Celles-ci jouent un rôle important, mais ne peuvent se substituer à un engagement à grande échelle. Le Bureau de la démocratie parlementaire d’Afrique du Sud offre un modèle : une unité de sensibilisation dédiée qui s’efforce d’inclure les voix rurales et de traduire les contributions du public en politiques. Des efforts similaires à travers le continent devraient garantir que la participation devienne une pratique courante et que les citoyens puissent suivre l’impact de leurs contributions sur les résultats.

Les structures communautaires existantes peuvent accueillir des assemblées et des forums citoyens. La technologie peut également aider, mais elle doit être utilisée de manière inclusive. Avec près de la moitié de la population vivant dans des zones rurales et un tiers n’ayant pas reçu d’éducation formelle (https://databrowser.uis.unesco.org/ « »), l’engagement numérique risque d’exclure les groupes qui ont le plus besoin de faire entendre leur voix.

La participation, bouée de sauvetage de la démocratie

Le rapport Afrobarometer montre que les citoyens ne se détournent pas de la démocratie en soi. Ils se détournent des institutions démocratiques qui ne les incluent pas. La participation peut reconnecter les citoyens à la démocratie et restaurer la confiance dans la gouvernance. Mais seulement si elle est significative, durable et inclusive.

Les événements au Kenya et au Nigeria démontrent les risques de l’exclusion. Si les parlements légifèrent sans le peuple, les citoyens chercheront à se faire entendre ailleurs, par le biais de manifestations, de mouvements populistes ou d’alternatives autoritaires.

The Conversation

Temitayo Isaac Odeyemi does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. 60 % des Africains ne croient pas que la démocratie serve leurs intérêts : comment les parlements peuvent remédier à cela – https://theconversation.com/60-des-africains-ne-croient-pas-que-la-democratie-serve-leurs-interets-comment-les-parlements-peuvent-remedier-a-cela-264555

Nintendo : « Super Mario Bros. », quarante ans de jeunesse éternelle

Source: The Conversation – France (in French) – By Arnault Djaoui, Doctorant en Science de l’Information et Communication – Laboratoire LIRCES, Université Côte d’Azur

L’iconique plombier à moustaches, mascotte de la firme Nintendo, célèbre, le 13 septembre, le quarantième anniversaire de sa première aventure vidéoludique. Cet emblème intergénérationnel n’en finit pas de séduire de nouveaux adeptes en réussissant à se renouveler constamment. Alors, d’où ce sympathique personnage puise-t-il son secret de jouvence ?


Avant qu’il ne soit Mario, le personnage est d’abord introduit sous le sobriquet de Jumpman dans le jeu d’arcade Donkey Kong, en 1981. La figure mythique du petit plombier espiègle – à cette époque charpentier et aujourd’hui sans profession attitrée – montrait déjà la volonté du fabricant Nintendo d’installer une mécanique de jeu simple et audacieuse. Le joueur incarne, dans cette première mouture, un personnage haut en couleur évoluant sur des plateaux urbains ascensionnels. Le but du jeu est de déjouer les assauts du gorille Donkey Kong au moyen de sauts allègres, exécutables à l’aide d’une simple pression sur une touche jusqu’à atteindre le vil primate et libérer une demoiselle en détresse.

La fantaisie de l’action et des éléments narratifs affiche d’emblée une forte envie de proposer un univers durable, amusant et identifiable. Plus encore, la volonté initiale du concepteur, Shigeru Miyamoto, est de conférer à son personnage une stature marquée et une vraie personnalité. Ainsi, cette vedette en devenir synthétise dès sa première apparition les attributs d’une entité originale et attractive, qui se démarque de ses prédécesseurs, Pacman ou les space invaders. C’est donc après une seconde incursion dans les salles d’arcade que l’élu de Nintendo va réellement marquer le début de sa légende, durant l’année 1985.

Le raz-de-marée « Super Mario Bros. »

L’arrivée de son propre jeu attitré marque un tournant dans le jeu de plateformes et plus globalement dans l’industrie du jeu vidéo. Désormais baptisé Mario, cet attachant héros dispose alors de tout un « lore » (l’ensemble des éléments relatifs à l’univers d’un jeu) qui lui est propre, jonché de créatures alliées (la princesse Peach, Toad le champignon, etc.) ou ennemies (Bowser, les Koopas, etc.) qui définissent également le caractère incontournable de cette mythologie.

En plus de parcourir des dizaines de niveaux, tous plus colorés, riches en animation et périlleux dans les dangers dont ils sont parsemés, le joueur découvre au cours des péripéties du plombier une approche bien plus enchanteresse du challenge dans le jeu vidéo. Le médium, qui reposait jusqu’ici sur des principes réitératifs et contenus dans des parties courtes, trouve avec Super Mario Bros. la possibilité de combiner le sens de l’amusement machinal et le sentiment pur de voyage immersif. Les effets de jouabilité, simples d’utilisation mais extrêmement exigeants dans ce qu’ils invoquent de dextérité et d’attention, inaugurent également une nouvelle manière de ressentir la difficulté graduelle des épreuves au fil de cette odyssée d’un genre nouveau.

Un univers qui inspire et qui s’exporte

Très rapidement, le modèle instauré par cet opus fondateur cristallise une nouvelle ère vidéoludique, qui se caractérise par une réutilisation appuyée du système simple et efficace des fondements de Mario. Outre les innombrables créations qui s’inspirent directement de cette œuvre instauratrice (Castle of Illusion, Disney’s Duck Tales, Castlevania II: Simon’s Quest, etc.), de nouveaux volets de la saga Mario vont être logiquement mis en chantier. Le personnage évolue continuellement au gré de nombreuses modifications de modélisation (character design), de nouveaux pouvoirs à sa disposition (feu, glace, agilité féline, etc.) et de nouvelles rencontres de personnages en tout genre, en même temps que le public grandit aussi de son côté.

Cette proximité entretenue entre les joueurs et le personnage de fiction marque une permanence de cet espace de dérivation, d’époque en époque. Telle une saga cinématographique ou une série télé, l’univers de Mario se décline en plusieurs épisodes (Super Mario Land, en 1989, Super Mario World, en 1990, etc.) qui apportent tous leurs lots de nouveautés tant sur la technique que sur l’agrandissement du lore.

Ainsi, de nouvelles figures incontournables de l’estampille Nintendo sont introduites pour la première fois dans les jeux Mario. C’est le cas de l’attendrissant dinosaure Yoshi, dans la série Super Mario World, ou du patibulaire double maléfique Wario, dans Super Mario Land 2 en 1992, qui bénéficieront par la suite de leurs propres jeux à succès.

De son côté, Mario ne va cesser d’asseoir son hégémonie et d’étendre sa galaxie. Au cinéma, avec une première adaptation en prises de vue réelles en 1993, à la télévision, avec une série animée datant de 1989, en jeux de société ou en produits dérivés, la machine tentaculaire de Nintendo entend bien investir tous les secteurs du divertissement. L’amélioration substantielle des graphismes au gré de chaque génération de consoles va ensuite permettre la réalisation des ambitions les plus folles des concepteurs.

L’avènement de nouveaux enjeux

L’exploitation du monde de Mario se ressent donc avant tout dans la sphère vidéoludique. Chacune de ses nouvelles apparitions est synonyme d’une version soit alternative, soit sublimée de sa dialectique. Les séries secondaires, telles que le jeu de course Mario Kart 64 (1996) ou le jeu de plateau et minijeu Mario Party (1998), deviennent par conséquent des ouvrages aussi appréciés que les opus de la série mère.

Par la suite, le plombier et sa myriade de compagnons s’inviteront dans toutes sortes de genres vidéoludiques (football, basketball, jeux olympiques, jeux de réflexion, jeux de rôle, jeux de modélisation, etc.) pour définir une mosaïque où l’universalité est au centre du propos. C’est pourtant bel et bien avec son arrivée dans la sphère du jeu de plateformes en 3D que l’égérie de Nintendo marque une nouvelle révolution à l’aube du XIXe siècle.

Jouissant désormais d’une technique graphique permettant de profiter des environnements de façon totale avec une profondeur de champ à 360°, Mario s’illustre dans Super Mario 64 (1996) de façon homérique.

La 3D polygonale, qui était jusqu’à présent l’adage de créations globalement plus sérieuses, atteint avec ce titre des sommets de liberté, de dépaysement et d’enivrement pour l’époque. Les contrées visitées par le plombier (déserts, volcans, plaines enneigées, îles tropicales, etc.), dans ses anciennes aventures, sont remises au goût du jour pour permettre au joueur de redécouvrir leur exotisme à travers un prisme complètement remanié. Le fait de pouvoir aborder ces surfaces en profitant des nouvelles aptitudes du héros, désormais fort de 28 mouvements distincts, configure une ergonomie de l’exploration encore jamais atteinte dans un jeu de ce type.

Cette étape d’innovation marque un tournant dans l’approche du jeu de plateformes et d’aventure dans le secteur du jeu vidéo, qui deviennent des références en matière de prouesses interactives.

Un personnage qui mute dans le sens du perfectionnement

Chaque nouvelle sortie devient ainsi l’occasion de faire évoluer cette formule dans le sens de la modernité, en capitalisant toujours sur l’effet d’originalité et d’amélioration. Les différents gameplay (jouabilité) mis en œuvre participent à cet état de réinvention puisqu’ils mettent à l’honneur une thématique différente à chaque aventure. Super Mario Sunshine (2002) fait la part belle au maniement d’un jetpack (réacteur dorsal) aquatique, qui propulse le personnage pour parcourir les environnements tropicaux de l’île Delfino, pendant que Super Mario Galaxy (2007) mise sur la découverte de plusieurs planètes en mettant au centre du gameplay la gravitation.

Des tonalités atypiques qui composent l’effet de dérivation – un concept qui désigne l’agentivité des règles de fonctionnement et de participation du jeu – et qui créent par conséquent des attentes fortes dans le public quant aux prochaines trouvailles. En 2017, un nouveau cap d’immersion et d’ambition artistique est franchi pour la franchise. Mario s’essaye au genre révolutionnaire de l’open-world (jeu en monde complètement ouvert) avec Super Mario Odyssey, qui propose d’arpenter différentes époques et différents pays (Égypte ancienne, Japon féodal, mégapole américaine, etc.) à la façon des voyages dans le temps. Cette vision de l’épopée spatio-temporelle résonne comme l’aboutissement suprême des prédispositions originelles de la formule Mario.

Le personnage s’est développé au fil du temps, il a éveillé de nouvelles capacités, il a rencontré de nouveaux compagnons puis quitté son royaume Champignon natal pour découvrir le reste du monde jusqu’aux tréfonds de l’espace.

Cette empreinte impérissable démontre la virtuosité de la série à garder constamment en vue les changements de la modernité pour se les approprier sans pour autant perdre l’essence traditionnelle qui a construit la légende de ses premiers triomphes.

La postérité toujours en ligne de mire

Dans son sillage, il laisse une multitude d’influences conceptuelles qui se ressentent jusque dans l’actualité la plus récente. Kirby et le monde oublié (2022) et le tout nouveau Donkey Kong Bananza (2025), des studios Nintendo, réutilisent clairement le système de jeu libre instauré dans Super Mario Odyssey.

Les chiffres parlent d’eux-mêmes. En 2025, la saga Mario Bros. (sans les séries secondaires) a franchi le seuil des 400 millions d’exemplaires vendus depuis ses débuts en 1985. Plus encore, le blockbuster cinématographique de 2023 produit par le studio américain Illumination enregistre la même année plus de 1,3 milliard de dollars de recette, devenant le second long-métrage d’animation le plus rentable au monde.

Aujourd’hui plus que jamais, Super Mario montre son statut d’œuvre indéfectible du jeu vidéo et de la pop culture mondiale, avec ce que cela implique d’adaptation permanente au public et aux transformations sociales. Comme Mickey Mouse en son temps, Mario a littéralement ouvert des portes à tout un espace de création et de rêverie aux yeux du monde. Il est devenu l’ambassadeur légitime de ces contrées virtuelles où s’animent l’ivresse d’un instant stimulant, la féerie d’un univers facétieux, la joie d’un défi relevé.

The Conversation

Arnault Djaoui ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Nintendo : « Super Mario Bros. », quarante ans de jeunesse éternelle – https://theconversation.com/nintendo-super-mario-bros-quarante-ans-de-jeunesse-eternelle-264230

Quand l’intelligence artificielle bouscule le journalisme

Source: The Conversation – in French – By Vincent Pasquier, Professeur en GRH et relations professionnelles, HEC Montréal

L’intelligence artificielle (IA) semble aujourd’hui offrir à la profession de journaliste le meilleur… comme le pire.

D’un côté, des usages portés par la rigueur et l’excellence, comme en témoignent plusieurs finalistes et lauréats du prestigieux prix Pulitzer. Par exemple, le New York Times a utilisé l’IA pour détecter des cratères de bombes sur images satellites à Gaza, prouvant des frappes en zones civiles.

De l’autre, des usages plus préoccupants : production de contenus trompeurs, standardisation du travail et suppressions de postes dans des rédactions déjà fragilisés par plus d’une décennie de crise.

Depuis 2022, ce tournant technologique s’est nettement accéléré avec la diffusion massive d’outils d’IA générative accessibles au grand public, dont ChatGPT est devenu la figure de proue.

Nous sommes des chercheurs et professeurs au sein du département de Département de gestion des ressources humaines de HEC Montréal. Notre équipe a mené, à la fin de l’année 2024, une enquête auprès de 400 journalistes canadiens et internationaux. Cinq enjeux en ressortent, qui dessinent autant de défis à venir pour les journalistes et les rédactions.

Enjeu #1 : un risque de polarisation de la profession

L’IA générative est déjà bien implantée dans les rédactions. Deux journalistes sur trois déclarent y avoir déjà eu recours et près d’un tiers l’utilisent au moins trois fois par semaine. Son adoption reste toutefois inégale : les jeunes journalistes et les pigistes en font un usage plus fréquent.

Ces écarts générationnels et statutaires laissent entrevoir une possible fracture au sein du métier. D’un côté, les journalistes les plus stables, souvent mieux rémunérés et plus encadrés, pourraient tirer profit de ces outils pour gagner du temps ou améliorer leur production. De l’autre, les professionnels plus jeunes et plus précaires risqueraient davantage d’être mis en concurrence avec la machine pour l’exécution de tâches routinières ou peu valorisées. Une telle polarisation de la profession pourrait constituer un premier enjeu de taille pour les journalistes, d’autant que ce type de phénomène a déjà été largement documenté dans d’autres secteurs suite à l’introduction de nouvelles technologies.




À lire aussi :
L’intelligence artificielle à la rescousse du journalisme


Enjeu #2 : à qui profiteront les gains de productivité ?

Les journalistes qui utilisent l’IA en tirent souvent des bénéfices concrets. Ils évoquent les gains de temps et l’amélioration de la qualité du travail produit, en particulier pour la collecte et l’analyse de données, ainsi que pour la production et l’édition de textes.

Mais ces bénéfices perçus soulèvent un enjeu central : comment serait utilisé le temps nouvellement « libéré » par la machine ? Servirait-il à produire mieux, ou simplement plus ? Profiterait-il aux journalistes, ou aux organisations qui les emploient ? Cet enjeu du partage des gains de productivité se posera avec d’autant plus d’acuité que, dans certains cas, les journalistes participeront eux-mêmes à l’entraînement de ces outils.

Enjeu #3 : le risque d’une diminution de l’effort intellectuel

Malgré son apparition récente, l’IA générative suscite déjà un sentiment de dépendance chez près d’un quart des journalistes. Cette tendance est particulièrement marquée chez les jeunes journalistes, pour qui ces outils sont présents dès le début de carrière.

En déléguant régulièrement des tâches telles que la structuration d’un raisonnement ou l’organisation d’un récit, les journalistes risqueraient d’affaiblir certaines compétences fondamentales, voire d’en retarder l’acquisition. Des recherches menées dans d’autres professions évoquent même le risque d’une « paresse métacognitive » : une diminution de l’effort intellectuel induite par une confiance excessive dans la machine.

Enjeu #4 : plus on s’en sert, moins on s’en méfie

De nombreux journalistes sondés expriment des craintes liées à l’usage de l’IA générative, notamment en ce qui concerne la qualité et l’authenticité des contenus produits.

Toutefois, ces craintes ne sont pas réparties de manière homogène au sein de la profession. Elles sont particulièrement vives chez les non-utilisateurs, au point de s’apparenter, dans certains cas, à une forme de résistance.

À l’inverse, elles tendent à s’atténuer chez les utilisateurs réguliers : plus l’usage devient fréquent, plus la vigilance éthique diminue. Plus frappant encore, les journalistes se déclarant les plus dépendants à l’IA générative sont aussi ceux qui expriment le moins de craintes vis-à-vis de cette technologie.

Enjeu #5 : une régulation qui reste largement à construire

La régulation de l’IA générative dans les rédactions reste embryonnaire. Seul un tiers des journalistes déclarent que leur rédaction dispose d’une politique claire encadrant l’usage de ces outils. Plus étonnant, ils sont encore plus nombreux (36 %) à ne pas savoir si une telle politique existe.

Nos résultats montrent pourtant que, lorsque ces politiques sont connues, elles influencent directement les usages de l’IA générative. En revanche, la présence syndicale ne semble pas jouer, à ce stade, un rôle significatif dans l’appropriation de ces outils. Cette absence de balises collectives s’explique notamment par le manque de recul, mais aussi par la prudence des employeurs, qui hésitent à freiner l’innovation.

Quel avenir pour le journalisme à l’heure de l’IA générative ?

Sans verser dans l’alarmisme, cette étude met en lumière des transformations rapides et encore insuffisamment encadrées. L’IA générative peut faire gagner du temps et améliorer la qualité des contenus, mais elle pourrait aussi, selon les usages, renforcer la précarité, affaiblir certaines compétences ou accentuer les inégalités professionnelles.

Face à ces enjeux – qu’ils touchent à l’emploi, à l’autonomie, à la rémunération ou aux conditions de travail – la mise en place de garde-fous collectifs apparaît essentielle pour préserver un avenir souhaitable pour la profession.


Nous tenons à souligner l’importance des contributions de Xavier Parent-Rocheleau, Nicolas Turcotte-Légaré, Marie-Claude Gaudet et Antoine Bujold à la réalisation du rapport.

La Conversation Canada

L’équipe coordonnées par Vincent Pasquier a reçu des financements de l’Obvia (Observatoire sur les impacts sociétaux de l’IA et du numérique) pour réaliser ce projet .

Catherine Lespérance ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’intelligence artificielle bouscule le journalisme – https://theconversation.com/quand-lintelligence-artificielle-bouscule-le-journalisme-256729

Le dernier accord de paix vacille en RDC : pourquoi ces échecs à répétition

Source: The Conversation – in French – By Kristof Titeca, Professor in International Development, University of Antwerp

Une série d’initiatives de paix lancées depuis 2021 ont cherché à remédier à l’escalade du conflit dans l’est de la République démocratique du Congo (RDC) à la suite d’une nouvelle offensive du groupe rebelle M23.

Les origines de cette crise remontent à la première guerre du Congo en 1996. Depuis lors, l’intensité du conflit dans l’est de la RDC a connu des hauts et des bas. L’offensive actuelle du M23 représente l’une de ses phases les plus violentes.

Au cours de près de trois décennies, de nombreux efforts de paix ont été entrepris, mais aucune intervention locale, régionale ou internationale n’a réussi à instaurer une stabilité durable. Elles n’ont surtout pas réussi à s’attaquer aux dynamiques profondes qui sous-tendent cette violence dans l’est du pays, riche en minerais, où au moins 120 groupes armés seraient actifs.

Parmi ces efforts récents, on peut citer le processus de Nairobi lancé en avril 2022 par la Communauté de l’Afrique de l’Est, et le processus de Luanda en juin de la même année, lancé par le président angolais João Lourenço.

La Communauté d’Afrique de l’Est a déployé sa force régionale en RDC en novembre 2022. Elle a été suivie par la Communauté de développement de l’Afrique australe, qui a déployé des troupes en décembre 2023. Ces troupes se sont retirées respectivement en 2023 et 2025.

Plus récemment, des pourparlers de paix ont eu lieu à Doha, après une rencontre entre les présidents du Congo et du Rwanda en mars 2025. Les États-Unis ont joué le rôle de médiateur à Washington à partir d’avril 2025.

Le conflit a continué de s’intensifier. Plus de 7,8 millions de personnes sont désormais déplacées à l’intérieur de la RDC orientale. Environ 28 millions de personnes supplémentaires sont confrontées à l’insécurité alimentaire, dont près de quatre millions se trouvent dans une situation d’urgence.

Pourquoi tous ces processus de paix n’ont-ils pas réussi à instaurer la stabilité et que pourrait-on faire pour les renforcer ?

J’ai étudié les dynamiques des conflits en Afrique centrale pendant des décennies et, à mon avis, la persistance des conflits dans l’est de la RDC n’est pas due à un manque d’initiatives de paix. Je soutiens que certaines initiatives souffrent d’une conception défaillante, d’autres d’une mise en œuvre difficile, et certaines d’une combinaison des deux.

Une profonde méfiance, des engagements au point mort, l’exclusion d’acteurs clés, des efforts de médiation fragmentés, une importance excessive accordée aux incitations économiques et une faible légitimité nationale ont entravé les progrès.

Idéalement, les processus de paix devraient remédier de manière globale à ces lacunes et jeter les bases d’une stabilité durable.

Mais les conditions idéales sont rares.

Le défi consiste donc à recourir à une diplomatie soutenue pour rendre les cadres imparfaits actuels plus efficaces, tout en instaurant progressivement la confiance et l’inclusivité nécessaires à une paix plus durable.

Ce qui a mal tourné

1. Profonde méfiance entre les parties

Depuis 2021, les processus de paix se sont concentrés sur les négociations de paix entre le gouvernement de la RDC, les représentants du M23 (et leur branche politique Alliance Fleuve Congo) et le gouvernement rwandais. L’ONU et de nombreux autres acteurs ont montré que le Rwanda soutenait le M23, une accusation que Kigali niée à plusieurs reprises.

Au cœur de l’échec de ces processus se trouve un profond manque de confiance. Les relations entre Kinshasa, le M23 et Kigali sont marquées par l’hostilité, la méfiance mutuelle et les promesses non tenues.

De plus, le M23, l’Alliance Fleuve Congo et le Rwanda ne peuvent être considérés comme des acteurs interchangeables. Parmi ces acteurs, des divergences subsistent quant aux objectifs ultimes de la rébellion : marcher sur Kinshasa, prendre le contrôle des territoires clés de l’est du pays ou renforcer leur influence à travers les structures étatiques congolaises plutôt que par le biais d’une administration séparée de facto.

Les atrocités qui continuent d’être commises sur le terrain renforcent la méfiance. Des rapports récents de l’ONU, Human Rights Watch et Amnesty International documentent les meurtres et les exécutions sommaires continus de civils congolais par les rebelles du M23 soutenus par le Rwanda, soulevant des inquiétudes de nettoyage ethnique. Ces atrocités s’ajoutent aux abus commis par les forces congolaises et les milices alliées (regroupées sous le nom de Wazalendo).

2. Mesures de mise en œuvre insuffisantes

En raison de cette méfiance, les parties hésitent à faire le premier pas dans la mise en œuvre des accords. La Déclaration de principes de Doha du 19 juillet 2025, par exemple, engageait les deux parties à procéder à des échanges de prisonniers et à rétablir l’autorité de l’État dans les zones contrôlées par les rebelles. Cependant, Kinshasa a refusé d’échanger des prisonniers avant un règlement définitif, une condition que le M23 considérait comme essentielle.

3. Échec à inclure tous les acteurs régionaux

La guerre dans l’est de la RDC implique plusieurs États voisins. L’Ouganda, en particulier, dispose d’une présence militaire importante et partage les préoccupations et les motivations du Rwanda : tous deux considèrent la région comme une menace pour la sécurité et une opportunité économique, notamment grâce aux exportations d’or et au commerce transfrontalier. Pourtant, l’Ouganda a été exclu de certaines négociations.

Début août 2025, les États africains ont annoncé qu’ils fusionneraient les structures de médiation de la Communauté de l’Afrique de l’Est, de la Communauté de développement de l’Afrique australe et de l’Union africaine en un processus consolidé dirigé par l’Union africaine. Cela pourrait potentiellement impliquer ces acteurs régionaux, en particulier l’Ouganda.

4. Duplication et fragmentation des initiatives

Depuis la reprise du conflit en 2021, un problème récurrent est la prolifération d’initiatives de paix parallèles et qui se chevauchent. Elles impliquent divers acteurs et manquent souvent de cohérence.

5. Le rôle et les limites de la pression extérieure

Le succès des négociations dépend dans une certaine mesure de la marge de manœuvre diplomatique dont disposent les acteurs de la médiation.

Dans le contexte actuel, la pression exercée par les États-Unis est essentielle. Et en effet, à la lumière de la reprise des combats à la mi-août 2025, les États-Unis ont publié une série de déclarations et de sanctions contre les parties impliquées, principalement le M23. Cependant, les attentes d’une intervention musclée des États-Unis, y compris l’idée irréaliste d’un « déploiement de troupes américaines sur le terrain », ont suscité la déception de nombreux acteurs, en particulier en RDC.

6. Les incitations économiques ne suffisent pas

Le processus de Washington a mis fortement l’accent sur la promotion du commerce avec les États-Unis, présentant la croissance économique comme une voie vers la stabilité. Mais la paix nécessite plus que des accords économiques. Cette approche risque de réduire un conflit multidimensionnel, enraciné dans des griefs politiques, sécuritaires et sociaux, à une question de marchés. Elle risque également de donner la priorité aux intérêts économiques américains plutôt que de répondre aux réalités locales.

7. Faible légitimité interne

Enfin, la légitimité des accords de paix actuels en RDC reste contestée. L’intensification du conflit a coïncidé avec une montée des critiques internes à l’encontre du président Félix Tshisekedi, dont l’autorité a été sapée par son incapacité à mettre fin à la violence. Les accords ont été critiqués par la société civile congolaise comme étant dictés par l’extérieur et insuffisamment inclusifs. Ils n’ont pas été ratifiés par le Parlement et n’ont pas impliqué la société civile ni les acteurs locaux.

Que faut-il changer ?

L’est de la RDC reste en proie à des conflits malgré les initiatives de paix. Les promesses non tenues, la mise en œuvre insuffisante et la profonde méfiance freinent les progrès. Les incitations économiques ne peuvent à elles seules résoudre une crise qui trouve ses racines dans des enjeux politiques, la sécurité et les revendications sociales.

Les puissances extérieures ne peuvent qu’exercer une influence. Une paix durable doit être négociée et approuvée par les parties elles-mêmes. Sans un soutien plus large, les processus de paix risquent de ne servir que de mécanismes d’apaisement, et non de véritables voies vers une résolution.

The Conversation

Kristof Titeca does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Le dernier accord de paix vacille en RDC : pourquoi ces échecs à répétition – https://theconversation.com/le-dernier-accord-de-paix-vacille-en-rdc-pourquoi-ces-echecs-a-repetition-264556

La France, championne de la lutte mondiale contre le VIH/sida ? Retour sur 40 ans de diplomatie face à la pandémie

Source: The Conversation – France in French (3) – By Marion Aballéa, Historienne, maître de conférences en histoire contemporaine, Sciences Po Strasbourg – Université de Strasbourg

Depuis la découverte du VIH par une équipe de l’Institut Pasteur en 1983, Paris s’est trouvé à l’origine de plusieurs initiatives diplomatiques notables visant à endiguer l’épidémie. Pour autant, ses contributions financières n’ont pas toujours été à la hauteur des grandes déclarations qu’ont multipliées ses dirigeants et ses diplomates.


« La France veut bien avoir les lauriers et devenir […] la championne de la santé mondiale. En revanche, quand il s’agit de mettre les financements sur la table, il n’y a personne. »

Au cœur de l’été, l’association Aides mettait la pression sur le gouvernement français. Alors que le Fonds mondial de lutte contre le sida, la tuberculose et le paludisme organisera fin 2025 sa huitième levée de fonds, Aides réclame que la France porte à 2 milliards d’euros sa contribution pour les trois prochaines années, soit une augmentation de 25 % par rapport à son engagement précédent.

Dans un contexte d’incertitudes, marqué par le probable désengagement des États-Unis – premier contributeur du Fonds – et par la réduction de l’aide au développement de plusieurs donateurs européens, l’association appelle la France, elle-même engagée dans une politique de réduction des dépenses, à intensifier son engagement pour se hisser à la hauteur du rôle que le pays prétend historiquement jouer en matière de santé globale, particulièrement en matière de lutte contre le VIH/sida.

Au moment où l’administration Trump réduit drastiquement les aides extérieures de Washington, où l’attention internationale se réoriente sur les enjeux sécuritaires et militaires, et où la France est le théâtre d’une crise budgétaire et politique inédite, cet appel doit être compris dans la longue durée : voilà 40 ans que la France se rêve en championne de la lutte mondiale contre le VIH/sida, sans toujours mettre sur la table les moyens qui lui permettraient de réaliser pleinement cette ambition.

L’ambition précoce de construire un leadership français

L’engagement français dans ce qui allait devenir « la diplomatie du sida » remonte à l’apparition de la pandémie au début des années 1980. Il trouve son point de départ dans l’identification, début 1983, du virus responsable de la maladie par une équipe française – celle coordonnée, à l’Institut Pasteur de Paris, par Luc Montagnier, Jean-Claude Chermann et Françoise Barré-Sinoussi.

Cette découverte constitue une opportunité diplomatique : elle permet de faire rayonner l’excellence de la science française et de nouer des coopérations avec divers pays touchés par l’épidémie.

En 1986, la tenue à Paris de la deuxième Conférence mondiale sur le sida témoigne déjà d’une reconnaissance internationale. Et lorsque, au même moment, la primauté de la découverte pastorienne est remise en cause par une équipe américaine, c’est l’ensemble de l’appareil politico-administratif français qui se met en action pour défendre tant les retombées symboliques et financières que l’honneur national. Jusqu’à l’Élysée où François Mitterrand ordonne au Quai d’Orsay d’« agir énergiquement » et d’« engager une campagne » pour défendre la cause française (Archives nationales, 5AG4/5801, « Le point sur le problème du sida », note de Ségolène Royal, 3 septembre 1985, annotation de la main de François Mitterrand).

Sur fond de contentieux franco-américain, le président s’engage personnellement dans la diplomatie du sida. Il pousse à ce que la question soit mise à l’agenda du G7 de Venise en 1987 et préside à la création d’un Comité international d’éthique sur le sida, dont la première réunion se tient à Paris, en 1989.

Alors que discriminations et violations des droits des malades et des séropositifs sont dénoncées internationalement par les associations, se placer en pionnier d’une réflexion sur les enjeux éthiques associés au sida est non seulement un moyen de conforter le leadership français, mais également de se distinguer du rival américain, critiqué pour les mesures discriminatoires et attentatoires aux droits imposées par l’administration Reagan dans sa réponse à l’épidémie.

Cinq ans plus tard, le 1er décembre 1994, le Sommet mondial de Paris sur le sida, porté notamment par Simone Veil, vise à consolider la place singulière que la France pense s’être construite dans la mobilisation internationale face au sida.

Ouverture du Sommet mondial de Paris sur le sida par Édouard Balladur, alors premier ministre, le 1erdécembre 1994.

Le Sommet débouche sur la « Déclaration de Paris », signée par 42 gouvernements, qui acte notamment le principe d’une plus grande implication des personnes malades ou vivant avec le VIH dans la réponse à la maladie. La France se pose en moteur de la diplomatie du sida, et fait de la défense des droits des malades le cœur d’un engagement qui est aussi l’outil d’une stratégie d’influence à l’échelle globale.

Un engagement financier critiqué

Toutefois, la réussite du Sommet de Paris n’est pas à la hauteur des attentes françaises. On pensait y réunir chefs d’État et de gouvernement, mais peu répondent finalement à l’appel. Les États-Unis, l’Allemagne ou le Royaume-Uni n’y envoient, par exemple, que leur ministre de la santé. Les associations dénoncent, par ailleurs, des engagements décevants sur l’inclusion et les droits des malades. Surtout, au printemps 1995, au lendemain de l’élection de Jacques Chirac à la présidence de la République, le nouveau gouvernement dirigé par Alain Juppé revient sur la promesse faite lors du Sommet de mobiliser 100 millions de francs pour la mise en œuvre des projets qui y avaient été discutés.

Ce renoncement vient conforter ceux qui dénoncent déjà, depuis plusieurs années, les postures françaises sur la scène internationale du sida : celles d’une diplomatie qui veut jouer les premiers rôles, qui s’épanouit dans les grands discours et la défense de grands principes, mais qui refuse de contribuer de manière proportionnelle à l’effort global contre la maladie.

Entre 1986 et 1991, la France a consacré environ 38,5 millions de dollars au combat international contre le sida : c’est infiniment moins que le leader américain (273 millions), mais aussi nettement moins que le Royaume-Uni (59,5 millions), et à peine plus qu’un « petit » pays comme le Danemark (36,9 millions) (Source : Commission européenne, « AIDS Policy of the Community and the Member States in the Developing World », 7 janvier 1994). Encore cette enveloppe est-elle très majoritairement consacrée à des aides bilatérales (notamment à destination de pays africains francophones) et très peu aux programmes multilatéraux mis en place pour répondre à la pandémie. Ce qui donne prise aux accusations de diplomatie opportuniste, utilisant le sida pour conforter son influence en Afrique au lieu de s’engager pleinement dans le nécessaire effort commun.

Dans un contexte bouleversé, en 1996, par l’arrivée de multithérapies efficaces pour neutraliser le VIH, la diplomatie française continue pourtant, au tournant du XXIe siècle, à se prévaloir de la découverte française du VIH, socle à ses yeux d’une légitimité et d’une responsabilité historiques, pour prétendre à une place singulière sur la scène internationale du sida, tout en restant discrète sur ses propres contributions.

En décembre 1997, à Abidjan (Côte d’Ivoire), Jacques Chirac est le premier dirigeant occidental à dénoncer le fossé des traitements entre Nord et Sud, et à appeler la communauté internationale à se mobiliser pour que les nouveaux traitements soient accessibles à tous. Une déclaration qui change la face du combat contre le sida, mais que la France est évidemment incapable de financer.

C’est, dès lors, moins en mettant de l’argent sur la table qu’en participant à imaginer de nouveaux mécanismes de financement que la diplomatie française parvient, à partir des années 2000, à maintenir son influence de premier plan.

Paris joue un rôle important dans la création du Fonds mondial, en 2002, dont un Français, Michel Kazatchkine, est entre 2007 et 2012 le deuxième directeur exécutif.

Jacques Chirac et son homologue brésilien Lula sont par ailleurs à l’origine, en 2006, de la création d’Unitaid, un mécanisme affectant à la lutte internationale contre le sida le produit d’une nouvelle taxe sur les billets d’avion. Le leadership français paraît aussi se décliner à l’échelle locale : la maire de Paris Anne Hidalgo est à l’initiative, en 2014, d’une nouvelle « Déclaration de Paris », fondant un réseau de métropoles mondiales engagées à devenir des « villes zéro-sida ».

Conférence de lancement d’Unitaid en 1996. Jacques Chirac, aux côtés du président brésilien Lula, au centre, entourés par le président des États-Unis Bill Clinton et le secrétaire général de l’ONU Kofi Annan.
UN Photo/Paulo Filgueiras

Dans un souci de cohérence, la France réoriente alors vers les programmes multilatéraux la majeure partie de l’aide internationale qu’elle consacre à la lutte contre le sida. Elle est, depuis sa création, la deuxième contributrice au Fonds mondial, (loin) derrière les États-Unis. En octobre 2019, elle accueille à Lyon la réunion des donateurs en vue de la sixième reconstitution du Fonds. Emmanuel Macron y ravive la tradition de l’engagement personnel des présidents français en annonçant une contribution française en hausse de 25 %. La promesse étant renouvelée trois ans plus tard, les engagements triennaux français sont passés d’un peu plus de 1 milliard d’euros en 2017-2019 à près de 1,6 milliard en 2023-2025.

Au 31 août 2025, à quatre mois de l’échéance, la France n’a toutefois versé qu’un peu plus de 850 millions d’euros sur les 1,6 milliard promis pour 2023-2025.

2025 : une ambition réalisée, ou enterrée

Marion Aballéa a récemment publié Une histoire mondiale du sida, 1981-2025, aux éditions du CNRS.

La France peut-elle dès lors être considérée comme une « championne » de la diplomatie du sida ? Depuis quarante ans, le Quai d’Orsay et l’Élysée, relayés par le ministère de la santé, ont voulu construire cette posture et en faire un levier d’influence internationale. Paris a été au cœur de plusieurs des grandes mobilisations ayant érigé la pandémie de VIH/sida en un défi global. Mais en rechignant à aligner ses contributions financières avec ses déclarations, la France s’est aussi attiré des critiques dénonçant l’instrumentalisation cynique de la pandémie à des fins purement diplomatiques.

En 2011, elle semblait encore chercher à contourner la logique multilatérale du Fonds mondial en instituant L’Initiative, un mécanisme vers lequel elle dirige 20 % de sa contribution et dont elle pilote l’attribution à des pays francophones.

L’appel d’Aides à porter la contribution française au Fonds mondial à 2 milliards d’euros doit être lu à la lumière de ce positionnement historique. À l’heure où le leader états-unien fait défection, et alors que les Nations unies n’ont pas renoncé à l’objectif de « mettre fin à la pandémie » d’ici à 2030, la France peut endosser pleinement le rôle de leader auquel elle prétend. Selon la réponse de Paris à cet appel, l’ambition affirmée il y a quarante ans sera réanimée ou, à l’inverse, durablement enterrée…

The Conversation

Marion Aballéa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La France, championne de la lutte mondiale contre le VIH/sida ? Retour sur 40 ans de diplomatie face à la pandémie – https://theconversation.com/la-france-championne-de-la-lutte-mondiale-contre-le-vih-sida-retour-sur-40-ans-de-diplomatie-face-a-la-pandemie-264297

Échec du présidentialisme, retour au parlementarisme ?

Source: The Conversation – in French – By Nicolas Rousselier, professeur d’histoire politique, Sciences Po

Après la chute des gouvernements Barnier et Bayrou, le nouveau premier ministre Sébastien Lecornu saura-t-il obtenir le soutien des parlementaires ? La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ?


Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.

Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.

Dès le Moyen Âge, le Parlement contre le prince

L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.

Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.

Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.

Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.

Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.

Une domination de l’exécutif fondée sur l’expertise et sur le règne des partis

Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).

D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.

Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec).

La « forme-parti » pour reprendre l’expression du politiste italien, Paol  Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.

Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.

Le parlementarisme a fonctionné sous la IIIᵉ et la IVᵉ République

Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.

L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.




À lire aussi :
Loi Duplomb, A69 : Comment le gouvernement Bayrou a contourné l’Assemblée nationale pour faire passer ses projets. La démocratie malmenée ?


Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.

La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.

The Conversation

Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Échec du présidentialisme, retour au parlementarisme ? – https://theconversation.com/echec-du-presidentialisme-retour-au-parlementarisme-264996

L’Allemagne face à Trump : le vrai poids du déséquilibre commercial

Source: The Conversation – France (in French) – By Damien Broussolle, Maître de conférences, Sciences Po Strasbourg – Université de Strasbourg

Le président des États-Unis Donald Trump s’est beaucoup inquiété de la place prise par les importations « Made in Germany » dans son économie. Qu’en est-il en réalité ? Dans quels secteurs l’Allemagne a-t-elle pris des parts de marché aux entreprises états-uniennes ? Quelle part occupent les biens et les services ?


La réélection de Donald Trump en 2024 a relancé une politique protectionniste à vocation mercantiliste aux États-Unis. Déjà la politique America First, lancée par le président Trump en 2018-2019, visait à réduire le déficit commercial américain en trois vagues de mesures, augmentant les droits de douanes jusqu’à 25 %. Si cette première offensive avait pu sembler surmontable, puisque finalement des aménagements avaient été trouvés, celle de l’administration Trump 2 apparaît extravagante.

En imposant des droits de douane exorbitants, prétendument réciproques, tous azimuts, elle déclare une guerre commerciale au monde entier. Dans ce combat, l’Union européenne (UE), et surtout l’Allemagne, avec ses excédents commerciaux élevés, sont présentées comme des profiteuses et des adversaires. La question se pose néanmoins de savoir dans quelle mesure ces accusations sont fondées. Cela conduit à examiner le commerce bilatéral entre l’Allemagne et les États-Unis.

Près de 247 milliards d’euros d’excédent

Avec un excédent du compte des transactions courantes de près de 247 milliards d’euros en 2024, proche du produit intérieur brut (PIB) de la Grèce, l’Allemagne apparaît comme un géant naturel du commerce international. Pourtant, jusqu’au début des années 1990, elle ne se distinguait que modestement de ses principaux concurrents de l’Organisation de coopération et de développement économiques (OCDE). On a ainsi oublié que le solde commercial allemand fut fragile jusqu’au début des années 1980.

La croissance prodigieuse date surtout de l’accentuation de la mondialisation consécutive à la crise de 2008. C’est à ce moment-là que l’économie allemande s’est franchement tournée vers la Russie, vers la Chine et vers les États-Unis, pays où les entreprises d’outre-Rhin avaient identifié de nouvelles sources de croissance des exportations pour les points forts du commerce allemand (automobile, équipement industriel,chimie-pharmacie).




À lire aussi :
Trump impose des droits de douane sur les automobiles : quels constructeurs ont le plus à perdre ?


Depuis le début des années 2000, l’Allemagne tutoie la part des États-Unis dans les exportations mondiales de marchandises, qui avoisine les 8 %. Depuis 2015, ils sont devenus son premier partenaire commercial. En 2024, le commerce vers les États-Unis représentait 10,4 % de ses exportations (1re position), et 6,9 % de ses importations (2e position). La même année, 3,7 % des exportations des États-Unis étaient destinés à l’Allemagne (7e position), alors que 4,9 % des importations (4e position) en provenaient, nous y reviendrons.

Dans les deux cas, le décalage entre exportations et importations illustre l’importance du surplus du commerce extérieur allemand. Sa valeur a d’ailleurs nettement augmenté depuis le premier mandat du président Trump, pour atteindre les 70 milliards d’euros en 2024 (Graphique 1). Ce chiffre est en grande partie dû à l’excédent de marchandises. Depuis plusieurs années, combiné avec les services, il se maintient aux environs de 1,75 % du PIB allemand.

Hausse des revenus des investissements

Les revenus des investissements allemands aux États-Unis renforcent l’excédent commercial. Ils ont augmenté de façon sensible depuis 2022. En 2024, l’Allemagne est le troisième investisseur aux États-Unis pour un montant de 677 millions de dollars. Du côté américain, le poids du déficit commercial bilatéral dans le PIB est globalement stable depuis plusieurs années, à 0,25 % du PIB : environ 10 % du déficit commercial des États-Unis est attribuable au commerce avec l’Allemagne.

Graphique 1 : Solde des échanges de biens et services de l’Allemagne avec les États-Unis

Première partie de la balance des paiements : échanges de biens et de services et flux des revenus primaires et secondaires.


Fourni par l’auteur

Source : Destatis (N. B. En noir, années du premier mandat de Trump marquées par la crise du Covid-19).

L’ampleur du déficit américain de marchandises apparaît spectaculaire. Depuis près de vingt-cinq ans, bon an mal an, les entreprises installées en Allemagne vendent aux États-Unis le double de la valeur des marchandises qu’elles y achètent (Graphique 2).

Graphique 2 : Commerce bilatéral de marchandises (en milliards de dollars réels)


Fourni par l’auteur

Source : Census Bureau of USA. Poids du solde échelle de droite, inversée ; (20) = – 20.

_Lecture : En 2024, le déficit des marchandises atteint -50 % du commerce bilatéral.

Dollars US réels : hors inflation (déflateur du PIB, Banque mondiale)_.

Un concurrent industriel de premier plan

Au cours de cette période, la plupart des lignes de la nomenclature de produits marquent une dégradation pour les États-Unis. De sorte qu’actuellement, mis à part les produits pétroliers et ceux tirés de l’agriculture ou de la pêche, toutes les grandes rubriques sont excédentaires pour l’Allemagne (Graphique 3).

Graphique 3 : Contribution au solde des échanges de marchandises, moyenne 2022-2024 (en %)


Fourni par l’auteur

Source : Destatis. Le solde global équivaut à 100 %.

_Lecture : En moyenne, sur les trois années 2022-2024, le solde des échanges de métaux et articles en métal contribue au solde global positif pour +8,1 %.

N. B. Certains soldes étant volatils, la moyenne sur trois ans a été utilisée pour lisser les données_.

Ces constats confirment, s’il en était besoin, que l’Allemagne est une redoutable concurrente industrielle, fournissant des produits de qualité peu sensibles aux prix du fait de leurs caractéristiques, avec une spécialisation dans les machines, dans les équipements industriels, dans l’automobile et dans la chimie. Moins connue est, toutefois, sa position dans le domaine des échanges de services.

Il convient, tout d’abord, de souligner que les spécificités des échanges de services font que les volumes enregistrés dans la balance commerciale sont habituellement modestes. Le commerce entre les deux pays ne déroge pas à ce constat général. Ainsi, en 2024, leurs échanges de services représentaient pour chacun d’entre eux moins de 30 % du commerce extérieur. Pour autant, l’Allemagne bénéficie depuis au moins deux décennies d’un excédent dans le domaine des services. Il est revenu, en 2024, à un étiage proche de celui du premier mandat de Trump, à moins de 4 milliards d’euros (Graphique 4). Cet excédent résulte d’un tableau contrasté avec de forts déficits bilatéraux, compensés par des excédents encore plus élevés (graphique n°5).

Graphique 4 : Échanges de services de l’Allemagne avec les États-Unis (milliards de dollars courants)


Fourni par l’auteur

Source : OCDE, Balanced trade in services (BaTIS).

Les États-Unis plus forts que l’Allemagne pour le tourisme

L’Allemagne est un pays moins touristique que les États-Unis, qui, du fait de leur spécialisation internationale, ont, en outre, des surplus dans les services de télécommunications et d’information, dans les services financiers, dans les services aux entreprises et, enfin, dans les services récréatifs et culturels. Plusieurs de ces excédents américains ont néanmoins subi une érosion entre 2005 et 2023. Cumulées, ces rubriques font plonger le solde allemand des échanges de services (Graphique 5).

France 24, 2025.

Toutefois l’impact des échanges de marchandises sur les flux de services contrebalance quasiment cette chute (transports de marchandises, services de réparation, revenus de la propriété intellectuelle sur les produits industriels, chimiques et pharmaceutiques). Ces catégories rétablissent déjà quasiment l’équilibre. S’ajoute une catégorie hybride, excédentaire depuis des années, qui recense l’ensemble des échanges des administrations gouvernementales et de leur personnel (ambassades, organisations internationales, bases militaires…) et englobe essentiellement des mouvements de marchandises. Son excédent est donc aussi en relation avec la puissance industrielle allemande.

Graphique 5 : Contributions au solde des échanges de services de l’Allemagne avec les États-Unis en 2023 (en %)


Fourni par l’auteur

Source : OCDE (BaTIS). Le solde global équivaut à 100 %.

Lecture : Le solde des échanges de services de télécommunications et d’information contribue pour -61 % au solde global.

Une dernière rubrique largement excédentaire (près de +70 % en 2023), illustre la compétitivité de l’Allemagne dans le secteur de l’assurance. Finalement, si de nombreuses rubriques de la balance des services sont défavorables à l’Allemagne, sa force dans le domaine industriel lui permet de les compenser presque entièrement. Ceci étant dit, l’image donnée est probablement incomplète.

Le rôle de l’optimisation fiscale

Comme le souligne la Bundesbank, les principales économies des pays de l’UE ont toutes une balance des services excédentaires vis-à-vis des États-Unis, alors que l’UE, considérée globalement, est largement déficitaire (-109 milliards d’euros en 2023). Les stratégies d’optimisation fiscales des entreprises américaines d’Internet pourraient expliquer cette étrangeté.

Ce tour d’horizon du commerce entre l’Allemagne et les États-Unis illustre le fait que, malgré ses outrances et son comportement apparemment incohérent, le président Trump ne choisit pas ses attaques ni ses points de blocage au hasard. Il y a, en effet, un important déséquilibre commercial entre les deux pays. Cela n’en valide pas pour autant sa méthode ou son raisonnement, qui bafouent les principes des négociations commerciales internationales menées depuis 1947, sous l’égide des États-Unis, avec la création du GATT.

Ce « problème » bilatéral nourrit un différend européen puisque le commerce international est du domaine communautaire. L’UE tout entière s’est donc trouvée placée dans le collimateur de Trump 2, en partie du fait de l’ampleur de l’excédent allemand.

De 2022 à 2024, à elle seule, l’Allemagne expliquait quasiment 40 % de l’excédent européen vis-à-vis des États-Unis. Les pays déficitaires avec les États-Unis (Espagne, Belgique, Pays-Bas), ou à faible excédent comme la France, se sont alors trouvés indûment frappés des mêmes droits prétendument réciproques que l’Allemagne, qui en revanche a pu s’abriter derrière sa situation commerciale moins problématique du point de vue américain. Cette « solidarité » européenne s’est retrouvée dans les négociations commerciales, qui ont surtout consisté, du côté européen, à éviter à l’automobile et à la chimie-pharmacie allemande les conséquences les plus désastreuses des outrances trumpiennes (DGTES 2025).

The Conversation

Damien Broussolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’Allemagne face à Trump : le vrai poids du déséquilibre commercial – https://theconversation.com/lallemagne-face-a-trump-le-vrai-poids-du-desequilibre-commercial-264499