How worried should we be that political leaders keep making oblique Nazi references?

Source: The Conversation – UK – By David L Collinson, Distinguished Professor of Leadership and Organisation, Lancaster University

Several high-profile political leaders have in recent months been seen apparently dabbling in Nazi allusions. In many cases, dog whistle messages send oblique signals to supporters. These are pitched at a frequency that most listeners can’t hear but are meaningful to those seeking confirmation of their own views.

When challenged, the people using these tactics often respond with strong and furious rebuttals. After emphasising their shock that they would be associated with Nazi imagery or ideas, they typically go on the offensive. They express indignation and moral outrage. Then, they demand an apology.

These hostile counterattacks often place their critics on the defensive. If the allusion to the Nazis becomes too obvious to deny, perpetrators typically claim they weren’t aware of the historical association and insist it was all an innocent mistake.

This is the dog whistle playbook: strategic ambiguity followed by belligerent counterattack, and then, if needed, plausible deniability.

Of the many recent cases of Nazi allusions, Elon Musk’s straight-arm salute – a gesture he performed twice at a rally celebrating Donald Trump’s second inauguration – is one of the most notorious.

Far from denying he’d made the gestures, Musk went on the attack dismissing criticisms as “pure propaganda”. He argued that critics in the Democratic party were conducting “ideological witchhunts” and needed “better dirty tricks” because Adolf Hitler references are “sooo tired”. Musk also made a series of Nazi-themed puns on social media.

One month later, Steve Bannon, Donald Trump’s one-time chief strategist and key figure in the Maga movement, also made a straight-arm salute at the conservative political action conference. Unlike Musk, Bannon denied any Nazi intent, describing the gesture as a “wave”. While Bannon was able to insist this wasn’t a Nazi salute, his critics’ outrage might have helped send a signal to Nazi sympathisers, reinforcing their loyalty and support.

Within the space of a few weeks in 2025, two senior figures in the Maga movement had been engulfed in controversies surrounding alleged Nazi salutes. For years, Trump has flirted with Nazi imagery, given comfort and even pardons to far-right extremists and been reluctant to criticise white supremacists. In November 2025 Trump reposted an AI-generated image of himself in front of what looked a lot like a Nazi eagle emblem (but without the swastika).

He has called political opponents “vermin” and argued that immigrants are “poisoning the blood of our country”. These words are associated with Hitler. Trump has also been quoted as saying “Hitler did some good things” and for asking US generals to be more like those of the Third Reich.

The dictator’s playbook

In Germany, dog whistles are a particularly sinister aspect of far-right politics, communicating coded signals that appear to convey a secret admiration for the Nazis. Such messages are often innocent enough to pass over the heads of the masses, yet iconic enough to resonate with others.

In 2024 Björn Höcke, one of the leading figures of the Alternative for Germany (AfD) party, was found guilty of knowingly using a Nazi slogan “Alles für Deutschland” at a rally. This slogan is forbidden under German law. It was the central slogan of the SA or Storm Troopers, Hitler’s paramilitary group from the Weimar years. Höcke insisted he was innocent because he was unaware of the Nazi links.

And if we reexamine Hitler’s own playbook, his speech to workers at the Siemens Dynamo Works factory in November 1933 never mentioned the word “Jews”. When Hitler talked of a “small rootless international clique” his supporters knew exactly to whom he was referring. Once Hitler had consolidated the power of the Nazis, this gave them, and many others, permission to vilify and scapegoat Jews more explicitly. In effect, the permission-giving facilitated the incremental usurpation of power.

While substantial differences clearly exist between the Third Reich and contemporary politics, there also seem to be disturbing overlaps. Rather than ensuring their messages could never be confused with Nazi references, some leaders seem comfortable using dog whistle signals and strategic ambiguity, hostile counterattacks and plausible deniability.

Some Nazi allusions might be viewed as innocent mistakes or as historical accident but their continued prevalence is starting to look like more than a coincidence.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. How worried should we be that political leaders keep making oblique Nazi references? – https://theconversation.com/how-worried-should-we-be-that-political-leaders-keep-making-oblique-nazi-references-271893

Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ?

Source: The Conversation – in French – By Carole Arnold, Docteur en sciences biologiques, Université de Haute-Alsace (UHA)

Ce qui ressemblait hier encore à de la science-fiction est désormais une réalité clinique : l’édition du génome humain avec CRISPR-Cas9 commence à guérir des maladies jusque-là incurables. Mais où en est réellement cette révolution annoncée ? Entre premiers succès cliniques, limites techniques et questions éthiques persistantes, les thérapies issues de CRISPR dessinent un paysage où promesses et prudence sont désormais indissociables.


Nous assistons à une nette montée des espoirs pour des maladies rares, souvent « orphelines ». Par exemple, un nourrisson atteint d’un déficit métabolique rare (une maladie génétique dans laquelle une enzyme ou une voie métabolique essentielle ne fonctionne pas correctement) dû à une mutation sur le gène CPS1, a reçu en 2025 un traitement « sur mesure » utilisant la technique d’édition de base (base editing), avec des résultats biologiques encourageants. Aujourd’hui, l’édition génique n’est plus une hypothèse lointaine, mais donne des résultats concrets et change déjà la vie de certains patients. Pour comprendre ce qui est en train de se jouer, il faut revenir sur les progrès fulgurants de ces dernières années, des premiers essais pionniers aux versions de plus en plus sophistiquées de l’édition génomique.

Développée en 2012 grâce à l’association d’une endonucléase, Cas9, et de petits ARN guides (sgRNA), cette méthode d’édition ciblée du génome a bouleversé la biologie moderne, au point de valoir à ses inventrices le prix Nobel de chimie en 2020. Depuis son invention, le CRISPR-Cas9 classique est largement utilisé dans les laboratoires, dont le nôtre, pour créer des modèles cellulaires de maladies, fabriquer des cellules qui s’illuminent sous certaines conditions ou réagissent à des signaux précis, et explorer le rôle de gènes jusqu’ici mystérieux.

Un premier système extraordinaire mais imparfait

Côté clinique, l’utilisation de CRISPR-Cas9 a ouvert des possibilités thérapeutiques inédites : modifier précisément un gène, l’inactiver ou en corriger une version défectueuse, le tout avec une simplicité et une rapidité jusqu’alors inimaginables. Mais cette puissance s’accompagnait alors de limites importantes : une précision parfois imparfaite, avec des coupures hors-cible difficiles à anticiper (des modifications accidentelles de l’ADN réalisées à des endroits non prévus du génome), une efficacité variable selon les cellules, et l’impossibilité d’effectuer des modifications plus fines sans induire de cassure double brin (une rupture affectant les deux brins d’ADN à un site génomique spécifique) potentiellement délétère.

Ces limites tiennent en grande partie au recours obligatoire aux cassures double brin et à la réparation par homologie (mode de réparation de l’ADN dans lequel la cellule s’aide d’une séquence d’ADN modèle très similaire – ou fournie par le chercheur – pour réparer une cassure double brin), un mécanisme peu fiable et inégal selon les types cellulaires. Mais la véritable rupture est apparue à partir de 2016 avec l’invention des éditeurs de base (base editors), des versions ingénieusement modifiées de CRISPR capables de changer une seule lettre de l’ADN sans provoquer de cassure double brin. Pour la première fois, il devenait possible de réécrire le génome avec une précision quasi chirurgicale, ouvrant la voie à des corrections plus sûres et plus fines que celles permises par Cas9 classique. Cependant, les base editors restaient limités : ils permettaient d’effectuer certaines substitutions de bases, mais étaient incapables de réaliser des insertions ou des modifications plus complexes du génome.

Ces limitations des base editors ont été en partie levées avec l’arrivée de leurs successeurs, les prime editors, en 2019 : ces nouvelles machines moléculaires permettent non seulement de substituer des bases, mais aussi d’insérer ou de supprimer de courtes séquences (jusqu’à plusieurs kilobases), le tout sans provoquer de cassure double brin, offrant ainsi un contrôle beaucoup plus fin sur le génome. Cette technique a été utilisée avec succès pour créer en laboratoire des modèles cellulaires et animaux de maladies génétiques, et des plantes transgéniques. Cependant, en pratique, son efficacité restait trop faible pour des traitements humains, et le résultat dépendait du système de réparation de la cellule, souvent inactif ou aléatoire. Mais en six ans, la technique a gagné en précision et polyvalence, et les études chez l’animal ont confirmé à la fois son efficacité et la réduction des effets hors-cible. Résultat : en 2025, six ans après son invention, le prime editing fait enfin son entrée en clinique, un moment que beaucoup de médecins décrivent comme un véritable tournant pour la médecine.

Des traitements sur le marché

Dès 2019, de premiers essais cliniques avec le système CRISPR-Cas9 classique (le médicament Casgevy) avaient été réalisés sur des patients atteints de β-thalassémie et drépanocytose, deux maladies génétiques de l’hémoglobine, via la correction ex vivo et la réinjection des cellules modifiées au patient. Les premiers résultats étaient prometteurs : certains patients avaient vu leur production de globules rouges anormaux corrigée de manière durable, avec une amélioration significative de leurs symptômes, après une unique injection. Le traitement Casgevy a d’ailleurs été approuvé en Europe en 2024, pour un coût d’environ 2 millions d’euros par patient.

Plus récemment, en 2025 un bébé atteint d’une mutation du gène CPS1 a été guéri grâce à l’édition de base, la version moins invasive et plus sûre de CRISPR-Cas9, mais qui reste limitée aux substitutions ponctuelles et ne permet pas toutes les modifications (pas d’insertion de séquences longues). Mais aujourd’hui, le prime editing lève les deux grands verrous du CRISPR-Cas9 classique – la nécessité de casser l’ADN et la dépendance à des mécanismes de réparation inefficaces – ouvrant la voie à une édition plus sûre, plus précise et applicable à un spectre beaucoup plus large de maladies.

Il n’est plus limité à de simples conversions ponctuelles, mais permet pour la première fois de remplacer ou restaurer un gène complet, de façon précise et contrôlée. L’année 2025 marque le premier succès clinique d’une telle thérapie – une étape historique pour l’édition génomique. En effet, le 19 mai 2025 la société Prime Medicine fondée par David Liu, inventeur du prime editing, a annoncé la première administration humaine de sa thérapie, destinée à un jeune patient atteint de granulomatose chronique, une maladie immunitaire rare liée à une mutation de l’ADN. Les premiers résultats biologiques de ce « CRISPR ultrapuissant » se sont révélés très prometteurs, ouvrant une nouvelle ère pour l’édition génomique. Il faudra toutefois patienter encore quelques mois avant de mesurer réellement le succès du prime editing : les premiers essais cliniques restent très récents et le manque de recul ne permet pas encore d’en tirer des conclusions définitives, notamment en termes de sécurité – l’absence d’effets secondaires – et de stabilité à long terme.

Ces stratégies d’édition du génome s’inscrivent pleinement dans le mouvement de la médecine personnalisée, où chaque traitement est conçu sur mesure pour un patient donné, en fonction de sa mutation spécifique – un véritable médicament « pour lui seul ». Pour la suite, des sociétés annoncent déjà vouloir continuer l’aventure avec des stratégies consistant à administrer directement les traitements dans le corps, sans passer par la modification in vitro de cellules prélevées chez le patient – une procédure complexe et onéreuse.

D’un prototype de laboratoire, on est donc passés en un temps record à une technologie polyvalente, et on entre désormais dans l’ère de la médecine personnalisée même pour des pathologies très rares. Le champ d’application s’élargit : on ne se contente plus des pathologies sanguines – des essais et projets explorent des maladies métaboliques, des infections chroniques (ex. thérapies pour hépatite B) ou des maladies héréditaires rares. De nouvelles avancées viennent constamment enrichir le potentiel de CRISPR, élargissant sans cesse ses possibilités. Tous les types de maladies ne sont pas encore éligibles : les pathologies monogéniques (mutation simple, bien identifiée) sont les plus adaptées. Pour des maladies multifactorielles, complexes, ou dépendant de l’environnement, l’édition reste beaucoup moins directe. De plus, certaines cibles (cellules non accessibles, tissus spécifiques, traitement in vivo) restent techniquement très difficiles. C’est également un défi économique, tant les traitements de médecine personnalisée restent extrêmement coûteux.

The Conversation

Carole Arnold a reçu des financements de l’INSERM, la Région Grand-Est, le FEDER et l’ANR.

ref. Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ? – https://theconversation.com/editer-le-genome-pour-soigner-ou-en-sont-les-therapies-issues-de-crispr-et-ses-derives-271034

Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ?

Source: The Conversation – in French – By Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

Un xénobot (en rouge) en forme de Pac-Man, conçu par IA, en train de se répliquer grâce à des cellules compressées en une sphère (en vert) pour reproduire sa forme. Douglas Blackiston, Sam Kriegman, CC BY-SA

Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.


Les xénobots sont des entités biologiques artificielles entièrement composées de cellules vivantes issues d’embryons de xénope (Xenopus laevis), un amphibien africain. Prélevées sur des embryons de stade précoce, ces cellules sont encore indifférenciées : elles ne se sont pas encore spécialisées pour devenir des cellules de peau ou du foie par exemple. Elles sont cependant déjà « programmées » naturellement pour devenir des cellules qui tapissent les surfaces internes et externes du corps (peau, parois des organes, vaisseaux) ou des cellules contractiles du muscle cardiaque. Les contractions de ces cellules cardiaques agissent comme de minuscules moteurs, générant une propulsion, qui permet aux xénobots de se déplacer dans un milieu aquatique.

Xénobot par microscopie
Un xénobot conçu par IA est fait de cellules de muscle cardiaque, ce qui lui permet de se déplacer.
Douglas Blackiston, Sam Kriegman, CC BY

Pour fabriquer un xénobot, on isole et on assemble manuellement des groupes de cellules, comme des « briques biologiques ». À l’issue de cette phase de microchirurgie et d’organisation tridimensionnelle, les xénobots sont des entités de moins d’un millimètre de morphologies variables selon la fonction recherchée. Ils ne disposent d’aucun système nerveux ni organe sensoriel. Leur comportement est uniquement dicté par leur forme et leur composition cellulaire, toutes deux déterminées lors de leur création via des techniques de bio-ingénierie.

Bien qu’ils soient constitués uniquement de cellules vivantes, on parle de robots biologiques ou biobots, car ils obéissent à des tâches prédéfinies par l’humain : déplacement, coopération en essaim, transport d’objets, voire contrôle et assemblage d’autres xénobots à partir de cellules libres présentes autour d’eux (on parle d’autoréplication). Le terme « robot » prend ici un sens élargi, fondé sur la capacité à accomplir une tâche, en l’occurrence programmée par la forme et non par un logiciel interne.

Des robots biologiques conçus avec de l’IA

Avant de fabriquer un xénobot en laboratoire, des programmes d’intelligence artificielle (IA) sont utilisés pour tester virtuellement et simuler des milliers de formes et d’agencements cellulaires. Des algorithmes calculent quelles combinaisons fonctionneraient le mieux pour atteindre l’objectif fixé par le cahier des charges : par exemple, maximiser la vitesse de déplacement, transporter une charge ou induire de l’autoréplication.

Le lien entre l’intelligence artificielle et les cellules n’existe que lors de l’étape théorique de la conception. L’IA sert exclusivement à prédire et à optimiser la forme la plus adéquate, qui sera ensuite réalisée par microchirurgie et assemblage par des humains. Elle ne fournit aucun processus cognitif embarqué dans le xénobot, qui n’est donc pas contrôlé par une IA et ne possède aucune autonomie décisionnelle, contrairement à d’autres types de robots en développement.

Représentation schématique puis photo de microscopie d’un xénobot
À gauche, le design du xénobot, tel que proposé par un programme d’intelligence artificielle. À droite, l’organisme réel, construit à partir de cellules de peau (en vert) et de muscle cardiaque (en rouge).
Douglas Blackiston, Sam Kriegman, CC BY

Les xénobots ont d’abord été conçus sous forme de sphères, de triangles ou de pyramides, des géométries simples choisies pour être faciles à construire, afin d’étudier de manière contrôlée la manière dont la forme et la disposition des cellules influencent le mouvement.

La forme en croissant, dite Pac-Man, a été identifiée par intelligence artificielle comme la plus performante pour s’autorépliquer. La réplication est cependant limitée à trois ou quatre générations en laboratoire et les xénobots se dégradent après environ dix jours, limitant leurs applications à plus long terme.

Quelles applications pour les xénobots ?

Toutes les applications envisagées demeurent pour l’instant expérimentales. Certaines fonctions (locomotion, agrégation de particules, autoréparation, réplication limitée) ont été démontrées in vitro, ce qui constitue des preuves de concept. En revanche, les usages proposés en médecine ou pour l’environnement restent pour l’instant des hypothèses extrapolées à partir de ces expériences et de modèles informatiques, sans validation chez l’animal.

Dans le domaine environnemental, grâce à leur petite taille, leur forte biodégradabilité et leur capacité à fonctionner en essaim, les xénobots pourraient être utilisés pour concentrer des microparticules ou des polluants en un même endroit, avant une étape de récupération ou de traitement adaptée, les xénobots eux-mêmes se dégradant ensuite sans laisser de trace biologique.

Des versions plus complexes de xénobots pourraient être utilisées comme marqueurs visuels de modifications dans un environnement. Un tel xénobot, exposé à un certain type de polluant, subirait un changement de structure et de couleur. Cette propriété permettrait en quelque sorte de lire ce que le xénobot a rencontré dans son environnement, à l’image d’un capteur lumineux. Cette application n’a cependant pas encore été démontrée expérimentalement.

Cinq constructions schématiques de xénobots accompagnés à chaque fois d’une photographie de l’organisme réel
Le programme d’intelligence artificielle est capable de proposer des centaines de designs possibles, chacun ayant des propriétés spécifiques pour des applications différentes.
Douglas Blackiston, Sam Kriegman, CC BY

Dans le domaine médical, les xénobots pourraient être utilisés, tout comme d’autres microrobots, pour transporter localement des molécules thérapeutiques autour de cellules cibles, en réduisant ainsi la toxicité sur les tissus sains. La possibilité que les xénobots puissent servir à la livraison de molécules, comme des anticancéreux, reste cependant une extrapolation à partir d’expériences in vitro préliminaires sur d’autres microrobots.

Enfin, la recherche fondamentale pourrait bénéficier de l’existence de ces objets. L’organisation cellulaire des xénobots, hors du contexte embryonnaire, offre un modèle pour explorer la plasticité cellulaire ou tissulaire, la coordination cellulaire collective et l’auto-organisation, domaines clés pour comprendre l’évolution d’entités vivantes.

Des propriétés inattendues

Au-delà des tâches programmées, des propriétés remarquables ont été identifiées expérimentalement. Par exemple, des xénobots exposés à des vibrations sonores modifient significativement leur comportement moteur, passant d’une rotation à un déplacement linéaire rapide, une réaction absente chez les embryons de xénope au même stade.

En regroupant des cellules selon des architectures originales, les xénobots obligeraient ces cellules à reprogrammer en partie leur activité génétique : des analyses des gènes activés par ces cellules montrent l’activation de voies de stress, de réparation tissulaire ou de remodelage, qui ne sont pas utilisées de la même façon dans l’embryon intact.

De plus, dans ces expériences, plusieurs xénobots sectionnés se réparent spontanément et retrouvent un mouvement coordonné, ce qui suggère une communication à courte distance entre cellules, probablement via des signaux bioélectriques et chimiques, alors qu’aucun nerf n’est présent. Ces comportements illustrent une forte plasticité cellulaire, dont l’ampleur varie selon la manière dont les tissus ont été assemblés et les conditions de culture employées.

Derrière les promesses, des enjeux éthiques majeurs

Les promesses d’applications médicales ou environnementales ne doivent pas occulter l’ambiguïté de statut de ces entités, ni organismes naturels ni machines traditionnelles. Les xénobots sont des assemblages cellulaires conçus par l’humain appuyé par des systèmes d’intelligence artificielle. Leur déploiement reste, aujourd’hui, de l’ordre de l’hypothèse.

Plusieurs risques sont discutés par les bioéthiciens. Écologique d’abord, en cas d’acquisition par les xénobots d’une capacité de survie ou de réplication inattendue dans l’environnement. Sanitaire ensuite, en cas d’utilisation chez l’humain sans maîtrise complète de leur comportement à long terme. Un risque de détournement enfin, par exemple pour la libération ciblée d’agents toxiques.




À lire aussi :
Xénobots, biobots : doit-on avoir peur des « robots vivants » ?


À cela s’ajoutent des enjeux plus symboliques : brouiller davantage la frontière entre vivant et non-vivant pourrait fragiliser certains cadres juridiques de protection du vivant, d’où les appels à un cadre réglementaire international spécifique à ces biorobots. Les promesses d’applications médicales ou dans le domaine de l’environnement ne doivent pas occulter l’ambiguïté de statut de ces entités, qui exigent une réflexion éthique et un cadre réglementaire international.

L’extension de l’utilisation de ces outils biologiques à des cellules humaines ne devra se réaliser que dans un cadre strictement contrôlé et sous supervision d’un comité éthique pluridisciplinaire. Plusieurs travaux dans ce domaine recommandent déjà des évaluations systématiques des risques (écologiques, sanitaires et de détournement), une transparence des protocoles et une implication du public dans les décisions de déploiement.

Il a été proposé de créer des instances spécifiques à cette technologie, chargées de vérifier la biodégradabilité, la limitation de la réplication, la traçabilité des essais et le respect de la dignité du vivant. Dans ce contexte, l’usage éventuel de xénobots ou d’organismes similaires dérivés de cellules humaines devrait s’inscrire dans un cadre réglementaire international inspiré de ces recommandations, avec des garde-fous comparables à ceux mis en place pour les organismes génétiquement modifiés (OGM) ou les thérapies géniques.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ? – https://theconversation.com/que-sont-les-xenobots-ces-robots-biologiques-qui-bouleversent-les-frontieres-entre-vivant-et-machine-272362

D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules

Source: The Conversation – in French – By Purificación López García, Directrice de recherche CNRS, Université Paris-Saclay

Entrée à l’Académie des sciences en janvier 2025, Purificación López García s’intéresse à l’origine et aux grandes diversifications du vivant sur Terre. Elle étudie la diversité, l’écologie et l’évolution des microorganismes des trois domaines du vivant (archées, bactéries, eucaryotes). Avec David Moreira, elle a émis une hypothèse novatrice pour expliquer l’origine de la cellule eucaryote, celle dont sont composés les plantes, les animaux et les champignons, entre autres. Elle est directrice de recherche au CNRS depuis 2007 au sein de l’unité Écologie- Société-Évolution de l’Université Paris-Saclay et a été récompensée de la médaille d’argent du CNRS en 2017. Elle a raconté son parcours et ses découvertes à Benoît Tonson, chef de rubrique Science et Technologie.


The Conversation : Vous vous intéressez à l’origine du vivant. Vivant, que l’on classifie en trois grands domaines : les eucaryotes, des organismes dont les cellules ont un noyau, comme les humains ou les plantes par exemple ; les bactéries, qui ne possèdent pas de noyau, et un troisième, sans doute le moins connu, les archées. Pouvez-vous nous les présenter ?

Purificación López García : Ce domaine du vivant a été mis en évidence par Carl Woese à la fin des années 1970. Quand j’ai commencé mes études, à la fin des années 1980, cette découverte ne faisait pas consensus, il y avait encore beaucoup de résistance de la part de certains biologistes à accepter un troisième domaine du vivant. Ils pensaient qu’il s’agissait tout simplement de bactéries. En effet, comme les bactéries, les archées sont unicellulaires et n’ont pas de noyau. Il a fallu étudier leurs gènes et leurs génomes pour montrer que les archées et les bactéries étaient très différentes entre elles et même que les archées étaient plus proches des eucaryotes que des bactéries au niveau de leur biologie moléculaire.

Comment Carl Woese a-t-il pu classifier le vivant dans ces trois domaines ?

P. L. G. : On est donc à la fin des années 1970. C’est l’époque où commence à se développer la phylogénie moléculaire. L’idée fondatrice de cette discipline est qu’il est possible d’extraire des informations évolutives à partir des gènes et des protéines codées dans le génome de tous les êtres vivants. Certains gènes sont conservés chez tous les organismes parce qu’ils codent des ARN ou des protéines dont la fonction est essentielle à la cellule. Toutefois, la séquence en acides nucléiques (les lettres qui composent l’ADN : A, T, C et G ; U à la place de T dans l’ARN) et donc celle des acides aminés des protéines qu’ils codent (des combinaisons de 20 lettres) va varier. En comparant ces séquences, on peut déterminer si un organisme est plus ou moins proche d’un autre et classifier l’ensemble des organismes en fonction de leur degré de parenté évolutive.

Carl Woese est le premier à utiliser cette approche pour classifier l’ensemble du vivant : de la bactérie à l’éléphant, en passant par les champignons… Il va s’intéresser dans un premier temps non pas à l’ADN mais à l’ARN et, plus précisément, à l’ARN ribosomique. Le ribosome est la structure qui assure la traduction de l’ARN en protéines. On peut considérer que cette structure est la plus conservée dans tout le vivant : elle est présente dans toutes les cellules.

La classification du vivant en trois grands domaines selon Carl Woese.
CC BY

Avec ses comparaisons des séquences d’ARN ribosomiques, Woese montre deux choses : que l’on peut établir un arbre universel du vivant en utilisant des séquences moléculaire et qu’un groupe de séquences d’organismes considérés comme de bactéries « un peu bizarres », souvent associées à des milieux extrêmes, forment une clade (un groupe d’organismes) bien à part. En étudiant leur biologie moléculaire et, plus tard, leurs génomes, les archées s’avéreront en réalité beaucoup plus proches des eucaryotes, tout en ayant des caractéristiques propres, comme la composition unique des lipides de leurs membranes.

Aujourd’hui, avec les progrès des méthodes moléculaires, cette classification en trois grands domaines reste d’actualité et est acceptée par l’ensemble de la communauté scientifique. On se rend compte aussi que la plupart de la biodiversité sur Terre est microbienne.

Vous vous êtes intéressée à ces trois grands domaines au fur et à mesure de votre carrière…

P. L. G. : Depuis toute petite, j’ai toujours été intéressée par la biologie. En démarrant mes études universitaires, les questions liées à l’évolution du vivant m’ont tout de suite attirée. Au départ, je pensais étudier la biologie des animaux, puis j’ai découvert la botanique et enfin le monde microbien, qui m’a complètement fascinée. Toutes les formes de vie m’intéressaient, et c’est sûrement l’une des raisons pour lesquelles je me suis orientée vers la biologie marine pendant mon master. Je pouvais travailler sur un écosystème complet pour étudier à la fois les microorganismes du plancton, mais aussi les algues et les animaux marins.

Puis, pendant ma thèse, je me suis spécialisée dans le monde microbien et plus précisément dans les archées halophiles (celles qui vivent dans des milieux très concentrés en sels). Les archées m’ont tout de suite fascinée parce que, à l’époque, on les connaissait comme des organismes qui habitaient des environnements extrêmes, très chauds, très salés, très acides. Donc, c’était des organismes qui vivaient aux limites du vivant. Les étudier, cela permet de comprendre jusqu’où peut aller la vie, comment elle peut évoluer pour coloniser tous les milieux, même les plus inhospitaliers.

Cette quête de l’évolution que j’avais toujours à l’esprit a davantage été nourrie par des études sur les archées hyperthermophiles lors de mon postdoctorat, à une époque où une partie de la communauté scientifique pensait que la vie aurait pu apparaître à proximité de sources hydrothermales sous-marines. J’ai orienté mes recherches vers l’origine et l’évolution précoce de la vie : comment est-ce que la vie est apparue et s’est diversifiée ? Comment les trois domaines du vivant ont-ils évolué ?

Pour répondre à ces questions, vous avez monté votre propre laboratoire. Avec quelle vision ?

P. L. G. : Après un bref retour en Espagne, où j’ai commencé à étudier la diversité microbienne dans le plancton océanique profond, j’ai monté une petite équipe de recherche à l’Université Paris-Sud. Nous nous sommes vraiment donné la liberté d’explorer la diversité du vivant avec les outils moléculaires disponibles, mais en adoptant une approche globale, qui prend en compte les trois domaines du vivant. Traditionnellement, les chercheurs se spécialisent : certains travaillent sur les procaryotes – archées ou bactéries –, d’autres sur les eucaryotes. Les deux mondes se croisent rarement, même si cela commence à changer.

Cette séparation crée presque deux cultures scientifiques différentes, avec leurs concepts, leurs références et même leurs langages. Pourtant, dans les communautés naturelles, cette frontière n’existe pas : les organismes interagissent en permanence. Ils échangent, collaborent, entrent en symbiose mutualiste ou, au contraire, s’engagent dans des relations de parasitisme ou de compétition.

Nous avons décidé de travailler simultanément sur les procaryotes et les eucaryotes, en nous appuyant d’abord sur l’exploration de la diversité. Cette étape est essentielle, car elle constitue la base qui permet ensuite de poser des questions d’écologie et d’évolution.

L’écologie s’intéresse aux relations entre organismes dans un écosystème donné. Mais mes interrogations les plus profondes restent largement des questions d’évolution. Et l’écologie est indispensable pour comprendre ces processus évolutifs : elle détermine les forces sélectives et les interactions quotidiennes qui façonnent les trajectoires évolutives, en favorisant certaines tendances plutôt que d’autres. Pour moi, les deux dimensions – écologique et évolutive – sont intimement liées, surtout dans le monde microbien.

Sur quels terrains avez-vous travaillé ?

P. L. G. : Pour approfondir ces questions, j’ai commencé à travailler dans des environnements extrêmes, des lacs de cratère mexicains au lac Baïkal en Sibérie, du désert de l’Atacama et l’Altiplano dans les Andes à la dépression du Danakil en Éthiopie, et en m’intéressant en particulier aux tapis microbiens. À mes yeux, ces écosystèmes microbiens sont les véritables forêts du passé. Ce type de systèmes a dominé la planète pendant l’essentiel de son histoire.

Purificación López García dans le Salar de Quisquiro (Chili), tenant un tapis microbien.
Ana Gutiérrez-Preciado, Fourni par l’auteur

La vie sur Terre est apparue il y a environ 4 milliards d’années, alors que notre planète en a environ 4,6. Les eucaryotes, eux, n’apparaissent qu’il y a environ 2 milliards d’années. Les animaux et les plantes ne se sont diversifiés qu’il y a environ 500 millions d’années : autant dire avant-hier à l’échelle de la planète.

Pendant toute la période qui précède l’émergence des organismes multicellulaires complexes, le monde était entièrement microbien. Les tapis microbiens, constitués de communautés denses et structurées, plus ou moins épaisses, formaient alors des écosystèmes très sophistiqués. Ils étaient, en quelque sorte, les grandes forêts primitives de la Terre.

Étudier aujourd’hui la diversité, les interactions et le métabolisme au sein de ces communautés – qui sont devenues plus rares car elles sont désormais en concurrence avec les plantes et les animaux – permet de remonter le fil de l’histoire évolutive. Ces systèmes nous renseignent sur les forces de sélection qui ont façonné la vie dans le passé ainsi que sur les types d’interactions qui ont existé au cours des premières étapes de l’évolution.

Certaines de ces interactions ont d’ailleurs conduit à des événements évolutifs majeurs, comme l’origine des eucaryotes, issue d’une symbiose entre procaryotes.

Comment ce que l’on observe aujourd’hui peut-il nous fournir des informations sur le passé alors que tout le vivant ne cesse d’évoluer ?

P. L. G. : On peut utiliser les communautés microbiennes actuelles comme des analogues de communautés passées. Les organismes ont évidemment évolué – ils ne sont plus les mêmes –, mais nous savons deux choses essentielles. D’abord, les fonctions centrales du métabolisme sont bien plus conservées que les organismes qui les portent. En quelque sorte, il existe un noyau de fonctions fondamentales. Par exemple, il n’existe que très peu de manières de fixer le CO₂ présent dans l’atmosphère. La plus connue est le cycle de Calvin associé à la photosynthèse oxygénique de cyanobactéries des algues et des plantes. Ce processus permet d’utiliser le carbone du CO₂ pour produire des molécules organiques plus ou moins complexes indispensables à tout organisme.

On connaît six ou sept grandes voies métaboliques de fixation du carbone inorganique, qui sont en réalité des variantes les unes des autres. La fixation du CO₂, c’est un processus absolument central pour tout écosystème. Certains organismes, dont les organismes photosynthétiques, fixent le carbone. Ce sont les producteurs primaires.

Ensuite vient toute la diversification d’organismes et des voies qui permettent de dégrader et d’utiliser cette matière organique produite par les fixateurs de carbone. Et là encore, ce sont majoritairement les microorganismes qui assurent ces fonctions. Sur Terre, ce sont eux qui pilotent les grands cycles biogéochimiques. Pas tellement les plantes ou les animaux. Ces cycles existaient avant notre arrivée sur la planète, et nous, animaux comme plantes, ne savons finalement pas faire grand-chose à côté de la diversité métabolique microbienne.

Les procaryotes – archées et bactéries – possèdent une diversité métabolique bien plus vaste que celle des animaux ou des végétaux. Prenez la photosynthèse : elle est héritée d’un certain type de bactéries que l’on appelle cyanobactéries. Ce sont elles, et elles seules, chez qui la photosynthèse oxygénique est apparue et a évolué (d’autres bactéries savent faire d’autres types de photosynthèse dites anoxygéniques). Et cette innovation a été déterminante pour notre planète : avant l’apparition des cyanobactéries, l’atmosphère ne contenait pas d’oxygène. L’oxygène atmosphérique actuel n’est rien d’autre que le résultat de l’accumulation d’un déchet de cette photosynthèse.

Les plantes et les algues eucaryotes, elles, n’ont fait qu’hériter de cette capacité grâce à l’absorption d’une ancienne cyanobactérie capable de faire la photosynthèse (on parle d’endosymbiose). Cet épisode a profondément marqué l’évolution des eucaryotes, puisqu’il a donné naissance à toutes les lignées photosynthétiques – algues et plantes.

À l’instar de la fixation du carbone lors de la photosynthèse, ces voies métaboliques centrales sont beaucoup plus conservées que les organismes qui les portent. Ces organismes, eux, évoluent en permanence, parfois très rapidement, pour s’adapter aux variations de température, de pression, aux prédateurs, aux virus… Pourtant, malgré ces changements, les fonctions métaboliques centrales restent préservées.

Et ça, on peut le mesurer. Lorsque l’on analyse la diversité microbienne dans une grande variété d’écosystèmes, on observe une diversité taxonomique très forte, avec des différences d’un site à l’autre. Mais quand on regarde les fonctions de ces communautés, de grands blocs de conservation apparaissent. En appliquant cette logique, on peut donc remonter vers le passé et identifier des fonctions qui étaient déjà conservées au tout début de la vie – des fonctions véritablement ancestrales. C’est un peu ça, l’idée sous-jacente.

Finalement, jusqu’où peut-on remonter ?

P. L. G. : On peut remonter jusqu’à un organisme disons « idéal » que l’on appelle le Last Universal Common Ancestor, ou LUCA – le dernier ancêtre commun universel des organismes unicellulaires. Mais on sait que cet organisme était déjà très complexe, ce qui implique qu’il a forcément été précédé d’organismes beaucoup plus simples.

On infère l’existence et les caractéristiques de cet ancêtre par comparaison : par la phylogénie moléculaire, par l’étude des contenus en gènes et des propriétés associées aux trois grands domaines du vivant. En réalité, je raisonne surtout en termes de deux grands domaines, puisque l’on sait aujourd’hui que les eucaryotes dérivent d’une symbiose impliquant archées et bactéries. Le dernier ancêtre commun, dans ce cadre, correspondrait donc au point de bifurcation entre les archées et les bactéries.

À partir de là, on peut établir des phylogénies, construire des arbres, et comparer les éléments conservés entre ces deux grands domaines procaryotes. On peut ainsi inférer le « dénominateur commun », celui qui devait être présent chez cet ancêtre, qui était probablement déjà assez complexe. Les estimations actuelles évoquent un génome comprenant peut-être entre 2 000 et 4 000 gènes.

Cela nous ramène à environ 4 milliards d’années. Vers 4,4 milliards d’années, on commence à voir apparaître des océans d’eau liquide et les tout premiers continents. C’est à partir de cette période que l’on peut vraiment imaginer le développement de la vie. On ne sait pas quand exactement, mais disons qu’autour de 4-4,2 milliards d’années, c’est plausible. Et on sait que, à 3,5 milliards d’années, on a déjà des fossiles divers de tapis microbiens primitifs (des stromatolites fossiles).

Et concernant notre groupe, les eucaryotes, comment sommes-nous apparus ?

P. L. G. : Nous avons proposé une hypothèse originale en 1998 : celle de la syntrophie. Pour bien la comprendre, il faut revenir un peu sur l’histoire des sciences, notamment dans les années 1960, quand Lynn Margulis, microbiologiste américaine, avance la théorie endosymbiotique. Elle propose alors que les chloroplastes des plantes et des algues – les organites qui permettent de réaliser la photosynthèse dans les cellules de plantes – dérivent d’anciennes bactéries, en particulier de cyanobactéries, qu’on appelait à l’époque « algues vert-bleu ». Et elle avance aussi que les mitochondries, l’organite eucaryote où se déroule la respiration et qui nous fournit notre énergie, proviennent elles aussi d’anciennes bactéries endosymbiotes – un endosymbiote étant un organisme qui vit à l’intérieur des cellules d’un autre.

Ces idées, qui avaient été déjà énoncées au début du vingtième siècle et que Margulis a fait revivre, ont été très débattues. Mais à la fin des années 1970, avec les premiers arbres phylogénétiques, on a pu démontrer que mitochondries et chloroplastes dérivent effectivement d’anciennes bactéries endosymbiotes : les cyanobactéries pour les chloroplastes, et un groupe que l’on appelait autrefois les « bactéries pourpres » pour les mitochondries.

L’hypothèse dominante, à cette époque, pour expliquer l’origine des eucaryotes, repose sur un scénario dans lequel un dernier ancêtre commun se diversifie en trois grands groupes ou domaines : les bactéries, les archées et les eucaryotes. Les archées sont alors vues comme le groupe-frère des eucaryotes, avec une biologie moléculaire et des protéines conservées qui se ressemblent beaucoup. Dans ce modèle, la lignée proto-eucaryote qui conduira aux eucaryotes et qui développe toutes les caractéristiques des eucaryotes, dont le noyau, acquiert assez tardivement la mitochondrie via l’endosymbiose d’une bactérie, ce qui lancerait la diversification des eucaryotes.

Sauf que, dans les années 1990, on commence à se rendre compte que tous les eucaryotes possèdent ou ont possédé des mitochondries. Certains groupes semblaient en être dépourvus, mais on découvre qu’ils les ont eues, que ces mitochondries ont parfois été extrêmement réduites ou ont transféré leurs gènes au noyau. Cela signifie que l’ancêtre de tous les eucaryotes avait déjà une mitochondrie. On n’a donc aucune preuve qu’une lignée « proto-eucaryote » sans mitochondrie ait jamais existé.

C’est dans ce contexte que de nouveaux modèles fondés sur la symbiose émergent. On savait déjà que les archées et les eucaryotes partageaient des similarités importantes en termes de protéines impliquées dans des processus informationnels (réplication de l’ADN, transcription, traduction de l’ARN aux protéines). Nous avons proposé un modèle impliquant trois partenaires : une bactérie hôte (appartenant aux deltaprotéobactéries), qui englobe une archée prise comme endosymbionte, cette archée devenant le futur noyau. Les gènes eucaryotes associés au noyau seraient ainsi d’origine archéenne.

Puis une seconde endosymbiose aurait eu lieu, avec l’acquisition d’une autre bactérie (une alphaprotéobactérie) : l’ancêtre de la mitochondrie, installée au sein de la bactérie hôte.

Toutefois, à l’époque, ces modèles fondés sur la symbiose n’étaient pas considérés très sérieusement. La donne a changé avec la découverte, il y a une dizaine d’années, d’un groupe particulier d’archées, appelées Asgard, qui partagent beaucoup de gènes avec les eucaryotes, qui sont en plus très similaires. Les arbres phylogénétiques faits avec des protéines très conservées placent les eucaryotes au sein de ces archées. Cela veut dire que les eucaryotes ont une origine symbiogénétique : ils dérivent d’une fusion symbiotique impliquant au minimum une archée (de type Asgard) et une alpha-protéobactérie, l’ancêtre de la mitochondrie. Mais la contribution d’autres bactéries, notamment des deltaprotéobactéries, des bactéries sulfato-réductrices avec lesquelles les archées Asgard établissent des symbioses syntrophiques dans l’environnement, n’est pas exclue.

Aujourd’hui, l’eucaryogénèse est un sujet étudié activement. La découverte des archées Asgard a renforcé la vraisemblance de ce type de modèle symbiogénétique. Des chercheurs qui considéraient ces idées comme trop spéculatives – parce qu’on ne pourra jamais avoir de preuve directe d’un événement datant d’il y a 2 milliards d’années – s’y intéressent désormais. Tous ceux qui travaillent sur la biologie cellulaire des eucaryotes se posent la question, parce qu’on peut aujourd’hui remplacer certaines protéines ou homologues eucaryotes par leurs variantes Asgard… et ça fonctionne.

The Conversation

Purificación López García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules – https://theconversation.com/dou-venons-nous-un-voyage-de-4-milliards-dannees-jusqua-lorigine-de-nos-cellules-271900

Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles

Source: The Conversation – in French – By Jordy Bony, Docteur et Professeur en droit à l’EM Lyon, EM Lyon Business School

Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.


L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.

Quel est l’objet de cette nouvelle proposition de loi ?

La proposition de loi n° 2297 portée par le député Insoumis François Piquemal (4ème circonscription de la Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté “contrainte” puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.

Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).

Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.

Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.

Une proposition inspirée par l’actualité internationale du droit funéraire

Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.

Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.

La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »

La situation en France

Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.

A défaut de pouvoir supprimer le cercueil, certains réfléchissent à le rendre plus vert. A Saint-Étienne la jeune entreprise Pivert Funéraire a ainsi créé un modèle pour crémation fabriqué à partir de déchet des industries sylvicoles et oléicoles.

D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent intitulé Cercueil(s) & droit(s) qui s’est tenu à l’université Toulouse capitole le 28 novembre 2025.

D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui à lieu en Essonne à travers le projet ANR F-Compost.

En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets comme celui porté par cette proposition de loi puisse voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de 100 ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…

The Conversation

Jordy Bony a travaillé avec le comité de recherche de l’association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.

ref. Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles – https://theconversation.com/une-proposition-de-loi-veut-supprimer-lobligation-dutiliser-un-cercueil-et-relancer-le-debat-sur-la-liberte-des-funerailles-272831

Venezuela’s civil-military alliance is being stretched — if it breaks, numerous armed groups may be drawn into messy split

Source: The Conversation – Global Perspectives – By Rebecca Hanson, Associate Professor of Latin American Studies, Sociology and Criminology, University of Florida

Armed demonstrators march in support of President Nicolas Maduro in Caracas, Venezuela, on Sept. 23, 2025.
AP Photo/Ariana Cubillos

The immediate political void left in Venezuela by Nicolás Maduro’s abrupt removal from power has been filled by the former vice president, Delcy Rodríguez, who was sworn in as interim president on Jan. 5, 2026.

But the situation is far from stable. Rodríguez represents just one of multiple and competing interests within a Venezuela elite composed of a precarious civil-military alliance officially committed to a leftist populist ideology called Chavismo.

Delcy and her brother Jorge Rodríguez, the longtime right-hand man of Maduro, are the leading faces of the civilian factions. Interior Minister Diosdado Cabello and Defense Minister Vladimir Padrino López, both members of the armed forces, represent its military interests.

Even this rough civilian-military split represents just the institutional dimensions of power in Venezuela. There are also numerous armed groups and organizations with distinct interests that will respond differently to what happens in the coming days and weeks.

As scholars who have spent decades researching these armed groups, we know that Chavista leadership now faces a stark dilemma: Does it acquiesce to U.S. pressure and coercion over domestic economic and policy decisions or does it resist? Both paths risk armed conflict of varying severity, with wide-ranging consequences for the country’s future stability.

Below, we identify the main armed actors and examine how they may respond to choices made by Chavismo’s leadership in response to Trump’s use of force.

A fragile unity

If current elite cohesion holds and Chavista leadership acquiesces to Trump’s designs on the country, in our opinion the likelihood of large-scale armed conflict remains low.

Over the years, the government has consolidated loyalty by installing officers at the helm of state institutions and granting access to resources such as oil, gold mining and drugs. Future government cohesion would be contingent on the military’s continued control of key institutions, as well as the legal and illicit markets that underpin senior officers’ wealth.

But the risk of instability also lies outside of elite unity, with the armed “colectivos.” These diverse groups range from loyal government supporters to factions more critical of the government. Although their numbers are unknown, colectivos are numerous, coordinated, often heavily armed and control significant territory – including in the country’s capital.

Three masked and armed men stand guard.
Masked members of a ‘colectivo’ group stand on the sidelines of a political march in Venezuela in 2020.
AP Photo/Matias Delacroix

While many are now driven primarily by economic interests, a subset retains insurgent, ant-imperialist commitments. Should Chavista elites be perceived as acquiescing to U.S. pressure going forward, these groups could interpret such accommodation as ideological betrayal and turn to guerrilla violence.

As a founder of one of the largest and most powerful colectivos put it when we interviewed him in 2021: “As long as imperialism exists, armed struggle will always be present because imperialism seeks to destroy the people.”

While colectivo members were largely quiet immediately after Maduro’s abduction, some videos released on social media and news outlets have shown men believed to be colectivo members harassing reporters and people in the streets.

Potential for political rupture

It remains unclear how durable the current unified but already fraught Chavista front will prove. Indeed, the Rodríguez civilian wing and the Cabello-Padrino López military apparatus likely have different levels of tolerance for Trump’s propositions.

The Rodríguez siblings have generally adopted a pragmatic posture: In recent years, Delcy has shown a willingness to move away from state-led socialism toward market-oriented policies in an effort to stabilize the Venezuelan economy. Moreover, embracing free-market policies could help the siblings attract support from business elites and segments of the broader population.

Military factions have increased their political weight since the death of Hugo Chávez, Maduro’s predecessor. These military forces want economic controls that allow them to benefit from crony capitalism and guarantee their interests in strategic enterprises – including oil, gold, food distribution and drug markets. Moreover, Chavismo’s anti-imperialist nationalist ideology is particularly salient within the armed forces.

Trump’s statements indicating the U.S. would be the de facto ruler of Venezuela was likely perceived within Chavista circles as overtly blatant imperialism and an intentional public humiliation. While the Rodríguez siblings may be prepared to absorb this to preserve stability and their own survival, hard-line military figures could be far less inclined to do so.

For now, the civilian leadership is at least officially committed to Maduro. Still, Trump’s framing of the Maduro operation as an overt spectacle of subjugation raises the military’s political cost of continued alignment with a civilian leadership potentially seen as acquiescing to Washington’s demands.

Whether this perceived affront translates into defection will also depend on how any potential Rodríguez realignment threatens or preserves the military’s economic interests.

Two political leaders smile at one another as they ride a car during a rally.
Interim Venezuelan leader Delcy Rodríguez, left, smiles at Venezuelan Defense Minister Padrino Lopez during a commemoration of Hugo Chavez in Caracas, Venezuela, in 2023.
AP Photo/Matias Delacroix

The contours of resulting conflict

An open rupture over the role of the U.S. in Venezuela would likely result in asymmetrical conflict between the U.S. and Venezuelan armed forces.

The National Bolivarian Armed Forces of Venezuela consists of roughly 123,000 active personnel supported by about 8,000 reservists. The Bolivarian Militia, a fifth component of the armed forces that integrates civilian volunteers into the military, adds an estimated 200,000–300,000 members to this count. Although severely weakened by a years-long economic crisis, Venezuela’s armed forces remain a formidable actor.

This conflict would also probably engage the colectivos, who have collaborated with the armed forces for years as part of what Maduro has called the Unión Cívico Militar. In short, we would see both formal armed conflict and guerrilla warfare break out.

The relationship between the government and police forces has long been characterized by mistrust, but high-ranking officials are aware that the continued future of their institutions are tied up with Chavismo’s survival.

Of Venezuela’s more than 140 police forces, the most powerful are the Policía Nacional Bolivariana, or PNB, the CICPC, the investigative and forensic police, and the SEBIN, the political intelligence police that have become synonymous with torture. The PNB and CICPC have benefited from widespread corruption under Chavismo. Their officers are involved in rampant extortion and kidnapping, and both have played central roles in systematic state violence during the Maduro era. At the same time, the CICPC is widely seen as lacking ideological loyalty to the government and at some moments has bucked state policy and directives.

Three armed police officers ride in the back of a pickup truck.
Police patrol in La Guaira, Venezuela, after President Donald Trump announced that President Nicolás Maduro had been captured and flown out of the country.
AP Photo/Matias Delacroix

Police forces are more closely aligned with the military than Delcy and Jorge Rodríguez’s civilian faction. In the case of a rupture, this alignment would likely hold.

The role of criminal and guerrilla groups

Meanwhile, numerous gangs and criminal organizations operate across Venezuela, ranging from groups of 10 to 12 men to more sophisticated “mega-gangs” with over 100 members. While the Trump administration has often mischaracterized these groups, it is true that relationships between the Maduro government and some groups allowed them to become more organized, better armed and more capable of governing the territories they control, though others were weakened or dismantled by the state.

Gangs and criminal organizations have no ideological loyalty to the government; their priority is preserving control over illicit markets, including drugs, kidnapping, extortion and food distribution. In the event of a civil-military split, such groups may well remain neutral, choosing instead to focus on protecting their criminal businesses and potentially using instability to expand them.

At the same time, Delcy and Jorge Rodríguez could revive a familiar strategy: negotiating informal agreements with gangs in exchange for calm in the streets and tacit support.

In the past, Chavista governments have barred police forces from entering gang-controlled areas and tolerated gang dominance over illicit markets. While such arrangements can produce short-term territorial stability, they also deepen tensions with the police.

The final major armed players in Venezuela are guerrilla political groups. The National Liberation Army, or ELN, and FARC dissident groups operate in multiple states along the Venezuela-Colombia border. Well-armed and deeply enmeshed in illegal mining, extortion and smuggling, both groups have benefited from Chavismo’s rule. They have largely moved away from pursuing national political power toward capturing local state infrastructure and establishing parallel authorities to control illicit markets. Nevertheless, insurgent ideologies and opposition to demobilization efforts in Colombia remain central to understanding their motivations.

Guerrilla organizations such as the ELN and FARC dissidents would also likely seek to preserve – and potentially expand – their control over illicit economies in any future political arrangement. Unlike local gangs, however, these groups maintain articulated political agendas, even if those agendas remain largely oriented toward Colombia. Any future alignment of these groups would reflect both ideological commitments and a strategic calculation that civilian factions aligned with Washington would pose a greater threat to their political and economic interests.

Addressing this constellation of armed groups through state-building and multilateral cooperation could go some way toward providing Venezuelans with stability in the post-Maduro era. But that is far from guaranteed in this uncertain moment, especially if the Trump administration continues its policy of direct coercion over Venezuelan affairs.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Venezuela’s civil-military alliance is being stretched — if it breaks, numerous armed groups may be drawn into messy split – https://theconversation.com/venezuelas-civil-military-alliance-is-being-stretched-if-it-breaks-numerous-armed-groups-may-be-drawn-into-messy-split-272670

LA fires showed how much neighborliness matters for wildfire safety

Source: The Conversation – USA (2) – By Elizabeth A. Logan, Associate Director of the Huntington-USC Institute on California and The West, USC Dornsife College of Letters, Arts and Sciences

Eaton fire survivors gather in Altadena, Calif., to talk about recovery six months after the LA fires. Sarah Reingewirtz/MediaNews Group/Los Angeles Daily News via Getty Images

On Jan. 7, 2025, people across the Los Angeles area watched in horror as powerful winds began spreading wildfires through neighborhood after neighborhood. Over three weeks, the fires destroyed more than 16,000 homes and businesses. At least 31 people died, and studies suggest the smoke and stress likely contributed to hundreds more deaths.

For many of us who lived through the fires, it was a traumatic experience that also brought neighborhoods closer together. Neighbors scrambled to help each other as burning embers started spot fires that threatened homes. They helped elderly and disabled residents evacuate.

A man turns a hose on a burning house while another runs.
Samuel Girma runs to get another hose as he and others try to stop the Eaton fire from spreading to more homes in Altadena, Calif. Girma was in the area on a construction job. The other man lives nearby.
Robert Gauthier/Los Angeles Times via Getty Images

As the LA region rebuilds a year later, many people are calling for improvements to zoning regulations, building codes, insurance and emergency communications systems. Conversations are underway about whether rebuilding in some locations makes sense at all.

But managing fire risk is about more than construction practices, regulations and rules. It is also about people and neighborliness – the ethos and practice of caring for those in your community, including making choices and taking steps on your own property to help keep the people around you safe.

Three men, one an older man, stand in the still-smoky ruins of what was once a home, with fire damage all around them.
Neighbors who lost their homes to a fire in Altadena, Calif., on Jan. 9, 2025, talk amid the ruins.
Zoë Meyers/AFP via Getty Images

As LA-area residents and historians who witnessed the fires’ destruction and have been following the recovery closely, we believe building a safer future for fire-risk communities includes increasing neighborliness and building shared knowledge of the past. Much of that starts in the schools.

Neighborliness matters in community fire safety

Being neighborly means recognizing the connectedness of life and addressing the common good, beyond just the individual and family network.

It includes community-wide fire mitigation strategies that can help prevent fires from spreading.

During the Southern California fires, houses, fences, sheds, roofs and dry vegetation served as the fuel for wind-blown fires racing through neighborhoods miles away from forested land. Being neighborly means taking steps to reduce risks on your own property that could put your neighbors at risk. Following fire officials’ recommendations can mean clearing defensible space around homes, replacing fire-prone plants and limiting or removing burnable material, such as wood fencing and sheds.

A woman closes her eyes as she hugs her cat.
Denise Johnson holds her cat Ramsey after the Eaton Fire. Her home was one of the few in her immediate neighborhood that survived, but recovery will take time for everyone.
AP Photo/Jae C. Hong

Neighborliness also recognizes the varying mental health impacts of significant wildfire events on the people who experience them. Being neighborly means listening to survivors and reaching out, particularly to neighbors who may be struggling or need help with recovery, and building community bonds.

Neighbors are often the first people who can help in an emergency before local, state and federal responders arrive. A fast neighborhood response, whether helping put out spot fires on a lawn or ensuring elderly residents or those without vehicles are able to evacuate, can save lives and property in natural disasters.

Fire awareness, neighborliness start in school

Community-based K-12 schools are the perfect places for learning and practicing neighborliness and providing transformative fire education.

Learning about the local history of wildfires, from the ecological impact of beneficial fire to fire disasters and how communities responded, can transform how children and their families think about fires and fire readiness.

However, in our view, fire history and safety is not currently taught nearly enough, even in fire-prone California.

A man pushes an older woman in a shopping cart along a pathway with apartments on one side and sand on the other, and thick smoke behind them.
Jerome Krausse pushes his mother-in-law in a shopping cart on a path along the beach as they evacuate amid fires in Pacific Palisades on Jan. 7, 2025.
AP Photo/Richard Vogel

California’s Department of Education Framework and Content Standards for K-12 education offer several opportunities to engage students with innovative lessons about wildfire causes, preparedness and resilience. For example, fourth grade history and social science standards include understanding “how physical environments (e.g., water, landforms, vegetation, climate) affect human activity.” Middle school science standards include mapping the history of natural hazards, though they only mention forest fires when discussing technology.

Schools could, and we believe should, include more fire history, ecological knowledge and understanding of the interconnectedness of neighborhoods and neighbors when it comes to fire safety in those and other classes.

Elementary schools in many states bring in firefighters to talk about fire safety, often through programs run by groups like the California Fire Prevention Organization. These efforts could spend more time looking beyond house fires to discuss how and where wildfires start, how they spread and how to make your own home and neighborhood much safer.

Models such as the U.S. Fire Administration’s collaboration with Sesame Workshop on the Sesame Street Fire Safety Program for preschool kids offer examples, blending catchy phrases with safety and science lessons.

The National Fire Protection Association’s Sparky the Fire Dog shares some simple steps that kids can do with their parents and friends to help keep their neighborhood safer from wildfire.

Including knowledge from Indigenous tribal elders, fire management professionals and other community members can provide more robust fire education and understanding of the roles people play in fire risk and risk reduction. Introducing students to future career pathways in fire safety and response can also help students see their roles in fire safety.

As LA recovers from the 2025 fires, fire-prone states can prepare for future fires by expanding education about fire and neighborliness, and helping students take that knowledge home to their families.

Remembering, because it will happen again

Neighborliness also demands a pivot from the reflexive amnesia regarding natural and unnatural disasters to knowing that it will happen here again.

There’s a dangerous, stubborn forgetfulness in the vaunted Land of Sunshine. It is all part of the myth that helped make Southern California such a juggernaut of growth from the late 19th century forward.

The region was, boosters and public officials insisted, special: a civilization growing in the benign embrace of the environment. Anything grew here, the endless Los Angeles Basin could absorb everyone, and if there wasn’t enough water to slake the thirst of metropolitan ambitions, engineers and taxpayers would see to it that water from far away – even very far away – would be brought here.

The Southland is beautiful, but a place can be both beautiful and precarious, particularly in the grip of climate change. These are lessons we believe should be taught in K-12 classrooms as an important step toward lowering disaster risk. Living with fire means remembering and understanding the past. That knowledge, and developing more neighborly behavior, can save your life and the lives of your neighbors.

The Conversation

Elizabeth A. Logan receives funding from the Sierra Nevada Conservancy and the WHH Foundation.

William Deverell receives funding from the Sierra Nevada Conservancy and the WHH Foundation.

ref. LA fires showed how much neighborliness matters for wildfire safety – https://theconversation.com/la-fires-showed-how-much-neighborliness-matters-for-wildfire-safety-272505

RFK Jr. guts the US childhood vaccine schedule despite its decades-long safety record

Source: The Conversation – USA (3) – By Jake Scott, Clinical Associate Professor of Infectious Diseases, Stanford University

Vaccines on the childhood schedule have been tested in controlled trials involving millions of participants and are constantly monitored for safety. GeorgiNutsov/iStock via Getty Images

The Trump administration’s overhauling of the decades-old childhood vaccination schedule, announced by federal health officials on Jan. 5, 2026, has raised alarm among public health experts and pediatricians.

The U.S. childhood immunization schedule, the grid of colored bars pediatricians share with parents, recommends a set of vaccines given from birth through adolescence to prevent a range of serious infections. The basic structure has been in place since 1995, when federal health officials and medical organizations first issued a unified national standard, though new vaccines have been added regularly as science advanced.

That schedule is now being dismantled.

In all, the sweeping change reduces the universally recommended childhood vaccines from 17 to 11. It moves vaccines against rotavirus, influenza, hepatitis A, hepatitis B and meningococcal disease from routine recommendations to “shared clinical decision-making,” a category that shifts responsibility for initiating vaccination from the health care system to individual families.

Health and Human Services Secretary Robert F. Kennedy Jr., who has cast doubt on vaccine safety for decades, justified these changes by citing a 33-page assessment comparing the U.S. schedule to Denmark’s.

But the two countries differ in important ways. Denmark has 6 million people, universal health care and a national registry that tracks every patient. In contrast, the U.S. has 330 million people, 27 million uninsured and a system where millions move between providers.

These changes follow the CDC’s decision in December 2025 to drop a long-held recommendation that all newborns be vaccinated against hepatitis B, despite no new evidence that questions the vaccine’s long-standing safety record.

The CDC announced an overhaul to the childhood vaccine schedule, bypassing the established process for making vaccine recommendations.

I’m an infectious disease physician who treats vaccine-preventable diseases and reviews the clinical trial evidence behind immunization recommendations. The vaccine schedule wasn’t designed in a single stroke. It was built gradually over decades, shaped by disease outbreaks, technological breakthroughs and hard-won lessons about reducing childhood illness and death.

The early years

For the first half of the 20th century, most states required that students be vaccinated against smallpox to enter the public school system. But there was no unified national schedule. The combination vaccine against diphtheria, tetanus and pertussis, known as the DTP vaccine, emerged in 1948, and the Salk polio vaccine arrived in 1955, but recommendations for when and how to give them varied by state, by physician and even by neighborhood.

The federal government stepped in after tragedy struck. In 1955, a manufacturing failure at Cutter Laboratories in Berkeley, California, produced batches of polio vaccine containing live virus, causing paralysis in dozens of children. The incident made clear that vaccination couldn’t remain a patchwork affair. It required federal oversight.

In 1964, the U.S. surgeon general established the Advisory Committee on Immunization Practices, or ACIP, to provide expert guidance and recommendations to the CDC on vaccine use. For the first time, a single body would evaluate the evidence and issue national recommendations.

A drawing of a boy on crutches watching children play
This editorial cartoon commenting on the polio vaccine won the Pulitzer Prize in 1956.
Tom Little via Wikimedia Commons

New viral vaccines

Through the 1960s, vaccines against measles (1963), mumps (1967) and rubella (1969) were licensed and eventually combined into what’s known as the MMR shot in 1971. Each addition followed a similar pattern: a disease that killed or disabled thousands of children annually, a vaccine that proved safe and effective in trials, and a recommendation that transformed a seemingly inevitable childhood illness into something preventable.

The rubella vaccine went beyond protecting the children who received it. Rubella, also called German measles, is mild in children but devastating to fetuses, causing deafness, heart defects and intellectual disabilities when pregnant women are infected.

A rubella epidemic in 1964 and 1965 drove this point home: 12.5 million infections and 20,000 cases of congenital rubella syndrome left thousands of children deaf or blind. Vaccinating children also helped protect pregnant women by curbing the spread of infection. By 2015, rubella had been eliminated from the Americas.

Hepatitis B and the safety net

In 1991, the CDC added hepatitis B vaccination at birth to the schedule. Before then, around 18,000 children every year contracted the virus before their 10th birthday.

Many parents wonder why newborns need this vaccine. The answer lies in biology and the limitations of screening.

An adult who contracts hepatitis B has a 95% chance of clearing the virus. An infant infected in the first months of life has a 90% chance of developing chronic infection, and 1 in 4 will eventually die from liver failure or cancer. Infants can acquire the virus from their mothers during birth, from infected household members or through casual contact in child care settings. The virus survives on surfaces for days and is highly contagious.

Early strategies that targeted only high-risk groups failed because screening missed too many infected mothers. Even today, roughly 12% to 18% of pregnant women in the U.S. are never screened for hepatitis B. Until ACIP dropped the recommendation in early December 2025, a first dose of this vaccine at birth served as a safety net, protecting all infants regardless of whether their mothers’ infection status was accurately known.

This safety net worked: Hepatitis B infections in American children fell by 99%.

A unified standard

For decades, different medical organizations issued their own, sometimes conflicting, recommendations. In 1995, ACIP, the American Academy of Pediatrics and the American Academy of Family Physicians jointly released the first unified childhood immunization schedule, the ancestor of today’s familiar grid. For the first time, parents and physicians had a single national standard.

The schedule continued to evolve. ACIP recommended vaccinations for chickenpox in 1996; rotavirus in 2006, replacing an earlier version withdrawn after safety monitoring detected a rare side effect; and HPV, also in 2006.

Each addition followed the same rigorous process: evidence review, risk-benefit analysis and a public vote by the advisory committee.

More vaccines, less burden

Vaccine skeptics, including Kennedy, often claim erroneously that children’s immune systems are overloaded because the number of vaccines they receive has increased. This argument is routinely marshaled to argue for a reduced childhood vaccination schedule.

One fact often surprises parents: Despite the increase in recommended vaccines, the number of immune-stimulating molecules in those vaccines, called antigens, has dropped dramatically since the 1980s, which means they are less demanding on a child’s immune system.

The whole-cell pertussis vaccine used in the 1980s alone contained roughly 3,000 antigens. Today’s entire schedule contains fewer than 160 antigens, thanks to advances in vaccine technology that allow precise targeting of only the components needed for protection.

What lies ahead

For decades, ACIP recommended changes to the childhood schedule only when new evidence or clear shifts in disease risk demanded it. The Jan. 5 announcement represents a fundamental break from that norm: Multiple vaccines moved out of routine recommendations simultaneously, justified not by new safety data but by comparison to a country with a fundamentally different health care system.

Kennedy accomplished this by filling positions involved in vaccine safety with political appointees. His hand-picked ACIP is stacked with members with a history of anti-vaccine views. The authors of the assessment justifying the change, senior officials at the Food and Drug Administration and at HHS, are both long-time critics of the existing vaccine schedule. The acting CDC director who signed the decision memo is an investor with no clinical or scientific background.

The practical effect will be felt in clinics across the country. Routine recommendations trigger automatic prompts in medical records and enable nurses to vaccinate under standing orders. “Shared clinical decision-making” requires a physician to be involved in every vaccination decision, creating bottlenecks that will inevitably reduce uptake, particularly for the more than 100 million Americans who lack regular access to primary care.

Major medical organizations, including the American Academy of Pediatrics and the American College of Obstetricians and Gynecologists, have said that they will continue recommending the full complement of childhood vaccines. Several states, including California, New York and Illinois, will follow established guidelines rather than the new federal recommendations, creating a patchwork where children’s protection depends on where they live.

Portions of this article originally appeared in a previous article published on Dec. 18, 2025.

The Conversation

Jake Scott does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. RFK Jr. guts the US childhood vaccine schedule despite its decades-long safety record – https://theconversation.com/rfk-jr-guts-the-us-childhood-vaccine-schedule-despite-its-decades-long-safety-record-272788

2025 was the year protein ‘jumped the shark’

Source: The Conversation – Canada – By Stuart Phillips, Professor, Kinesiology, Tier 1 Canada Research Chair in Skeletal Muscle Health, McMaster University

Thirty years ago, when I began studying protein metabolism, I would never have guessed that 2025 would be spent explaining why more protein is not always better.

Protein was once the quiet macronutrient that was always assumed sufficient. Carbs had their era, and fat had its moment in the sun. Protein arrived late, but I welcomed the attention.

The phrase “jumped the shark” comes from a now-infamous 1977 episode of the iconic sitcom Happy Days, when the character Fonzie (Henry Winkler) literally water-skied over a shark. It was the moment the show sacrificed solid plot and logic for spectacle. In 2025, dietary protein repeated Winkler’s performance and crossed the line from evidence-based nutrition into performance theatre.

In 2025, protein became a metabolic Jack-of-all nutrients: protein for fat loss, protein for longevity, protein for weight loss, protein for hormone balance, protein for menopause, protein for people on GLP-1 drugs, protein for people who exercise, protein for people who do not. Protein everywhere, and the more, the better.

Despite a number of prominent voices promoting very high protein intakes in 2025, the reality is that the research data hadn’t changed. It was the messaging and volume that had been turned up.

Protein is not the cake

One reason protein is so easy to overhype is that its effects are real, but conditional. Protein supports muscle function and adaptation, but it does not act in isolation.

I use analogies because they capture biology surprisingly well. Protein does not bake the cake; exercise does. Protein is the (thin) layer of icing (or the sprinkles on the icing). Once the cake is properly iced, adding more icing does not turn it into something else. At some point, you are just decorating.

Biology is full of plateaus. Protein is no exception.

How much protein is enough?

The recommended dietary allowance (RDA) of 0.8 grams of protein per kilogram of body weight per day (g/kg/day) was never designed to optimize muscle mass, muscle strength or support healthy aging. It was designed to be the minimal dose to balance nitrogen in the body. Nitrogen balance is used as a proxy for protein balance since protein is the only significant source of nitrogen we consume.

Over the past two decades, many researchers, including myself and several colleagues, have argued that higher protein intakes are often justified. Intakes of 1.2 to 1.6 g/kg/day appear to support better muscle maintenance and adaptation, but in reality, only when combined with resistance exercise.

But here is the critical point that was lost in 2025’s protein enthusiasm: there is no strong, rational, evidence-based case for going beyond this range for most people (and yes, that includes folks in the process of weight loss and those crushing the big weights five or six days per week).

Meta-analyses pooling dozens of resistance exercise training (strength training) studies consistently show that the benefits of protein supplementation plateau at about 1.6 g/kg/day. Beyond that, additional protein does not increase lean mass or strength.

This axiom is not controversial, even if it became controversial in the minds of online influencers.

Muscle is built by resistance exercise

Protein is the bricks. Resistance exercise is the construction crew. You can deliver bricks all day long, but without workers and a blueprint, nothing gets built. When protein intake is increased to above deficiency intakes in people who are not performing resistance exercise, changes in lean mass are trivial or nonexistent.

When resistance exercise is present, additional protein can (very) modestly enhance gains in lean mass and strength, but the effects are small and saturable. More is not endlessly better.

Protein and weight loss: managing expectations

Protein hype was especially evident in discussions of weight loss. Protein was credited with boosting metabolism, melting fat, preventing fat gain in perimenopause or suppressing appetite indefinitely. These claims sound appealing. They are also grossly overstated.

Protein does not cause weight loss on its own; you need an energy deficit for that. It does not meaningfully increase long-term energy expenditure, and while it can reduce appetite in short-term studies, these effects often diminish over time, leaving a small overall benefit.

Where protein does matter during weight loss is in helping preserve lean tissue, particularly when paired with resistance exercise. But even here, the protein effect is modest, and the distinction between lean mass and muscle mass is frequently blurred.

Protein without resistance exercise, during weight loss, does very little. Exercise is the major driver that helps lean mass retention. Protein is the supporting material.

Protein leverage: Real, but not limitless

Another concept that resurfaced in 2025 was protein leverage, the idea that humans eat until protein needs are met, potentially over-consuming energy when diets are lower in protein.

There is good evidence that protein leverage exists. But it operates within limits. Once basic protein needs are met, adding more protein does not continue to suppress appetite and depress energy intake endlessly. Notably, the intake at which protein’s appetite-suppressing effect wanes is, uncomfortably for social media pundits, only marginally higher than intakes people generally consume. Again, biology is not fooled by abundance.

Why did this happen in 2025?

My best explanation is that it often takes about 17 years for solid scientific evidence to filter into public awareness and practice.

Perhaps the social media world needed time to “do their research” — that is, read papers and form their conclusions — to catch up to what protein researchers had been doing for decades? But social media can spin things, and not always in the right direction.

Protein research matured in the 1990s and early 2000s. We refined methods, tested dose responses and clarified mechanisms. What we are seeing now is not a scientific breakthrough, but a delayed cultural uptake, amplified by social media, marketing and a wellness industry that thrives on extremes.

Unfortunately, as another lesson learned in 2025, neither science nor nuance fares well online.

Bringing protein back to reality

Protein matters. It always has. It supports muscle, function and health across the lifespan. Many people, especially older adults, very likely benefit from consuming more than the RDA.

But 2025 was not the year protein finally got its due. It was the year protein was oversold, overvalued and overhyped. Protein supports adaptation; it does not cause it. It helps preserves lean tissues (which is not muscle) during weight loss; it does not drive fat loss. And beyond a certain point, more protein is simply more protein, not more benefit.

The science of protein has not been revolutionized; we just need to listen to it again.

The Conversation

Stuart Phillips owns patents licensed to Exerkine and has received honoraria for speaking from Nestle, Optimum Nutrition and Danone. He receives funding from the National Science and Engineering Research Council, the Canadian Institutes for Health Research, the US National Institutes of Health, Dairy Famers of Canada, teh US National Dairy Council.

ref. 2025 was the year protein ‘jumped the shark’ – https://theconversation.com/2025-was-the-year-protein-jumped-the-shark-272614

La guerre de l’information autour des métaux stratégiques

Source: The Conversation – in French – By Michel Jébrak, Professeur émérite en ressources minérales, Université du Québec à Montréal (UQAM)

La transition énergétique repose sur une utilisation accrue de métaux. À mesure que cette dépendance augmente, l’attention portée à ces ressources a explosé. En vingt ans, un sujet autrefois réservé aux spécialistes est devenu un enjeu public majeur, et parfois même un motif de tensions internationales.

Dans cet espace de plus en plus exposé, l’information circule vite… et pas toujours correctement. Dans les médias et sur les réseaux sociaux, les fausses nouvelles abondent. Certaines relèvent d’erreurs sincères, d’autres d’approximations intéressées, d’autres encore de stratégies délibérées visant à peser sur les marchés ou à renforcer la position géopolitique d’un pays.

Ces dérives prennent des formes multiples : confusion technique, exagérations, chiffres gonflés, récits séduisants, mais trompeurs, jusqu’aux montages sophistiqués destinés à orienter l’opinion ou les investissements. On peut les regrouper sous une même étiquette : la désinformation minérale.

Pour y voir clair, l’Unesco propose un cadre utile distinguant bien les registres de mésinformation, malinformation et désinformation — un outil précieux pour comprendre comment, dans le domaine des métaux, l’information peut devenir une arme.




À lire aussi :
Le rôle stratégique et essentiel des métaux rares pour la santé


Mésinformation : promesses trop belles et confusion des termes

La mésinformation renvoie à des informations inexactes ou incomplètes. Elle est fréquente au stade de l’exploration minière, quand les promoteurs doivent attirer des capitaux pour des projets miniers tout en rassurant les populations locales. Les chercheurs français Brice Laurent et Julien Merlin parlent d’ « ingénierie de la promesse », des récits optimistes, voire enjolivés, qui mêlent parfois écoblanchiment et espoirs de rendements exceptionnels. Ces approximations peuvent devenir lourdes de conséquences : l’exagération de la taille d’un gisement peut créer l’illusion de prospérité et servir à lever des fonds ou faire monter artificiellement la valeur de l’entreprise en bourse.

La confusion entre « ressources » (un potentiel géologique encore théorique) et « réserves » (une évaluation rigoureuse intégrant la faisabilité économique) demeure répandue, d’autant que les normes de classification varient selon les pays.

Cette ambiguïté a alimenté plusieurs emballements médiatiques. C’est que la multiplication des informations et la vitesse des diffusions augmentent le risque ! En Ukraine, par exemple, l’administration Trump et certains médias ont présenté le pays comme disposant d’immenses « réserves » de terres rares, capables de rivaliser avec la Chine. Or il ne s’agissait pas de réserves au sens strict, mais d’hypothèses géologiques très préliminaires : aucun gisement n’avait été évalué selon les normes internationales ni confirmé économiquement.

L’affaire rappelle le scandale Shell : en 2004, la compagnie reconnaissait avoir surévalué de 20 % ses réserves de pétrole, ce qui a entraîné une chute de valeur d’environ 12 milliards de dollars. Ces cas illustrent combien un vocabulaire précis et des méthodes transparentes sont indispensables.

Autre source d’imprécision : la notion même de « minéraux critiques ». Il n’existe pas de définition internationale consensuelle. Un minéral est dit « critique » lorsqu’il est essentiel à l’industrie et à la technologie d’un pays, mais que son approvisionnement est vulnérable. Chaque État établit donc sa propre liste selon ses besoins et ses risques, certains y incluant même l’or ou le charbon.

Ce pluralisme n’est pas illégitime en soi, mais il ouvre une brèche narrative. Un métal peut être déclaré « critique » pour attirer les investissements ou justifier une politique, puis « déclassé » lorsqu’il suscite trop de convoitises. À l’ère des réseaux sociaux, l’anecdotique peut rapidement prendre l’allure d’un basculement mondial.




À lire aussi :
Le projet d’accord sur les métaux stratégiques Ukraine-États-Unis repose-t-il sur une méprise ?


Malinformation : gonfler les chiffres pour peser sur les marchés

La malinformation relève d’informations exagérées ou fausses destinées à tromper. Des responsables politiques et des États y recourent pour attirer des capitaux étrangers ou rehausser leur poids diplomatique. En 2023, le ministère iranien de l’Industrie, des Mines et du Commerce a annoncé la « découverte de 8,5 millions de tonnes de lithium ». Les États-Unis se sont alors inquiétés, tandis que la Chine y a vu une opportunité stratégique. En réalité, il s’agissait surtout d’hectorite, un minéral argileux ne représentant qu’environ 500 tonnes de lithium exploitable.

En Zambie, le ministre des Mines a vanté « le plus grand gisement de cuivre du monde découvert par intelligence artificielle », alors que KoBold Metals, une start‑up américaine qui utilise l’IA pour repérer ce type de gisement, précisait que la zone était en réalité explorée depuis des décennies. Ces récits séduisent les médias, alimentent les espoirs politiques et attirent des investisseurs, masquant la réalité. Dans ce contexte, le cadre de l’Unesco sur les « désordres informationnels » fournit un vocabulaire utile pour distinguer l’erreur, l’exagération et la manipulation.

Désinformation : l’information comme outil d’influence stratégique

La désinformation consiste à diffuser sciemment de l’information trompeuse pour miner la confiance, manipuler l’opinion ou affaiblir un adversaire. Le concept émerge dans l’orbite soviétique au XXe siècle, lié à toute une panoplie d’opérations destinées à orienter l’opinion internationale. Chez Staline, l’objectif est moins de décrire la réalité que de la produire : énoncer une version officielle, la répéter, mobiliser l’appareil d’État pour la faire croire, puis punir ceux qui la contredisent. La Russie a poursuivi ces pratiques, comme le montre sa stratégie au Sahel, qui visait à évincer l’influence diplomatique et militaire française et à sécuriser des ressources clés — diamants en République centrafricaine, or au Mali et uranium au Niger.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Aujourd’hui, la guerre informationnelle autour des ressources prend de nouvelles formes : campagnes numériques contre des projets concurrents — par exemple, des opérations russes destinées à décrédibiliser le gaz de schiste américain en Europe, ou le lobbying américain présentant son GNL comme l’alternative « démocratique » au gaz russe —, spéculation coordonnée sur les marchés, espionnage industriel et gouvernemental dans le domaine des minéraux critiques. L’Australie estime déjà à plusieurs milliards de dollars les pertes liées à l’espionnage dans le secteur des ressources. Derrière les mots et les chiffres, c’est une lutte pour le contrôle des données qui se joue — et donc pour un avantage technologique et financier durable.

Transparence, vérification, formation, éthique

L’idée d’une science — ici, les sciences de la Terre — entièrement neutre est tentante. Les faits suggèrent pourtant autre chose : l’information géologique agit comme un instrument de pouvoir. Elle peut stabiliser les marchés ou les faire exploser, favoriser la coopération internationale… ou attiser la méfiance.

Pour sortir du brouillard informationnel, un chantier éthique s’impose : promouvoir la transparence des données publiques, renforcer la vérification, et mieux former journalistes et grand public à la lecture critique des annonces techniques. Par exemple, le Service géologique américain publie régulièrement des rapports détaillés sur la production et les réserves de minéraux stratégiques, permettant aux chercheurs, médias et investisseurs de croiser les informations et de détecter les exagérations ou erreurs, tout en masquant cependant certaines informations sensibles.

Sans confiance dans les données géologiques, il ne peut y avoir de transition énergétique crédible. Défendre la fiabilité de l’information scientifique comme bien commun — au même titre que l’eau, l’air ou la biodiversité — devient indispensable. Il est grand temps de construire une éthique de la géo-information.

La Conversation Canada

Michel Jébrak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La guerre de l’information autour des métaux stratégiques – https://theconversation.com/la-guerre-de-linformation-autour-des-metaux-strategiques-269586