À cette période de l’année, beaucoup de gens prennent la résolution de s’occuper davantage de leur santé. Il n’est donc pas surprenant que les produits censés prolonger la vie, améliorer la santé et rajeunir l’apparence connaissent un grand succès.
On estime que la longévité est déterminée à 25 % par les gènes, et que le reste dépend des habitudes quotidiennes.
Il n’existe pas de solution miracle ni de raccourci pour vivre plus longtemps et en meilleure santé, mais la science énonce clairement des principes clés. Voici cinq choses que vous pouvez faire pour prolonger votre espérance de vie et améliorer votre santé.
Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.
1. Manger principalement des aliments d’origine végétale
L’alimentation a une incidence considérable sur la santé. Il est largement prouvé qu’un régime riche en aliments d’origine végétale est bénéfique pour la santé et permet de vivre plus longtemps.
En consommant davantage d’aliments d’origine végétale et moins de viande, de produits transformés, de sucre et de sel, on diminue le risque de contracter certaines maladies qui réduisent l’espérance de vie, comme les troubles cardiaques et le cancer.
Le régime méditerranéen est un des modes d’alimentation les plus sains et les plus étudiés. Louis Hansel/Unsplash
Les aliments d’origine végétale sont riches en nutriments, en composés phytochimiques, en antioxydants et en fibres. Ils possèdent également des propriétés anti-inflammatoires. Toutes ces caractéristiques protègent nos cellules des dommages liés au vieillissement et contribuent ainsi à prévenir les maladies.
Il n’existe pas de régime alimentaire qui convienne à tout le monde, mais l’un des plus étudiés et des plus sains est le régime méditerranéen. Inspiré des habitudes alimentaires des populations vivant dans les pays bordant la mer Méditerranée, il accorde une place importante aux légumes, aux fruits, aux céréales complètes, aux légumineuses, aux noix et aux graines, au poisson et aux fruits de mer, ainsi qu’à l’huile d’olive.
2. Viser un poids santé
Une autre mesure importante pour être en bonne santé consiste à maintenir un poids santé, car l’obésité augmente le risque de souffrir de divers problèmes de santé qui réduisent l’espérance de vie.
L’obésité met à rude épreuve tous les systèmes du corps et provoque de nombreux effets physiologiques, comme des inflammations et des troubles hormonaux. Ces problèmes augmentent le risque de développer diverses maladies, telles que les maladies cardiaques, les accidents vasculaires cérébraux, l’hypertension artérielle, le diabète et plusieurs types de cancer.
Outre ses effets physiques, l’obésité est également associée à une mauvaise santé mentale. Elle peut notamment causer de la dépression, une faible estime de soi et du stress.
L’un des plus grands défis auxquels nous sommes confrontés dans les pays développés est le fait de vivre dans un environnement qui favorise l’obésité. La publicité omniprésente et la facilité d’accès à des aliments riches en calories que notre corps est programmé pour désirer font en sorte qu’il est facile de consommer trop de calories.
3. Faire de l’exercice
Chacun sait que l’exercice physique est bénéfique pour la santé. La résolution la plus courante est de faire davantage d’exercice et d’améliorer sa condition physique. Une activité physique régulière permet de prévenir les maladies chroniques, de réduire le stress et de renforcer la santé mentale.
Si l’exercice physique aide à contrôler son poids et à réduire son taux de graisse corporelle, ses effets sont plus larges et comprennent une utilisation accrue du glucose (sucre dans le sang), une diminution de la pression artérielle, une réduction de l’inflammation ainsi qu’une amélioration de la circulation sanguine et de la fonction cardiaque.
Il est facile de se laisser emporter par l’engouement pour différentes stratégies de mise en forme, mais les études montrent que tout ce qui permet d’intégrer une activité physique à son quotidien est bénéfique pour la santé. Plutôt que de courir des marathons ou de passer des heures au gym, il est préférable de bouger au quotidien de toutes les manières possibles et de pratiquer des activités qui nous plaisent.
4. Ne pas fumer
Pour améliorer sa santé et vivre plus longtemps, on doit éviter de fumer ou de vapoter.
La cigarette affecte presque tous les organes du corps, réduit l’espérance de vie et diminue la qualité de vie. Il n’existe pas de niveau de tabagisme sans danger : chaque cigarette augmente le risque de développer des cancers, des maladies cardiaques ou du diabète.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Peu importe le nombre d’années passées à fumer et l’âge d’une personne, arrêter de fumer apporte des bienfaits pour la santé presque instatanément et permet d’inverser bon nombre des effets néfastes de la cigarette.
Si vous envisagez de passer à la cigarette électronique comme option à long terme, réfléchissez-y à deux fois. Les effets à long terme de la cigarette électronique sur la santé ne sont pas entièrement connus et elle présente ses propres risques pour la santé.
Lorsqu’il est question de vivre plus longtemps et en meilleure santé, on a tendance à se concentrer sur le corps. Mais l’une des découvertes les plus importantes de la dernière décennie est la compréhension de l’influence de la santé spirituelle et psychologique.
Les personnes seules et socialement isolées présentent un risque de mortalité prématurée beaucoup plus élevé et sont plus susceptibles de souffrir de maladies cardiaques, d’accidents vasculaires cérébraux, de démence ainsi que d’anxiété et de dépression.
Bien que nous n’en saisissions pas encore tous les mécanismes, ce phénomène résulterait de facteurs tant comportementaux que biologiques. Si les personnes ayant un bon réseau social sont plus enclines à adopter des comportements sains, la solitude semble également avoir un effet physiologique direct sur l’organisme.
Pour être en meilleure santé et vivre plus longtemps, nous devrions développer et entretenir des relations sociales.
Hassan Vally ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Ce n’est pas d’hier que les États-Unis souhaitent la fin du régime Maduro. Dès le premier mandat de Trump, en mars 2020, Nicolas Maduro est inculpé par la justice américaine pour narcoterrorisme et trafic de cocaïne. Une prime de 15 millions de dollars américains est promise pour son arrestation. La pression s’est cependant accentuée depuis plusieurs mois par des manœuvres tant militaires que diplomatiques.
Ce n’est pas d’hier non plus que les États-Unis interviennent militairement en Amérique latine, comme on l’a vu à Grenade et au Panama, en 1983, ou au Honduras, en 1988. Mais une intervention de cette ampleur dans un grand pays d’Amérique du Sud est sans précédent, comme l’explique Jacob Blanc, spécialiste de l’Amérique latine, professeur au département d’histoire de l’Université McGill.
La Conversation Canada : Est-ce que l’intervention américaine à Caracas vous a surpris ?
Jacob Blanc : Oui, quand même, surtout en raison de son caractère audacieux. Il y a une longue histoire d’interventions américaines en Amérique latine, mais dans les pays plus importants, ça s’est généralement passé de manière plus subtile. Les États-Unis appuyaient les changements de régime perçus comme pro-communistes ou anti-américains. Mais là, une intervention militaire en pleine nuit, au palais présidentiel, et l’enlèvement du dirigeant d’un pays moderne, c’est inusité. En plus, Trump ne touche pas au système politique, il laisse le régime en place, la vice-présidente Delcy Rodriguez étant devenue présidente par intérim. C’est sans précédent.
Quel genre de relations les États-Unis entretenaient-ils avec le Venezuela ?
J.B. : Le Venezuela a une importance particulière pour les Américains, car c’est le pays où s’est déroulé un des premiers mouvements d’indépendance contre les Espagnols. C’est là que les guerres coloniales ont pris racine, avec les idées du [chef militaire et polique] Simón Bolívar, soit celle d’un hémisphère sud-américain unifié, solidaire, avec la création d’une confédération. Ça n’a pas eu de succès, mais le Venezuela a été à l’avant-scène de ce mouvement. Puis, il y a eu la découverte du pétrole au XXe siècle dans plusieurs pays au nord de l’Amérique du Sud, dont le Venezuela (avec les plus importantes réserves au monde) mais aussi la Colombie. L’économie en a profité, mais ça a aussi créé des problèmes régionaux.
La région a pris de l’importance pour les Américains, particulièrement dans les années 1990, avec l’instabilité au Moyen-Orient. Avec l’arrivée au pouvoir de Hugo Chávez, [président de 1999 jusqu’à sa mort], et de ses idées de gauche, les relations se sont refroidies. Chavez est devenu la bête noire des Américains, qui l’accusaient notamment de corruption. Il y a eu l’instauration d’un embargo pétrolier dès 2019. Le secteur pétrolier s’est beaucoup affaibli par la suite. Sous Hugo Chavez, il était déjà au ralenti, en raison notamment de la corruption. Et ça prendra des années et énormément d’argent avant que le secteur pétrolier soit remis sur les rails par les Américains… qui ont eux-mêmes créé en partie le problème avec l’embargo.
LCC : Comment les autres pays sud-américains interprètent-ils cette intervention ?
J.B. : Ça dépend de leur idéologie. Le Brésil, le Mexique et la Colombie, plus à gauche, ont dénoncé cette intervention, mais l’Argentine et le Chili l’ont soutenue. À mon avis, cela va accentuer l’éloignement des deux idéologies en présence en Amérique du Sud, mais cette situation n’est pas tant nouvelle. Pour Cuba, la menace est réelle. Mais une intervention américaine sur l’île serait purement idéologique, le pays n’a presque rien à offrir. Ça serait pour Trump un trophée à exhiber.
LCC : La rhétorique guerrière de Trump contre la Colombie est quand même surprenante, le pays étant une démocratie. Comment l’interpréter ?
J.B. : Oui, ça m’étonne un peu. Mais en même temps, c’est logique : la justification officielle pour l’intervention contre le Venezuela, c’est la drogue qui entre illégalement aux États-Unis. Mais le Venezuela est un petit joueur. Au contraire de la Colombie, qui est un très gros exportateur. Alors si la justification est vraie, ça sera encore plus facile de faire la même chose en Colombie…
LCC : Quel message envoie Trump au reste du monde ?
J.B. : Les actions de Trump rappellent ce que fait Poutine en Ukraine, et à ce que pourrait faire Xi Jinping à Taïwan ou dans d’autres pays voisins. Cela met en péril les règles internationales que les nations se sont données après la Seconde Guerre mondiale. Elles ont mis en place un système, faible, certes, mais un système quand même pour éviter les guerres.
LCC : Quelle est la suite pour le Venezuela ?
J.B. : Tout va dépendre du type d’administration que Trump va soutenir. Pour l’instant, il ne change pas le régime ni le système, et dit vouloir gérer à distance, avec différents incitatifs. Je crois que l’administration Trump se croise les doigts en espérant que la nouvelle présidence n’implose pas, en raison des factions internes. On peut s’attendre à des luttes intestines au sein du pouvoir actuel, ainsi qu’avec l’armée.
Plusieurs veulent le pouvoir. Donald Trump, lui, veut le beurre et l’argent du beurre : faire passer l’opération pour une victoire sans risque ni coût, c’est-à-dire sans l’envoi de soldats susceptibles d’y perdre la vie. Mais rien n’est moins certain. Et si le chaos s’étend dans la région, en Colombie notamment, ça sera la faute de Trump. Il a pris un pari très, très risqué.
Jacob Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Alors que l’attaque sur le Venezuela vient de confirmer la détermination des États-Unis à user de la force pour contrôler l’ensemble du continent américain, au détriment du droit international, l’avenir du Groenland, également dans la ligne de mire de Washington, requiert une attention accrue de la part de l’Europe.
« L’attaque contre le Venezuela est l’exemple effrayant d’un scénario où la politique de puissance prend le dessus. Nous ne savons pas encore ce qui se passe et où nous allons. Mais nous devrons tous réfléchir à notre vision du monde et prendre position. » Ce message posté sur LinkedIn (en danois) par la ministre groenlandaise de l’économie, du commerce, des minéraux et de la justice Najaa Nathanielsen traduit bien l’inquiétude qui règne à Nuuk, et qui s’est encore amplifiée depuis les événements du 3 janvier 2026 à Caracas. De son côté, la première ministre danoise Mette Frederiksen s’est alarmée :
« Si les États-Unis choisissent d’attaquer militairement un autre pays de l’Otan, alors c’est la fin de tout. »
Les menaces états-uniennes sur le Groenland, exprimées dès le retour au pouvoir de Donald Trump il y a un an, se sont nettement intensifiées au cours de ces dernières semaines, notamment avec la nomination, le 22 décembre 2025, d’un « envoyé spécial pour le Groenland » en la personne du gouverneur de Louisiane Jeff Landry. Celui-ci décrit ouvertement sa mission comme étant l’annexion du Groenland aux États-Unis (« make Greenland a part of the U.S. »).
La nomination témoigne, sans surprise, de la ténacité du président états-unien en ce qui concerne son projet d’annexion du territoire danois. L’accent mis par Donald Trump et par Jeff Landry sur l’histoire de la Louisiane, vendue par la France en 1803 aux États-Unis, dont elle représentait alors plus de 22 % de la surface, reflète – là aussi sans surprise – la logique transactionnelle de la politique promue par l’administration Trump, une logique de marché qui s’immisce sans complexe dans le domaine de la sécurité internationale.
Mais le Groenland est-il réellement, pour les États-Unis, une affaire de « sécurité nationale et internationale » qui justifierait son annexion ? Et si non, quelles sont les ambitions réelles de Washington ?
Créer la division entre le Groenland et le Danemark
Lorsque, le 7 janvier 2025, Mette Frederiksen répond à la proposition américaine d’achat du Groenland que l’avenir de l’île appartient aux Groenlandais, la réponse ménage le Groenland mais elle est incomplète. Le Groenland est toujours danois, et un vote du Parlement danois, le Folketing, est notamment requis pour une éventuelle accession à l’indépendance. Donald Trump joue à dessein de l’histoire coloniale entre le Danemark et le Groenland pour écarter un acteur clé de la situation – qui plus est, État membre de l’Union européenne.
De même, il est faux de prétendre que le gouvernement danois n’a engagé aucune dépense pour la défense du Groenland, comme le Trump l’affirme. Certes, jusqu’à récemment, la participation danoise était modeste (présence du Joint Arctic Command à Nuuk, de patrouilleurs et frégates et de la patrouille en traîneau à chiens Sirius couvrant la côte nord du Groenland). « Nous pouvons faire plus dans le cadre qui existe aujourd’hui », assurait en 2025 le ministre danois des affaires étrangères Lars Løkke Rasmussen. Deux programmes de défense ont été approuvés en 2025 par le Danemark pour un montant total avoisinant 6 milliards d’euros, et Copenhague a également approuvé une commande de 16 avions de combat américains F35 : la bonne volonté danoise ne suffit pas visiblement à calmer les ardeurs conquérantes de Washington.
La guerre de récits engagée par les États-Unis en soutien du projet d’annexion du Groenland n’est pas anodine. Elle cherche à ancrer dans les esprits le doute sur la légitimité de la souveraineté du Danemark et, en jouant sur son passé colonial, à créer la division entre le Groenland et le Danemark. Un autre aspect du discours de Washington est la surestimation de la menace militaire russe et chinoise au Groenland.
Des risques surdimensionnés pour justifier l’annexion du Groenland
Sur le plan de la sécurité, Donald Trump a, à plusieurs reprises, mentionné la présence de navires militaires russes et chinois autour du Groenland. Il s’agit d’une contre-vérité : les navires en question ont été repérés au large des côtes de l’Alaska.
La projection de puissance de la marine russe dans la zone d’étranglement GIUK (zone maritime entre le Groenland, l’Islande et le Royaume-Uni) est problématique et motive notamment les opérations Northern Viking de l’Otan. Elle est également redoutée au Groenland en ce qui concerne les infrastructures critiques (notamment les câbles sous-marins de télécommunications). Les risques en matière de sécurité ne sont donc pas nuls, d’autant que la Chine renforce sa puissance militaire dans le monde et, notamment, sa capacité en porte-avions.
Pour autant, s’il est important d’exercer un contrôle du territoire groenlandais, il n’y a pas de risque militaire significatif immédiat pour le Groenland qui justifierait son annexion par les États-Unis. Le risque est volontairement exagéré par Donald Trump afin de légitimer l’appropriation du Groenland, à laquelle le Groenland et le Danemark s’opposent.
Au-delà de la rhétorique et des fausses allégations, répétées à l’envi, les menaces de Washington sont à prendre au sérieux, car elles s’accompagnent de mesures concrètes et plus discrètes.
Dans leur rapport annuel de 2025, les services de renseignement danois ont, pour la première fois, fait état d’inquiétudes concernant les États-Unis. Le Danemark, historiquement l’un des plus atlantistes des pays européens, prend ses distances avec Washington.
Un expansionnisme au service d’intérêts bien pensés
En réalité, l’administration Trump est moins concernée par les questions de sécurité (même s’il s’agit de son argument officiel) que par un expansionnisme réactivant la doctrine Monroe, qui revendique un contrôle américain exclusif de l’« hémisphère occidental ». La nouvelle stratégie nationale de sécurité des États-Unis remet clairement au goût du jour cette doctrine (« Nous appliquerons un “corollaire Trump” à la doctrine Monroe », y est-il indiqué).
Cet expansionnisme de circonstance à l’approche des élections de mi-mandat promet de frapper fort. Annexer le Groenland est sans doute plus flatteur pour les ambitions du locataire de la Maison Blanche que renforcer des partenariats de défense pour des besoins non avérés, d’autant qu’il a clairement affirmé que les Européens devraient, dans le futur, assurer leur sécurité eux-mêmes.
Or, si la stratégie nationale de sécurité de 2025 peut très bien être « la plus longue note de suicide de l’histoire des États-Unis », pour reprendre les termes de l’historienne Anne Applebaum, elle n’en représente pas moins un danger immédiat pour l’Europe où, dans un renversement surréel, la démocratie et le supranationalisme sont non seulement décrits par l’administration Trump comme des menaces, mais plus encore comme des périls plus dangereux que les régimes autoritaires de la Russie ou de la Chine.
Contrairement aux affirmations de Trump, qui prétend que les États-Unis ne sont pas intéressés par les richesses minérales de l’île (« Nous avons tellement de sites pour les minéraux, le pétrole et tout le reste »), les investissements américains se développent au Groenland. Ronald Lauder, l’héritier milliardaire d’Estée Lauder qui aurait été le premier à avoir suggéré à Donald Trump l’idée d’« acheter » le Groenland, a pris des participations dans des entreprises groenlandaises et a manifesté son intérêt pour la construction d’une centrale hydroélectrique sur le plus grand lac du Groenland, Tasersiaq, afin d’alimenter en énergie une fonderie d’aluminium.
Des responsables de l’administration Trump seraient en pourparlers pour que le gouvernement états-unien prenne une participation dans l’entreprise américaine privée Critical Metals Corp, qui détient l’un des plus grands projets d’exploitation de terres rares au Groenland, Tanbreez. Cette opération donnerait aux États-Unis un accès direct à l’extraction de terres rares au Groenland, alors que la Chine détient le quasi-monopole mondial de leur extraction et raffinement.
Enfin, des rétorsions économiques visant des industries danoises ont déjà été mises en place : des contrats pour cinq projets éoliens offshore sur la côte est des États-Unis ont été suspendus, dont deux sont développés par la société danoise Ørsted.
Une réponse groenlandaise, danoise et européenne
Il est donc urgent d’adopter des mesures groenlandaises, danoises mais aussi européennes. Le premier ministre du Groenland Jens-Frederik Nielsen a clairement exprimé à Strasbourg, le 8 octobre 2025 devant le Parlement européen, son ouverture à une coopération plus approfondie avec l’UE :
« Nous avons besoin de coopération et de partenariats avec des pays et des institutions qui partagent nos valeurs. »
Le 6 janvier 2026, dans un message posté sur son compte Facebook, il remercie plusieurs États européens de leur soutien face aux menaces de Washington : les dirigeants de la France, de l’Allemagne, de l’Italie, de la Pologne, de l’Espagne, mais aussi du Royaume-Uni, ont déclaré qu’« il revient au Danemark et au Groenland, et à eux seuls, de décider des questions concernant le Danemark et le Groenland », et que « la sécurité dans l’Arctique doit donc être assurée collectivement, en coopération avec les alliés de l’Otan, y compris les États-Unis. »
Trois points sont donc saillants. Premièrement, sur le plan narratif, l’affirmation de la souveraineté du Danemark sur le Groenland ne se fait pas au détriment de l’autodétermination du peuple groenlandais, mais elle protège pour l’instant le Groenland d’une OPA américaine sur un territoire qui a bien, selon le droit danois, et en conformité avec le droit international, la capacité de décider de son futur selon les termes de l’accord d’autonomie de 2009.
Deuxièmement, sur le plan économique, une interdépendance trop forte avec les États-Unis peut déboucher sur une vulnérabilité politique et mettre en péril la démocratie au Groenland. Les Groenlandais ont déjà adopté des mesures claires de protection : le Parlement (Inatsisartut) a notamment voté en urgence en février 2025 une loi sur le financement des partis politiques, qui interdit les dons étrangers ou anonymes aux partis et aux candidats, et qui plafonne les contributions privées à l’échelle locale. Le Parlement examine en ce moment un projet de loi sur le filtrage des investissements directs étrangers visant à permettre aux autorités d’examiner, d’approuver, de conditionner ou de bloquer les investissements étrangers susceptibles de constituer une menace pour la sécurité nationale ou l’ordre public. L’UE s’est dotée d’un instrument similaire en 2019.
Troisièmement, en matière de sécurité, il est essentiel de penser une coopération européenne au bénéfice du Groenland et en accord avec le Danemark, une coopération qui peut dans un premier temps prendre la forme d’un dialogue stratégique régulier sur la sécurité et la résilience dans l’Arctique entre l’UE, le Groenland et le Danemark – et ce, sans attendre les résultats des élections de mi-mandat aux États-Unis.
Ce dialogue stratégique aurait pu commencer dès le début de l’année 2025. Mais les menaces de Washington n’ont pas été prises au sérieux, et un retard considérable a été pris. Il n’est pas sûr que la proposition des pays européens d’une réponse dans le cadre de l’Otan soit suffisante pour convaincre les États-Unis de renoncer à la force pour annexer le Groenland. Il est donc urgent de comprendre que l’UE doit avoir le courage de repenser sa relation avec les États-Unis, et de se penser et de s’affirmer sans détour comme puissance.
Cécile Pelaudeix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
L’échec de la commission mixte paritaire sur le projet de loi de finances pour 2026 place le gouvernement face à un choix délicat. Le premier ministre entend déposer un projet de loi spéciale, comme en décembre 2024, après le renversement du gouvernement de Michel Barnier. Ce choix soulève d’importantes questions de conformité constitutionnelle et de portée juridique. Décryptage.
Après l’échec de la commission mixte paritaire (CMP), vendredi 19 décembre, qui n’est pas parvenue à proposer un texte de compromis, le premier ministre se retrouvait avec trois options : donner le dernier mot à l’Assemblée nationale et tenter de forcer l’adoption par l’article 49 alinéa 3 de la Constitution, attendre l’expiration du délai de soixante-dix jours pour mettre en œuvre le projet de loi de finances (PLF) par ordonnance, ou déposer un projet de loi spéciale. C’est cette dernière voie qui a été choisie. Pourquoi ? Et est-ce conforme au droit ?
Les trois options qui s’offraient au premier ministre
L’option de l’article 49 alinéa 3 de la Constitution
Cette option pouvait être écartée assez facilement. D’abord, le premier ministre Sébastien Lecornu l’avait lui-même écartée en début de procédure. Ensuite, c’est une voie très risquée. C’est celle qui a fait chuter le gouvernement de Michel Barnier, le 4 décembre 2024, sur l’adoption du projet de loi de financement de la Sécurité sociale pour 2025. Certes, contrairement à Michel Barnier, Sébastien Lecornu est parvenu à obtenir le vote du PLFSS 2026. Mais, au regard des débats tendus sur le projet de loi de finances, le premier ministre prendrait un très grand risque en recourant à cette procédure. De toute façon, en cas de renversement, il aurait été contraint, en tant que premier ministre démissionnaire, de procéder exactement comme l’a fait Michel Barnier en décembre 2024, c’est-à-dire de déposer un projet de loi spéciale.
L’option d’une mise en œuvre du projet par ordonnance
L’article 47 alinéa 3 de la Constitution prévoit que « si le Parlement ne s’est pas prononcé dans un délai de soixante-dix jours, les dispositions du projet peuvent être mises en vigueur par ordonnance ». Le PLF a été déposé à l’Assemblée nationale le 14 octobre 2025. La fin de la période de soixante-dix jours calendaires est le 23 décembre, à minuit. En conséquence, si le Parlement « ne s’est pas prononcé », et seulement dans ce cas (ce qui exclut un rejet du PLF), le gouvernement peut se passer du Parlement complètement. Cela signifie que l’État fonctionnerait en 2026 sur la seule base du projet initial du gouvernement, en retenant éventuellement les amendements votés par les deux assemblées (ce point a prêté à discussion entre spécialistes. A priori, rien n’empêche le gouvernement d’admettre des amendements votés par les deux assemblées).
La possibilité d’une mise en œuvre par ordonnance dépend donc de deux conditions : l’écoulement du délai de soixante-dix jours et l’absence de rejet définitif par l’Assemblée nationale.
Cependant, comme pour l’article 49 alinéa 3, Sébastien Lecornu a annoncé qu’il n’aurait pas recours aux ordonnances. Cette position, qui peut être critiquée dans la mesure où un premier ministre se prive ainsi de pouvoirs que la Constitution lui donne, a une certaine logique, puisque les deux procédures s’apparentent à un passage en force. En effet, dans les deux cas, le PLF est mis en œuvre sans vote formel du Parlement. Dans le premier, il est considéré comme adopté sauf si une motion de censure est votée ; dans le second, le PLF est mis en œuvre par ordonnance sans que le Parlement n’ait pu se prononcer.
Sébastien Lecornu privilégie donc la concertation et l’approbation du Parlement, en excluant tout passage en force. Le vote positif du projet de loi de financement de la Sécurité sociale (PLFSS) le conforte dans cette direction. Après l’échec de la commission mixte paritaire, le premier ministre choisit donc de déposer un projet de loi spéciale.
L’option de la loi spéciale
Sans l’épisode mouvementé de 2024, cette option paraîtrait extraordinaire puisque deux situations seulement avaient donné lieu à des lois de finances spéciales.
En 1962, après le renversement de son gouvernement, le premier ministre Georges Pompidou avait fait adopter, le 22 décembre 1962, un projet de loi de finances partiel comportant la seule première partie du PLF. Un autre projet de loi de finances spéciale comportant la deuxième partie avait été adopté le 26 janvier 1963.
La deuxième situation s’est produite en 1979. Par une décision du 24 décembre 1979, le Conseil constitutionnel a invalidé le PLF 1980 pourtant adopté par le Parlement. Pris au dépourvu, le gouvernement s’est alors inspiré des textes existants en faisant adopter une loi spéciale, le 27 décembre 1979. Saisi une nouvelle fois, le Conseil constitutionnel avait validé ce choix en constatant que, comme les textes n’avaient pas prévu cette situation, « il appartenait, de toute évidence, au Parlement et au gouvernement, dans la sphère de leurs compétences respectives, de prendre toutes les mesures d’ordre financier nécessaires pour assurer la continuité de la vie nationale ; qu’ils devaient, pour ce faire, s’inspirer des règles prévues, en cas de dépôt tardif du projet de loi de finances, par la Constitution et par l’ordonnance portant loi organique, en ce qui concerne tant les ressources que la répartition des crédits et des autorisations relatifs aux services votés » (décision du 29 décembre 1979).
En 2024, après le renversement du gouvernement Barnier, le président de la République Emmanuel Macron avait annoncé le dépôt d’un projet de loi de finances spéciale. Après un vote à l’unanimité par les députés et les sénateurs, la loi spéciale a été promulguée onze jours avant la fin de l’année (20 décembre 2024).
En décembre 2025, si la situation est comparable, elle présente tout de même quelques différences.
Les conditions sont-elles remplies pour le dépôt d’un projet de loi de finances spéciale ?
L’article 47 de la Constitution et l’article 45 de la loi organique relative aux lois de finances (LOLF) posent chacun une condition pour une loi de finances spéciale. Aucune des deux n’est remplie par Sébastien Lecornu.
La condition de l’absence de dépôt « en temps utile » du PLF
L’article 47 alinéa 4 de la Constitution, qui prévoit la possibilité d’une loi de finances spéciale, pose la condition de l’absence d’un dépôt « en temps utile de la loi de finances pour être promulguée avant le début de l’exercice » (le 1er janvier 2026). Cela renvoie à la situation dans laquelle le PLF a été déposé avec un retard tel que le Parlement n’a pas pu disposer du temps d’examen prévu par la Constitution, c’est-à-dire soixante-dix jours. Or, si Sébastien Lecornu a déposé le PLF en retard, le 14 octobre 2025, le Parlement a bien, théoriquement, disposé de soixante-dix jours calendaires, le délai s’achevant le 23 décembre à minuit. En conséquence, la condition n’est pas remplie pour déposer un projet de loi spéciale
(ce point a été confirmé par le rapporteur de la commission des finances de l’Assemblée nationale dans son rapport sur le projet de loi spécial de 2024).
Qu’à cela ne tienne, le premier ministre le fera quand même, comme Michel Barnier en décembre 2024. Cette petite entorse de la Constitution semble implicitement assumée par le gouvernement. Il faut dire que, pour respecter la lettre du texte, le premier ministre devrait retirer le PLF qui est à l’Assemblée, en redéposer un autre, constater que le dépôt n’a pas été fait en temps utile et déposer un projet de loi spécial. En 2024, Michel Barnier ne le pouvait pas, car étant démissionnaire, il n’en avait pas le pouvoir. En 2025, Sébastien Lecornu en a le pouvoir, mais le temps presse et, surtout, cela revient au même.
La condition d’un dépôt du projet de loi spéciale avant le 19 décembre
L’article 45 de la LOLF prévoit que le projet de loi de finances spéciale doit être déposé avant le 19 décembre. Or, l’échec de la commission mixte paritaire est intervenu le 19 décembre, justement. Pour déposer un projet de loi spéciale, le gouvernement doit d’abord recueillir l’avis du Conseil d’État puis l’arrêter en Conseil des ministres.
Sébastien Lecornu, même en allant très vite, n’est pas en mesure de respecter ce délai. Le dépôt intervient donc avec quelques jours de retard. Est-ce problématique ? La LOLF n’est pas respectée, mais de peu. Ce n’est problématique que si le Conseil constitutionnel est saisi et que s’il applique strictement la règle du 19 décembre. Il y a des raisons pour le premier ministre de ne pas être inquiet. En décembre 2024, le projet de loi spéciale avait été adopté à l’unanimité et le Conseil n’avait pas été saisi.
Même si le Conseil est saisi en 2025, il est fort probable qu’au regard de sa jurisprudence antérieure il considère que le premier ministre a bien tout mis en œuvre pour assurer la continuité de la vie nationale et, par surcroît, avec l’aval du Parlement.
Le contenu de la loi spéciale
En 1979, le gouvernement s’était contenté de prévoir le strict minimum prévu par l’article 47 alinéa 4 de la Constitution, c’est-à-dire la perception des impôts existants. En décembre 2025, le gouvernement s’est montré plus audacieux.
Partant du principe que la Constitution se contente de prévoir ce contenu obligatoire, il a considéré que d’autres dispositions pouvaient être ajoutées. Le Conseil d’État a confirmé cette lecture dans son avis sur le projet de loi spéciale de 2024. La loi spéciale de 2024 comportait quatre articles. Le premier portait sur la perception des impôts existants. Le deuxième prévoyait le prélèvement sur recettes au profit des collectivités territoriales. Le troisième portait autorisation pour le gouvernement d’emprunter. Le quatrième a permis aux organismes de sécurité sociale de percevoir leurs ressources non permanentes.
En 2025, le gouvernement est parvenu à faire adopter le PLFSS. Par conséquent, il n’a pas besoin de prévoir le quatrième article. Comme il n’y a pas de raison qu’il en prévoit d’autres, le projet comportera sans doute les trois premiers articles.
Le Parlement devrait rapidement voter le projet de loi spéciale. Si, comme en 2024, il le fait à l’unanimité, il n’y aura vraisemblablement pas de saisine du Conseil constitutionnel.
Le 1er janvier 2026, le gouvernement fonctionnera avec le minimum, comme début 2025. Il restera alors à faire à adopter par le Parlement un PLF complet. François Bayrou y était parvenu, le 5 février 2025. La voie du compromis choisie par Sébastien Lecornu lui permettra-t-elle de le faire comme ce fut le cas pour le PLFSS ?
Alexandre Guigue est membre de membre de la Société française de finances publiques, association reconnue d’utilité publique réunissant universitaires et praticiens des finances publiques.
Le monde du travail d’aujourd’hui, au 21ᵉ siècle, est beaucoup plus imprévisible que celui du 20ᵉ. Des métiers apparaissent puis disparaissent. Les postes évoluent constamment, et l’automatisation ou les bouleversements numériques sont désormais la norme. Beaucoup de jeunes exerceront un jour des métiers qui n’existent pas encore. Le changement est la nouvelle constante.
Dans ce monde, l’orientation professionnelle se concentre sur la gestion des transitions répétées et le développement de la résilience. Il s’agit de l’employabilité et de la conception d’une vie professionnelle épanouissante, et non de trouver un « emploi à vie ». Elle reconnaît que l’activité économique fait partie d’une réalité sociale plus globale.
Au cœur de cette démarche se trouve la recherche d’un sens à donner à sa vie.
En tant que conseiller d’orientation professionnelle et universitaire, j’ai traversé des décennies d’innovation, de recherche et de pratique en Afrique du Sud et au-delà. J’ai découvert que les travaux du psychologue américain Mark Savickas offrent un moyen utile de comprendre comment les gens construisent une carrière réussie et pleine de sens dans un monde en mutation.
Sa théorie de la construction de carrière propose de ne plus chercher à « assortir » une personne à un environnement “idéal”. Il faut plutôt voir chaque individu comme l’auteur de sa trajectoire. Chacun essaie de créer du sens, de comprendre ses thèmes de vie, et de s’adapter à un monde imprévisible.
En clair, choisir une carrière ne dépend pas seulement de nos compétences ou de nos centres d’intérêt. Cela dépend de la façon dont nous comprenons notre histoire, de nos valeurs, et de notre capacité à faire face aux changements.
Dans mes travaux, j’insiste sur le fait que l’orientation professionnelle doit s’appuyer sur les « histoires » des personnes (la façon dont elles se perçoivent) ainsi que sur leurs « scores » (les données objectives les concernant). C’est pourquoi j’ai développé des outils qui combinent des approches qualitatives et quantitatives pour explorer les intérêts d’une personne.
Je pense également que l’orientation professionnelle doit s’appuyer sur le contexte dans lequel vit chaque personne. Par exemple, en Afrique du Sud, les jeunes sont confrontés à de multiples transitions professionnelles et personnelles, à des opportunités limitées et à des contraintes systémiques, telles qu’un accès inégal et restreint à une éducation et une scolarité de qualité, un manque d’opportunités d’emploi et un soutien insuffisant en matière d’orientation professionnelle. Mon travail dans ce contexte sud-africain met l’accent sur l’autonomie (personnelle), l’adaptabilité (professionnelle), le sens et l’espoir.
Cela va au-delà de la question « quel emploi vous convient le mieux » pour aboutir à un processus plus riche, basé sur le récit de vie. Les personnes racontent leur parcours, repèrent les moments charnières, réfléchissent à leurs valeurs et imaginent les prochains chapitres de leur vie professionnelle. En bref, elles apprennent à s’écouter : leurs souvenirs, leurs rêves, leurs valeurs, leurs identités personnelles et professionnelles en construction. Elles apprennent aussi à construire une histoire qui compte vraiment pour eux-mêmes et pour les autres.
Lorsque vous développez ces capacités, vous êtes mieux armé pour gérer les transitions professionnelles, redéfinir votre trajectoire de façon pertinente et réactive, et atteindre un équilibre satisfaisant entre vie professionnelle et vie privée.
J’ai constaté que dans la pratique, il est utile de :
réfléchir aux « tournants » majeurs de votre carrière et de vos premiers souvenirs
intégrer la connaissance de soi à la compréhension des évolutions d’un secteur, des innovations technologiques et des dynamiques économiques.
s’appuyer sur des « récits » (informations subjectives sur vous-même) et des « scores » (données objectives)
développer un sens de la mission (ce que le travail signifie pour vous personnellement) et une vision (votre contribution à la société, et pas seulement votre titre professionnel).
Je vous invite à réfléchir profondément à votre histoire, à identifier les moments clés qui vous ont façonné, à clarifier vos valeurs et à décider de la contribution que vous souhaitez apporter. Ensuite, (re)concevez votre cheminement, étape par étape, une transition à la fois.
Si possible, une année sabbatique peut être un bon moment pour mener cette réflexion, acquérir de nouvelles compétences et développer des qualités telles que la capacité d’adaptation.
L’un des meilleurs conseils pour les jeunes diplômés des écoles était le suivant : « Procurez-vous un passeport et parcourez le monde. »
Comment un conseiller peut vous aider
L’un des principes fondamentaux de mon travail: l’orientation professionnelle doit profiter non seulement aux individus, mais aussi aux groupes. Il doit promouvoir les idéaux de justice sociale, de travail décent et une contribution significative de chacun à la société.
Pour moi, le rôle des praticiens n’est pas de conseiller les autres, mais de leur permettre d’écouter leur voix intérieure.
En d’autres termes, dans un monde incertain, le sens de la vie devient une boussole, une étoile polaire. Il donne une direction. En vous aidant à trouver les fils qui relient votre vie et votre parcours professionnel unique, un conseiller vous aide à prendre le contrôle de votre vie professionnelle dans des contextes changeants.
L’orientation professionnelle met également l’accent sur la promotion de la durabilité des sociétés et des environnements essentiels aux moyens de subsistance de chacun.
Aujourd’hui, l’orientation professionnelle est plus nécessaire que jamais. Ce n’est pas un luxe. Ce n’est pas une liste de réponses toutes faites. C’est un soutien pour devenir adaptable, réfléchi, résilient et porteur d’espoir.
Kobus Maree does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Ce qui ressemblait hier encore à de la science-fiction est désormais une réalité clinique : l’édition du génome humain avec CRISPR-Cas9 commence à guérir des maladies jusque-là incurables. Mais où en est réellement cette révolution annoncée ? Entre premiers succès cliniques, limites techniques et questions éthiques persistantes, les thérapies issues de CRISPR dessinent un paysage où promesses et prudence sont désormais indissociables.
Nous assistons à une nette montée des espoirs pour des maladies rares, souvent « orphelines ». Par exemple, un nourrisson atteint d’un déficit métabolique rare (une maladie génétique dans laquelle une enzyme ou une voie métabolique essentielle ne fonctionne pas correctement) dû à une mutation sur le gène CPS1, a reçu en 2025 un traitement « sur mesure » utilisant la technique d’édition de base (base editing), avec des résultats biologiques encourageants. Aujourd’hui, l’édition génique n’est plus une hypothèse lointaine, mais donne des résultats concrets et change déjà la vie de certains patients. Pour comprendre ce qui est en train de se jouer, il faut revenir sur les progrès fulgurants de ces dernières années, des premiers essais pionniers aux versions de plus en plus sophistiquées de l’édition génomique.
Développée en 2012 grâce à l’association d’une endonucléase, Cas9, et de petits ARN guides (sgRNA), cette méthode d’édition ciblée du génome a bouleversé la biologie moderne, au point de valoir à ses inventrices le prix Nobel de chimie en 2020. Depuis son invention, le CRISPR-Cas9 classique est largement utilisé dans les laboratoires, dont le nôtre, pour créer des modèles cellulaires de maladies, fabriquer des cellules qui s’illuminent sous certaines conditions ou réagissent à des signaux précis, et explorer le rôle de gènes jusqu’ici mystérieux.
Un premier système extraordinaire mais imparfait
Côté clinique, l’utilisation de CRISPR-Cas9 a ouvert des possibilités thérapeutiques inédites : modifier précisément un gène, l’inactiver ou en corriger une version défectueuse, le tout avec une simplicité et une rapidité jusqu’alors inimaginables. Mais cette puissance s’accompagnait alors de limites importantes : une précision parfois imparfaite, avec des coupures hors-cible difficiles à anticiper (des modifications accidentelles de l’ADN réalisées à des endroits non prévus du génome), une efficacité variable selon les cellules, et l’impossibilité d’effectuer des modifications plus fines sans induire de cassure double brin (une rupture affectant les deux brins d’ADN à un site génomique spécifique) potentiellement délétère.
Ces limites tiennent en grande partie au recours obligatoire aux cassures double brin et à la réparation par homologie (mode de réparation de l’ADN dans lequel la cellule s’aide d’une séquence d’ADN modèle très similaire – ou fournie par le chercheur – pour réparer une cassure double brin), un mécanisme peu fiable et inégal selon les types cellulaires. Mais la véritable rupture est apparue à partir de 2016 avec l’invention des éditeurs de base (base editors), des versions ingénieusement modifiées de CRISPR capables de changer une seule lettre de l’ADN sans provoquer de cassure double brin. Pour la première fois, il devenait possible de réécrire le génome avec une précision quasi chirurgicale, ouvrant la voie à des corrections plus sûres et plus fines que celles permises par Cas9 classique. Cependant, les base editors restaient limités : ils permettaient d’effectuer certaines substitutions de bases, mais étaient incapables de réaliser des insertions ou des modifications plus complexes du génome.
Ces limitations des base editors ont été en partie levées avec l’arrivée de leurs successeurs, les prime editors, en 2019 : ces nouvelles machines moléculaires permettent non seulement de substituer des bases, mais aussi d’insérer ou de supprimer de courtes séquences (jusqu’à plusieurs kilobases), le tout sans provoquer de cassure double brin, offrant ainsi un contrôle beaucoup plus fin sur le génome. Cette technique a été utilisée avec succès pour créer en laboratoire des modèles cellulaires et animaux de maladies génétiques, et des plantes transgéniques. Cependant, en pratique, son efficacité restait trop faible pour des traitements humains, et le résultat dépendait du système de réparation de la cellule, souvent inactif ou aléatoire. Mais en six ans, la technique a gagné en précision et polyvalence, et les études chez l’animal ont confirmé à la fois son efficacité et la réduction des effets hors-cible. Résultat : en 2025, six ans après son invention, le prime editing fait enfin son entrée en clinique, un moment que beaucoup de médecins décrivent comme un véritable tournant pour la médecine.
Des traitements sur le marché
Dès 2019, de premiers essais cliniques avec le système CRISPR-Cas9 classique (le médicament Casgevy) avaient été réalisés sur des patients atteints de β-thalassémie et drépanocytose, deux maladies génétiques de l’hémoglobine, via la correction ex vivo et la réinjection des cellules modifiées au patient. Les premiers résultats étaient prometteurs : certains patients avaient vu leur production de globules rouges anormaux corrigée de manière durable, avec une amélioration significative de leurs symptômes, après une unique injection. Le traitement Casgevy a d’ailleurs été approuvé en Europe en 2024, pour un coût d’environ 2 millions d’euros par patient.
Plus récemment, en 2025 un bébé atteint d’une mutation du gène CPS1 a été guéri grâce à l’édition de base, la version moins invasive et plus sûre de CRISPR-Cas9, mais qui reste limitée aux substitutions ponctuelles et ne permet pas toutes les modifications (pas d’insertion de séquences longues). Mais aujourd’hui, le prime editing lève les deux grands verrous du CRISPR-Cas9 classique – la nécessité de casser l’ADN et la dépendance à des mécanismes de réparation inefficaces – ouvrant la voie à une édition plus sûre, plus précise et applicable à un spectre beaucoup plus large de maladies.
Il n’est plus limité à de simples conversions ponctuelles, mais permet pour la première fois de remplacer ou restaurer un gène complet, de façon précise et contrôlée. L’année 2025 marque le premier succès clinique d’une telle thérapie – une étape historique pour l’édition génomique. En effet, le 19 mai 2025 la société Prime Medicine fondée par David Liu, inventeur du prime editing, a annoncé la première administration humaine de sa thérapie, destinée à un jeune patient atteint de granulomatose chronique, une maladie immunitaire rare liée à une mutation de l’ADN. Les premiers résultats biologiques de ce « CRISPR ultrapuissant » se sont révélés très prometteurs, ouvrant une nouvelle ère pour l’édition génomique. Il faudra toutefois patienter encore quelques mois avant de mesurer réellement le succès du prime editing : les premiers essais cliniques restent très récents et le manque de recul ne permet pas encore d’en tirer des conclusions définitives, notamment en termes de sécurité – l’absence d’effets secondaires – et de stabilité à long terme.
Ces stratégies d’édition du génome s’inscrivent pleinement dans le mouvement de la médecine personnalisée, où chaque traitement est conçu sur mesure pour un patient donné, en fonction de sa mutation spécifique – un véritable médicament « pour lui seul ». Pour la suite, des sociétés annoncent déjà vouloir continuer l’aventure avec des stratégies consistant à administrer directement les traitements dans le corps, sans passer par la modification in vitro de cellules prélevées chez le patient – une procédure complexe et onéreuse.
D’un prototype de laboratoire, on est donc passés en un temps record à une technologie polyvalente, et on entre désormais dans l’ère de la médecine personnalisée même pour des pathologies très rares. Le champ d’application s’élargit : on ne se contente plus des pathologies sanguines – des essais et projets explorent des maladies métaboliques, des infections chroniques (ex. thérapies pour hépatite B) ou des maladies héréditaires rares. De nouvelles avancées viennent constamment enrichir le potentiel de CRISPR, élargissant sans cesse ses possibilités. Tous les types de maladies ne sont pas encore éligibles : les pathologies monogéniques (mutation simple, bien identifiée) sont les plus adaptées. Pour des maladies multifactorielles, complexes, ou dépendant de l’environnement, l’édition reste beaucoup moins directe. De plus, certaines cibles (cellules non accessibles, tissus spécifiques, traitement in vivo) restent techniquement très difficiles. C’est également un défi économique, tant les traitements de médecine personnalisée restent extrêmement coûteux.
Carole Arnold a reçu des financements de l’INSERM, la Région Grand-Est, le FEDER et l’ANR.
Source: The Conversation – in French – By Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille
Un xénobot (en rouge) en forme de Pac-Man, conçu par IA, en train de se répliquer grâce à des cellules compressées en une sphère (en vert) pour reproduire sa forme.Douglas Blackiston, Sam Kriegman, CC BY-SA
Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.
Les xénobots sont des entités biologiques artificielles entièrement composées de cellules vivantes issues d’embryons de xénope (Xenopus laevis), un amphibien africain. Prélevées sur des embryons de stade précoce, ces cellules sont encore indifférenciées : elles ne se sont pas encore spécialisées pour devenir des cellules de peau ou du foie par exemple. Elles sont cependant déjà « programmées » naturellement pour devenir des cellules qui tapissent les surfaces internes et externes du corps (peau, parois des organes, vaisseaux) ou des cellules contractiles du muscle cardiaque. Les contractions de ces cellules cardiaques agissent comme de minuscules moteurs, générant une propulsion, qui permet aux xénobots de se déplacer dans un milieu aquatique.
Pour fabriquer un xénobot, on isole et on assemble manuellement des groupes de cellules, comme des « briques biologiques ». À l’issue de cette phase de microchirurgie et d’organisation tridimensionnelle, les xénobots sont des entités de moins d’un millimètre de morphologies variables selon la fonction recherchée. Ils ne disposent d’aucun système nerveux ni organe sensoriel. Leur comportement est uniquement dicté par leur forme et leur composition cellulaire, toutes deux déterminées lors de leur création via des techniques de bio-ingénierie.
Bien qu’ils soient constitués uniquement de cellules vivantes, on parle de robots biologiques ou biobots, car ils obéissent à des tâches prédéfinies par l’humain : déplacement, coopération en essaim, transport d’objets, voire contrôle et assemblage d’autres xénobots à partir de cellules libres présentes autour d’eux (on parle d’autoréplication). Le terme « robot » prend ici un sens élargi, fondé sur la capacité à accomplir une tâche, en l’occurrence programmée par la forme et non par un logiciel interne.
Des robots biologiques conçus avec de l’IA
Avant de fabriquer un xénobot en laboratoire, des programmes d’intelligence artificielle (IA) sont utilisés pour tester virtuellement et simuler des milliers de formes et d’agencements cellulaires. Des algorithmes calculent quelles combinaisons fonctionneraient le mieux pour atteindre l’objectif fixé par le cahier des charges : par exemple, maximiser la vitesse de déplacement, transporter une charge ou induire de l’autoréplication.
Le lien entre l’intelligence artificielle et les cellules n’existe que lors de l’étape théorique de la conception. L’IA sert exclusivement à prédire et à optimiser la forme la plus adéquate, qui sera ensuite réalisée par microchirurgie et assemblage par des humains. Elle ne fournit aucun processus cognitif embarqué dans le xénobot, qui n’est donc pas contrôlé par une IA et ne possède aucune autonomie décisionnelle, contrairement à d’autres types de robots en développement.
À gauche, le design du xénobot, tel que proposé par un programme d’intelligence artificielle. À droite, l’organisme réel, construit à partir de cellules de peau (en vert) et de muscle cardiaque (en rouge). Douglas Blackiston, Sam Kriegman, CC BY
Les xénobots ont d’abord été conçus sous forme de sphères, de triangles ou de pyramides, des géométries simples choisies pour être faciles à construire, afin d’étudier de manière contrôlée la manière dont la forme et la disposition des cellules influencent le mouvement.
La forme en croissant, dite Pac-Man, a été identifiée par intelligence artificielle comme la plus performante pour s’autorépliquer. La réplication est cependant limitée à trois ou quatre générations en laboratoire et les xénobots se dégradent après environ dix jours, limitant leurs applications à plus long terme.
Quelles applications pour les xénobots ?
Toutes les applications envisagées demeurent pour l’instant expérimentales. Certaines fonctions (locomotion, agrégation de particules, autoréparation, réplication limitée) ont été démontrées in vitro, ce qui constitue des preuves de concept. En revanche, les usages proposés en médecine ou pour l’environnement restent pour l’instant des hypothèses extrapolées à partir de ces expériences et de modèles informatiques, sans validation chez l’animal.
Dans le domaine environnemental, grâce à leur petite taille, leur forte biodégradabilité et leur capacité à fonctionner en essaim, les xénobots pourraient être utilisés pour concentrer des microparticules ou des polluants en un même endroit, avant une étape de récupération ou de traitement adaptée, les xénobots eux-mêmes se dégradant ensuite sans laisser de trace biologique.
Des versions plus complexes de xénobots pourraient être utilisées comme marqueurs visuels de modifications dans un environnement. Un tel xénobot, exposé à un certain type de polluant, subirait un changement de structure et de couleur. Cette propriété permettrait en quelque sorte de lire ce que le xénobot a rencontré dans son environnement, à l’image d’un capteur lumineux. Cette application n’a cependant pas encore été démontrée expérimentalement.
Le programme d’intelligence artificielle est capable de proposer des centaines de designs possibles, chacun ayant des propriétés spécifiques pour des applications différentes. Douglas Blackiston, Sam Kriegman, CC BY
Dans le domaine médical, les xénobots pourraient être utilisés, tout comme d’autres microrobots, pour transporter localement des molécules thérapeutiques autour de cellules cibles, en réduisant ainsi la toxicité sur les tissus sains. La possibilité que les xénobots puissent servir à la livraison de molécules, comme des anticancéreux, reste cependant une extrapolation à partir d’expériences in vitro préliminaires sur d’autres microrobots.
Enfin, la recherche fondamentale pourrait bénéficier de l’existence de ces objets. L’organisation cellulaire des xénobots, hors du contexte embryonnaire, offre un modèle pour explorer la plasticité cellulaire ou tissulaire, la coordination cellulaire collective et l’auto-organisation, domaines clés pour comprendre l’évolution d’entités vivantes.
Des propriétés inattendues
Au-delà des tâches programmées, des propriétés remarquables ont été identifiées expérimentalement. Par exemple, des xénobots exposés à des vibrations sonores modifient significativement leur comportement moteur, passant d’une rotation à un déplacement linéaire rapide, une réaction absente chez les embryons de xénope au même stade.
En regroupant des cellules selon des architectures originales, les xénobots obligeraient ces cellules à reprogrammer en partie leur activité génétique : des analyses des gènes activés par ces cellules montrent l’activation de voies de stress, de réparation tissulaire ou de remodelage, qui ne sont pas utilisées de la même façon dans l’embryon intact.
De plus, dans ces expériences, plusieurs xénobots sectionnés se réparent spontanément et retrouvent un mouvement coordonné, ce qui suggère une communication à courte distance entre cellules, probablement via des signaux bioélectriques et chimiques, alors qu’aucun nerf n’est présent. Ces comportements illustrent une forte plasticité cellulaire, dont l’ampleur varie selon la manière dont les tissus ont été assemblés et les conditions de culture employées.
Derrière les promesses, des enjeux éthiques majeurs
Les promesses d’applications médicales ou environnementales ne doivent pas occulter l’ambiguïté de statut de ces entités, ni organismes naturels ni machines traditionnelles. Les xénobots sont des assemblages cellulaires conçus par l’humain appuyé par des systèmes d’intelligence artificielle. Leur déploiement reste, aujourd’hui, de l’ordre de l’hypothèse.
Plusieurs risques sont discutés par les bioéthiciens. Écologique d’abord, en cas d’acquisition par les xénobots d’une capacité de survie ou de réplication inattendue dans l’environnement. Sanitaire ensuite, en cas d’utilisation chez l’humain sans maîtrise complète de leur comportement à long terme. Un risque de détournement enfin, par exemple pour la libération ciblée d’agents toxiques.
À cela s’ajoutent des enjeux plus symboliques : brouiller davantage la frontière entre vivant et non-vivant pourrait fragiliser certains cadres juridiques de protection du vivant, d’où les appels à un cadre réglementaire international spécifique à ces biorobots. Les promesses d’applications médicales ou dans le domaine de l’environnement ne doivent pas occulter l’ambiguïté de statut de ces entités, qui exigent une réflexion éthique et un cadre réglementaire international.
L’extension de l’utilisation de ces outils biologiques à des cellules humaines ne devra se réaliser que dans un cadre strictement contrôlé et sous supervision d’un comité éthique pluridisciplinaire. Plusieurs travaux dans ce domaine recommandent déjà des évaluations systématiques des risques (écologiques, sanitaires et de détournement), une transparence des protocoles et une implication du public dans les décisions de déploiement.
Il a été proposé de créer des instances spécifiques à cette technologie, chargées de vérifier la biodégradabilité, la limitation de la réplication, la traçabilité des essais et le respect de la dignité du vivant. Dans ce contexte, l’usage éventuel de xénobots ou d’organismes similaires dérivés de cellules humaines devrait s’inscrire dans un cadre réglementaire international inspiré de ces recommandations, avec des garde-fous comparables à ceux mis en place pour les organismes génétiquement modifiés (OGM) ou les thérapies géniques.
Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Entrée à l’Académie des sciences en janvier 2025, Purificación López García s’intéresse à l’origine et aux grandes diversifications du vivant sur Terre. Elle étudie la diversité, l’écologie et l’évolution des microorganismes des trois domaines du vivant (archées, bactéries, eucaryotes). Avec David Moreira, elle a émis une hypothèse novatrice pour expliquer l’origine de la cellule eucaryote, celle dont sont composés les plantes, les animaux et les champignons, entre autres. Elle est directrice de recherche au CNRS depuis 2007 au sein de l’unité Écologie- Société-Évolution de l’Université Paris-Saclay et a été récompensée de la médaille d’argent du CNRS en 2017. Elle a raconté son parcours et ses découvertes à Benoît Tonson, chef de rubrique Science et Technologie.
The Conversation : Vous vous intéressez à l’origine du vivant. Vivant, que l’on classifie en trois grands domaines : les eucaryotes, des organismes dont les cellules ont un noyau, comme les humains ou les plantes par exemple ; les bactéries, qui ne possèdent pas de noyau, et un troisième, sans doute le moins connu, les archées. Pouvez-vous nous les présenter ?
Purificación López García : Ce domaine du vivant a été mis en évidence par Carl Woese à la fin des années 1970. Quand j’ai commencé mes études, à la fin des années 1980, cette découverte ne faisait pas consensus, il y avait encore beaucoup de résistance de la part de certains biologistes à accepter un troisième domaine du vivant. Ils pensaient qu’il s’agissait tout simplement de bactéries. En effet, comme les bactéries, les archées sont unicellulaires et n’ont pas de noyau. Il a fallu étudier leurs gènes et leurs génomes pour montrer que les archées et les bactéries étaient très différentes entre elles et même que les archées étaient plus proches des eucaryotes que des bactéries au niveau de leur biologie moléculaire.
Comment Carl Woese a-t-il pu classifier le vivant dans ces trois domaines ?
P. L. G. : On est donc à la fin des années 1970. C’est l’époque où commence à se développer la phylogénie moléculaire. L’idée fondatrice de cette discipline est qu’il est possible d’extraire des informations évolutives à partir des gènes et des protéines codées dans le génome de tous les êtres vivants. Certains gènes sont conservés chez tous les organismes parce qu’ils codent des ARN ou des protéines dont la fonction est essentielle à la cellule. Toutefois, la séquence en acides nucléiques (les lettres qui composent l’ADN : A, T, C et G ; U à la place de T dans l’ARN) et donc celle des acides aminés des protéines qu’ils codent (des combinaisons de 20 lettres) va varier. En comparant ces séquences, on peut déterminer si un organisme est plus ou moins proche d’un autre et classifier l’ensemble des organismes en fonction de leur degré de parenté évolutive.
Carl Woese est le premier à utiliser cette approche pour classifier l’ensemble du vivant : de la bactérie à l’éléphant, en passant par les champignons… Il va s’intéresser dans un premier temps non pas à l’ADN mais à l’ARN et, plus précisément, à l’ARN ribosomique. Le ribosome est la structure qui assure la traduction de l’ARN en protéines. On peut considérer que cette structure est la plus conservée dans tout le vivant : elle est présente dans toutes les cellules.
La classification du vivant en trois grands domaines selon Carl Woese. CC BY
Avec ses comparaisons des séquences d’ARN ribosomiques, Woese montre deux choses : que l’on peut établir un arbre universel du vivant en utilisant des séquences moléculaire et qu’un groupe de séquences d’organismes considérés comme de bactéries « un peu bizarres », souvent associées à des milieux extrêmes, forment une clade (un groupe d’organismes) bien à part. En étudiant leur biologie moléculaire et, plus tard, leurs génomes, les archées s’avéreront en réalité beaucoup plus proches des eucaryotes, tout en ayant des caractéristiques propres, comme la composition unique des lipides de leurs membranes.
Aujourd’hui, avec les progrès des méthodes moléculaires, cette classification en trois grands domaines reste d’actualité et est acceptée par l’ensemble de la communauté scientifique. On se rend compte aussi que la plupart de la biodiversité sur Terre est microbienne.
Vous vous êtes intéressée à ces trois grands domaines au fur et à mesure de votre carrière…
P. L. G. : Depuis toute petite, j’ai toujours été intéressée par la biologie. En démarrant mes études universitaires, les questions liées à l’évolution du vivant m’ont tout de suite attirée. Au départ, je pensais étudier la biologie des animaux, puis j’ai découvert la botanique et enfin le monde microbien, qui m’a complètement fascinée. Toutes les formes de vie m’intéressaient, et c’est sûrement l’une des raisons pour lesquelles je me suis orientée vers la biologie marine pendant mon master. Je pouvais travailler sur un écosystème complet pour étudier à la fois les microorganismes du plancton, mais aussi les algues et les animaux marins.
Puis, pendant ma thèse, je me suis spécialisée dans le monde microbien et plus précisément dans les archées halophiles (celles qui vivent dans des milieux très concentrés en sels). Les archées m’ont tout de suite fascinée parce que, à l’époque, on les connaissait comme des organismes qui habitaient des environnements extrêmes, très chauds, très salés, très acides. Donc, c’était des organismes qui vivaient aux limites du vivant. Les étudier, cela permet de comprendre jusqu’où peut aller la vie, comment elle peut évoluer pour coloniser tous les milieux, même les plus inhospitaliers.
Cette quête de l’évolution que j’avais toujours à l’esprit a davantage été nourrie par des études sur les archées hyperthermophiles lors de mon postdoctorat, à une époque où une partie de la communauté scientifique pensait que la vie aurait pu apparaître à proximité de sources hydrothermales sous-marines. J’ai orienté mes recherches vers l’origine et l’évolution précoce de la vie : comment est-ce que la vie est apparue et s’est diversifiée ? Comment les trois domaines du vivant ont-ils évolué ?
Pour répondre à ces questions, vous avez monté votre propre laboratoire. Avec quelle vision ?
P. L. G. : Après un bref retour en Espagne, où j’ai commencé à étudier la diversité microbienne dans le plancton océanique profond, j’ai monté une petite équipe de recherche à l’Université Paris-Sud. Nous nous sommes vraiment donné la liberté d’explorer la diversité du vivant avec les outils moléculaires disponibles, mais en adoptant une approche globale, qui prend en compte les trois domaines du vivant. Traditionnellement, les chercheurs se spécialisent : certains travaillent sur les procaryotes – archées ou bactéries –, d’autres sur les eucaryotes. Les deux mondes se croisent rarement, même si cela commence à changer.
Cette séparation crée presque deux cultures scientifiques différentes, avec leurs concepts, leurs références et même leurs langages. Pourtant, dans les communautés naturelles, cette frontière n’existe pas : les organismes interagissent en permanence. Ils échangent, collaborent, entrent en symbiose mutualiste ou, au contraire, s’engagent dans des relations de parasitisme ou de compétition.
Nous avons décidé de travailler simultanément sur les procaryotes et les eucaryotes, en nous appuyant d’abord sur l’exploration de la diversité. Cette étape est essentielle, car elle constitue la base qui permet ensuite de poser des questions d’écologie et d’évolution.
L’écologie s’intéresse aux relations entre organismes dans un écosystème donné. Mais mes interrogations les plus profondes restent largement des questions d’évolution. Et l’écologie est indispensable pour comprendre ces processus évolutifs : elle détermine les forces sélectives et les interactions quotidiennes qui façonnent les trajectoires évolutives, en favorisant certaines tendances plutôt que d’autres. Pour moi, les deux dimensions – écologique et évolutive – sont intimement liées, surtout dans le monde microbien.
Sur quels terrains avez-vous travaillé ?
P. L. G. : Pour approfondir ces questions, j’ai commencé à travailler dans des environnements extrêmes, des lacs de cratère mexicains au lac Baïkal en Sibérie, du désert de l’Atacama et l’Altiplano dans les Andes à la dépression du Danakil en Éthiopie, et en m’intéressant en particulier aux tapis microbiens. À mes yeux, ces écosystèmes microbiens sont les véritables forêts du passé. Ce type de systèmes a dominé la planète pendant l’essentiel de son histoire.
Purificación López García dans le Salar de Quisquiro (Chili), tenant un tapis microbien. Ana Gutiérrez-Preciado, Fourni par l’auteur
La vie sur Terre est apparue il y a environ 4 milliards d’années, alors que notre planète en a environ 4,6. Les eucaryotes, eux, n’apparaissent qu’il y a environ 2 milliards d’années. Les animaux et les plantes ne se sont diversifiés qu’il y a environ 500 millions d’années : autant dire avant-hier à l’échelle de la planète.
Pendant toute la période qui précède l’émergence des organismes multicellulaires complexes, le monde était entièrement microbien. Les tapis microbiens, constitués de communautés denses et structurées, plus ou moins épaisses, formaient alors des écosystèmes très sophistiqués. Ils étaient, en quelque sorte, les grandes forêts primitives de la Terre.
Étudier aujourd’hui la diversité, les interactions et le métabolisme au sein de ces communautés – qui sont devenues plus rares car elles sont désormais en concurrence avec les plantes et les animaux – permet de remonter le fil de l’histoire évolutive. Ces systèmes nous renseignent sur les forces de sélection qui ont façonné la vie dans le passé ainsi que sur les types d’interactions qui ont existé au cours des premières étapes de l’évolution.
Certaines de ces interactions ont d’ailleurs conduit à des événements évolutifs majeurs, comme l’origine des eucaryotes, issue d’une symbiose entre procaryotes.
Comment ce que l’on observe aujourd’hui peut-il nous fournir des informations sur le passé alors que tout le vivant ne cesse d’évoluer ?
P. L. G. : On peut utiliser les communautés microbiennes actuelles comme des analogues de communautés passées. Les organismes ont évidemment évolué – ils ne sont plus les mêmes –, mais nous savons deux choses essentielles. D’abord, les fonctions centrales du métabolisme sont bien plus conservées que les organismes qui les portent. En quelque sorte, il existe un noyau de fonctions fondamentales. Par exemple, il n’existe que très peu de manières de fixer le CO₂ présent dans l’atmosphère. La plus connue est le cycle de Calvin associé à la photosynthèse oxygénique de cyanobactéries des algues et des plantes. Ce processus permet d’utiliser le carbone du CO₂ pour produire des molécules organiques plus ou moins complexes indispensables à tout organisme.
On connaît six ou sept grandes voies métaboliques de fixation du carbone inorganique, qui sont en réalité des variantes les unes des autres. La fixation du CO₂, c’est un processus absolument central pour tout écosystème. Certains organismes, dont les organismes photosynthétiques, fixent le carbone. Ce sont les producteurs primaires.
Ensuite vient toute la diversification d’organismes et des voies qui permettent de dégrader et d’utiliser cette matière organique produite par les fixateurs de carbone. Et là encore, ce sont majoritairement les microorganismes qui assurent ces fonctions. Sur Terre, ce sont eux qui pilotent les grands cycles biogéochimiques. Pas tellement les plantes ou les animaux. Ces cycles existaient avant notre arrivée sur la planète, et nous, animaux comme plantes, ne savons finalement pas faire grand-chose à côté de la diversité métabolique microbienne.
Les procaryotes – archées et bactéries – possèdent une diversité métabolique bien plus vaste que celle des animaux ou des végétaux. Prenez la photosynthèse : elle est héritée d’un certain type de bactéries que l’on appelle cyanobactéries. Ce sont elles, et elles seules, chez qui la photosynthèse oxygénique est apparue et a évolué (d’autres bactéries savent faire d’autres types de photosynthèse dites anoxygéniques). Et cette innovation a été déterminante pour notre planète : avant l’apparition des cyanobactéries, l’atmosphère ne contenait pas d’oxygène. L’oxygène atmosphérique actuel n’est rien d’autre que le résultat de l’accumulation d’un déchet de cette photosynthèse.
Les plantes et les algues eucaryotes, elles, n’ont fait qu’hériter de cette capacité grâce à l’absorption d’une ancienne cyanobactérie capable de faire la photosynthèse (on parle d’endosymbiose). Cet épisode a profondément marqué l’évolution des eucaryotes, puisqu’il a donné naissance à toutes les lignées photosynthétiques – algues et plantes.
À l’instar de la fixation du carbone lors de la photosynthèse, ces voies métaboliques centrales sont beaucoup plus conservées que les organismes qui les portent. Ces organismes, eux, évoluent en permanence, parfois très rapidement, pour s’adapter aux variations de température, de pression, aux prédateurs, aux virus… Pourtant, malgré ces changements, les fonctions métaboliques centrales restent préservées.
Et ça, on peut le mesurer. Lorsque l’on analyse la diversité microbienne dans une grande variété d’écosystèmes, on observe une diversité taxonomique très forte, avec des différences d’un site à l’autre. Mais quand on regarde les fonctions de ces communautés, de grands blocs de conservation apparaissent. En appliquant cette logique, on peut donc remonter vers le passé et identifier des fonctions qui étaient déjà conservées au tout début de la vie – des fonctions véritablement ancestrales. C’est un peu ça, l’idée sous-jacente.
Finalement, jusqu’où peut-on remonter ?
P. L. G. : On peut remonter jusqu’à un organisme disons « idéal » que l’on appelle le Last Universal Common Ancestor, ou LUCA – le dernier ancêtre commun universel des organismes unicellulaires. Mais on sait que cet organisme était déjà très complexe, ce qui implique qu’il a forcément été précédé d’organismes beaucoup plus simples.
On infère l’existence et les caractéristiques de cet ancêtre par comparaison : par la phylogénie moléculaire, par l’étude des contenus en gènes et des propriétés associées aux trois grands domaines du vivant. En réalité, je raisonne surtout en termes de deux grands domaines, puisque l’on sait aujourd’hui que les eucaryotes dérivent d’une symbiose impliquant archées et bactéries. Le dernier ancêtre commun, dans ce cadre, correspondrait donc au point de bifurcation entre les archées et les bactéries.
À partir de là, on peut établir des phylogénies, construire des arbres, et comparer les éléments conservés entre ces deux grands domaines procaryotes. On peut ainsi inférer le « dénominateur commun », celui qui devait être présent chez cet ancêtre, qui était probablement déjà assez complexe. Les estimations actuelles évoquent un génome comprenant peut-être entre 2 000 et 4 000 gènes.
Cela nous ramène à environ 4 milliards d’années. Vers 4,4 milliards d’années, on commence à voir apparaître des océans d’eau liquide et les tout premiers continents. C’est à partir de cette période que l’on peut vraiment imaginer le développement de la vie. On ne sait pas quand exactement, mais disons qu’autour de 4-4,2 milliards d’années, c’est plausible. Et on sait que, à 3,5 milliards d’années, on a déjà des fossiles divers de tapis microbiens primitifs (des stromatolites fossiles).
Et concernant notre groupe, les eucaryotes, comment sommes-nous apparus ?
P. L. G. : Nous avons proposé une hypothèse originale en 1998 : celle de la syntrophie. Pour bien la comprendre, il faut revenir un peu sur l’histoire des sciences, notamment dans les années 1960, quand Lynn Margulis, microbiologiste américaine, avance la théorie endosymbiotique. Elle propose alors que les chloroplastes des plantes et des algues – les organites qui permettent de réaliser la photosynthèse dans les cellules de plantes – dérivent d’anciennes bactéries, en particulier de cyanobactéries, qu’on appelait à l’époque « algues vert-bleu ». Et elle avance aussi que les mitochondries, l’organite eucaryote où se déroule la respiration et qui nous fournit notre énergie, proviennent elles aussi d’anciennes bactéries endosymbiotes – un endosymbiote étant un organisme qui vit à l’intérieur des cellules d’un autre.
Ces idées, qui avaient été déjà énoncées au début du vingtième siècle et que Margulis a fait revivre, ont été très débattues. Mais à la fin des années 1970, avec les premiers arbres phylogénétiques, on a pu démontrer que mitochondries et chloroplastes dérivent effectivement d’anciennes bactéries endosymbiotes : les cyanobactéries pour les chloroplastes, et un groupe que l’on appelait autrefois les « bactéries pourpres » pour les mitochondries.
L’hypothèse dominante, à cette époque, pour expliquer l’origine des eucaryotes, repose sur un scénario dans lequel un dernier ancêtre commun se diversifie en trois grands groupes ou domaines : les bactéries, les archées et les eucaryotes. Les archées sont alors vues comme le groupe-frère des eucaryotes, avec une biologie moléculaire et des protéines conservées qui se ressemblent beaucoup. Dans ce modèle, la lignée proto-eucaryote qui conduira aux eucaryotes et qui développe toutes les caractéristiques des eucaryotes, dont le noyau, acquiert assez tardivement la mitochondrie via l’endosymbiose d’une bactérie, ce qui lancerait la diversification des eucaryotes.
Sauf que, dans les années 1990, on commence à se rendre compte que tous les eucaryotes possèdent ou ont possédé des mitochondries. Certains groupes semblaient en être dépourvus, mais on découvre qu’ils les ont eues, que ces mitochondries ont parfois été extrêmement réduites ou ont transféré leurs gènes au noyau. Cela signifie que l’ancêtre de tous les eucaryotes avait déjà une mitochondrie. On n’a donc aucune preuve qu’une lignée « proto-eucaryote » sans mitochondrie ait jamais existé.
C’est dans ce contexte que de nouveaux modèles fondés sur la symbiose émergent. On savait déjà que les archées et les eucaryotes partageaient des similarités importantes en termes de protéines impliquées dans des processus informationnels (réplication de l’ADN, transcription, traduction de l’ARN aux protéines). Nous avons proposé un modèle impliquant trois partenaires : une bactérie hôte (appartenant aux deltaprotéobactéries), qui englobe une archée prise comme endosymbionte, cette archée devenant le futur noyau. Les gènes eucaryotes associés au noyau seraient ainsi d’origine archéenne.
Puis une seconde endosymbiose aurait eu lieu, avec l’acquisition d’une autre bactérie (une alphaprotéobactérie) : l’ancêtre de la mitochondrie, installée au sein de la bactérie hôte.
Toutefois, à l’époque, ces modèles fondés sur la symbiose n’étaient pas considérés très sérieusement. La donne a changé avec la découverte, il y a une dizaine d’années, d’un groupe particulier d’archées, appelées Asgard, qui partagent beaucoup de gènes avec les eucaryotes, qui sont en plus très similaires. Les arbres phylogénétiques faits avec des protéines très conservées placent les eucaryotes au sein de ces archées. Cela veut dire que les eucaryotes ont une origine symbiogénétique : ils dérivent d’une fusion symbiotique impliquant au minimum une archée (de type Asgard) et une alpha-protéobactérie, l’ancêtre de la mitochondrie. Mais la contribution d’autres bactéries, notamment des deltaprotéobactéries, des bactéries sulfato-réductrices avec lesquelles les archées Asgard établissent des symbioses syntrophiques dans l’environnement, n’est pas exclue.
Aujourd’hui, l’eucaryogénèse est un sujet étudié activement. La découverte des archées Asgard a renforcé la vraisemblance de ce type de modèle symbiogénétique. Des chercheurs qui considéraient ces idées comme trop spéculatives – parce qu’on ne pourra jamais avoir de preuve directe d’un événement datant d’il y a 2 milliards d’années – s’y intéressent désormais. Tous ceux qui travaillent sur la biologie cellulaire des eucaryotes se posent la question, parce qu’on peut aujourd’hui remplacer certaines protéines ou homologues eucaryotes par leurs variantes Asgard… et ça fonctionne.
Purificación López García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.
L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.
Quel est l’objet de cette nouvelle proposition de loi ?
La proposition de loi n° 2297 portée par le député Insoumis François Piquemal (4ème circonscription de la Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté “contrainte” puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.
Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).
Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.
Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.
Une proposition inspirée par l’actualité internationale du droit funéraire
Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.
Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.
La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »
La situation en France
Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.
D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent intitulé Cercueil(s) & droit(s) qui s’est tenu à l’université Toulouse capitole le 28 novembre 2025.
D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui à lieu en Essonne à travers le projet ANR F-Compost.
En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets comme celui porté par cette proposition de loi puisse voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de 100 ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…
Jordy Bony a travaillé avec le comité de recherche de l’association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.
La transition énergétique repose sur une utilisation accrue de métaux. À mesure que cette dépendance augmente, l’attention portée à ces ressources a explosé. En vingt ans, un sujet autrefois réservé aux spécialistes est devenu un enjeu public majeur, et parfois même un motif de tensions internationales.
Dans cet espace de plus en plus exposé, l’information circule vite… et pas toujours correctement. Dans les médias et sur les réseaux sociaux, les fausses nouvelles abondent. Certaines relèvent d’erreurs sincères, d’autres d’approximations intéressées, d’autres encore de stratégies délibérées visant à peser sur les marchés ou à renforcer la position géopolitique d’un pays.
Ces dérives prennent des formes multiples : confusion technique, exagérations, chiffres gonflés, récits séduisants, mais trompeurs, jusqu’aux montages sophistiqués destinés à orienter l’opinion ou les investissements. On peut les regrouper sous une même étiquette : la désinformation minérale.
Pour y voir clair, l’Unesco propose un cadre utile distinguant bien les registres de mésinformation, malinformation et désinformation — un outil précieux pour comprendre comment, dans le domaine des métaux, l’information peut devenir une arme.
Mésinformation : promesses trop belles et confusion des termes
La mésinformation renvoie à des informations inexactes ou incomplètes. Elle est fréquente au stade de l’exploration minière, quand les promoteurs doivent attirer des capitaux pour des projets miniers tout en rassurant les populations locales. Les chercheurs français Brice Laurent et Julien Merlin parlent d’ « ingénierie de la promesse », des récits optimistes, voire enjolivés, qui mêlent parfois écoblanchiment et espoirs de rendements exceptionnels. Ces approximations peuvent devenir lourdes de conséquences : l’exagération de la taille d’un gisement peut créer l’illusion de prospérité et servir à lever des fonds ou faire monter artificiellement la valeur de l’entreprise en bourse.
La confusion entre « ressources » (un potentiel géologique encore théorique) et « réserves » (une évaluation rigoureuse intégrant la faisabilité économique) demeure répandue, d’autant que les normes de classification varient selon les pays.
Cette ambiguïté a alimenté plusieurs emballements médiatiques. C’est que la multiplication des informations et la vitesse des diffusions augmentent le risque ! En Ukraine, par exemple, l’administration Trump et certains médias ont présenté le pays comme disposant d’immenses « réserves » de terres rares, capables de rivaliser avec la Chine. Or il ne s’agissait pas de réserves au sens strict, mais d’hypothèses géologiques très préliminaires : aucun gisement n’avait été évalué selon les normes internationales ni confirmé économiquement.
L’affaire rappelle le scandale Shell : en 2004, la compagnie reconnaissait avoir surévalué de 20 % ses réserves de pétrole, ce qui a entraîné une chute de valeur d’environ 12 milliards de dollars. Ces cas illustrent combien un vocabulaire précis et des méthodes transparentes sont indispensables.
Autre source d’imprécision : la notion même de « minéraux critiques ». Il n’existe pas de définition internationale consensuelle. Un minéral est dit « critique » lorsqu’il est essentiel à l’industrie et à la technologie d’un pays, mais que son approvisionnement est vulnérable. Chaque État établit donc sa propre liste selon ses besoins et ses risques, certains y incluant même l’or ou le charbon.
Ce pluralisme n’est pas illégitime en soi, mais il ouvre une brèche narrative. Un métal peut être déclaré « critique » pour attirer les investissements ou justifier une politique, puis « déclassé » lorsqu’il suscite trop de convoitises. À l’ère des réseaux sociaux, l’anecdotique peut rapidement prendre l’allure d’un basculement mondial.
Malinformation : gonfler les chiffres pour peser sur les marchés
La malinformation relève d’informations exagérées ou fausses destinées à tromper. Des responsables politiques et des États y recourent pour attirer des capitaux étrangers ou rehausser leur poids diplomatique. En 2023, le ministère iranien de l’Industrie, des Mines et du Commerce a annoncé la « découverte de 8,5 millions de tonnes de lithium ». Les États-Unis se sont alors inquiétés, tandis que la Chine y a vu une opportunité stratégique. En réalité, il s’agissait surtout d’hectorite, un minéral argileux ne représentant qu’environ 500 tonnes de lithium exploitable.
En Zambie, le ministre des Mines a vanté « le plus grand gisement de cuivre du monde découvert par intelligence artificielle », alors que KoBold Metals, une start‑up américaine qui utilise l’IA pour repérer ce type de gisement, précisait que la zone était en réalité explorée depuis des décennies. Ces récits séduisent les médias, alimentent les espoirs politiques et attirent des investisseurs, masquant la réalité. Dans ce contexte, le cadre de l’Unesco sur les « désordres informationnels » fournit un vocabulaire utile pour distinguer l’erreur, l’exagération et la manipulation.
Désinformation : l’information comme outil d’influence stratégique
La désinformation consiste à diffuser sciemment de l’information trompeuse pour miner la confiance, manipuler l’opinion ou affaiblir un adversaire. Le concept émerge dans l’orbite soviétique au XXe siècle, lié à toute une panoplie d’opérations destinées à orienter l’opinion internationale. Chez Staline, l’objectif est moins de décrire la réalité que de la produire : énoncer une version officielle, la répéter, mobiliser l’appareil d’État pour la faire croire, puis punir ceux qui la contredisent. La Russie a poursuivi ces pratiques, comme le montre sa stratégie au Sahel, qui visait à évincer l’influence diplomatique et militaire française et à sécuriser des ressources clés — diamants en République centrafricaine, or au Mali et uranium au Niger.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Aujourd’hui, la guerre informationnelle autour des ressources prend de nouvelles formes : campagnes numériques contre des projets concurrents — par exemple, des opérations russes destinées à décrédibiliser le gaz de schiste américain en Europe, ou le lobbying américain présentant son GNL comme l’alternative « démocratique » au gaz russe —, spéculation coordonnée sur les marchés, espionnage industriel et gouvernemental dans le domaine des minéraux critiques. L’Australie estime déjà à plusieurs milliards de dollars les pertes liées à l’espionnage dans le secteur des ressources. Derrière les mots et les chiffres, c’est une lutte pour le contrôle des données qui se joue — et donc pour un avantage technologique et financier durable.
Transparence, vérification, formation, éthique
L’idée d’une science — ici, les sciences de la Terre — entièrement neutre est tentante. Les faits suggèrent pourtant autre chose : l’information géologique agit comme un instrument de pouvoir. Elle peut stabiliser les marchés ou les faire exploser, favoriser la coopération internationale… ou attiser la méfiance.
Pour sortir du brouillard informationnel, un chantier éthique s’impose : promouvoir la transparence des données publiques, renforcer la vérification, et mieux former journalistes et grand public à la lecture critique des annonces techniques. Par exemple, le Service géologique américain publie régulièrement des rapports détaillés sur la production et les réserves de minéraux stratégiques, permettant aux chercheurs, médias et investisseurs de croiser les informations et de détecter les exagérations ou erreurs, tout en masquant cependant certaines informations sensibles.
Sans confiance dans les données géologiques, il ne peut y avoir de transition énergétique crédible. Défendre la fiabilité de l’information scientifique comme bien commun — au même titre que l’eau, l’air ou la biodiversité — devient indispensable. Il est grand temps de construire une éthique de la géo-information.
Michel Jébrak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.