Budget 2026 : les conséquences de l’échec de la commission mixte paritaire et du choix de la loi spéciale

Source: The Conversation – France in French (3) – By Alexandre Guigue, Professeur de droit public, Université Savoie Mont Blanc

L’échec de la commission mixte paritaire sur le projet de loi de finances pour 2026 place le gouvernement face à un choix délicat. Le premier ministre entend déposer un projet de loi spéciale, comme en décembre 2024, après le renversement du gouvernement de Michel Barnier. Ce choix soulève d’importantes questions de conformité constitutionnelle et de portée juridique. Décryptage.


Après l’échec de la commission mixte paritaire (CMP), vendredi 19 décembre, qui n’est pas parvenue à proposer un texte de compromis, le premier ministre se retrouvait avec trois options : donner le dernier mot à l’Assemblée nationale et tenter de forcer l’adoption par l’article 49 alinéa 3 de la Constitution, attendre l’expiration du délai de soixante-dix jours pour mettre en œuvre le projet de loi de finances (PLF) par ordonnance, ou déposer un projet de loi spéciale. C’est cette dernière voie qui a été choisie. Pourquoi ? Et est-ce conforme au droit ?

Les trois options qui s’offraient au premier ministre

L’option de l’article 49 alinéa 3 de la Constitution

Cette option pouvait être écartée assez facilement. D’abord, le premier ministre Sébastien Lecornu l’avait lui-même écartée en début de procédure. Ensuite, c’est une voie très risquée. C’est celle qui a fait chuter le gouvernement de Michel Barnier, le 4 décembre 2024, sur l’adoption du projet de loi de financement de la Sécurité sociale pour 2025. Certes, contrairement à Michel Barnier, Sébastien Lecornu est parvenu à obtenir le vote du PLFSS 2026. Mais, au regard des débats tendus sur le projet de loi de finances, le premier ministre prendrait un très grand risque en recourant à cette procédure. De toute façon, en cas de renversement, il aurait été contraint, en tant que premier ministre démissionnaire, de procéder exactement comme l’a fait Michel Barnier en décembre 2024, c’est-à-dire de déposer un projet de loi spéciale.

L’option d’une mise en œuvre du projet par ordonnance

L’article 47 alinéa 3 de la Constitution prévoit que « si le Parlement ne s’est pas prononcé dans un délai de soixante-dix jours, les dispositions du projet peuvent être mises en vigueur par ordonnance ». Le PLF a été déposé à l’Assemblée nationale le 14 octobre 2025. La fin de la période de soixante-dix jours calendaires est le 23 décembre, à minuit. En conséquence, si le Parlement « ne s’est pas prononcé », et seulement dans ce cas (ce qui exclut un rejet du PLF), le gouvernement peut se passer du Parlement complètement. Cela signifie que l’État fonctionnerait en 2026 sur la seule base du projet initial du gouvernement, en retenant éventuellement les amendements votés par les deux assemblées (ce point a prêté à discussion entre spécialistes. A priori, rien n’empêche le gouvernement d’admettre des amendements votés par les deux assemblées).

La possibilité d’une mise en œuvre par ordonnance dépend donc de deux conditions : l’écoulement du délai de soixante-dix jours et l’absence de rejet définitif par l’Assemblée nationale.

Cependant, comme pour l’article 49 alinéa 3, Sébastien Lecornu a annoncé qu’il n’aurait pas recours aux ordonnances. Cette position, qui peut être critiquée dans la mesure où un premier ministre se prive ainsi de pouvoirs que la Constitution lui donne, a une certaine logique, puisque les deux procédures s’apparentent à un passage en force. En effet, dans les deux cas, le PLF est mis en œuvre sans vote formel du Parlement. Dans le premier, il est considéré comme adopté sauf si une motion de censure est votée ; dans le second, le PLF est mis en œuvre par ordonnance sans que le Parlement n’ait pu se prononcer.

Sébastien Lecornu privilégie donc la concertation et l’approbation du Parlement, en excluant tout passage en force. Le vote positif du projet de loi de financement de la Sécurité sociale (PLFSS) le conforte dans cette direction. Après l’échec de la commission mixte paritaire, le premier ministre choisit donc de déposer un projet de loi spéciale.

L’option de la loi spéciale

Sans l’épisode mouvementé de 2024, cette option paraîtrait extraordinaire puisque deux situations seulement avaient donné lieu à des lois de finances spéciales.

En 1962, après le renversement de son gouvernement, le premier ministre Georges Pompidou avait fait adopter, le 22 décembre 1962, un projet de loi de finances partiel comportant la seule première partie du PLF. Un autre projet de loi de finances spéciale comportant la deuxième partie avait été adopté le 26 janvier 1963.

La deuxième situation s’est produite en 1979. Par une décision du 24 décembre 1979, le Conseil constitutionnel a invalidé le PLF 1980 pourtant adopté par le Parlement. Pris au dépourvu, le gouvernement s’est alors inspiré des textes existants en faisant adopter une loi spéciale, le 27 décembre 1979. Saisi une nouvelle fois, le Conseil constitutionnel avait validé ce choix en constatant que, comme les textes n’avaient pas prévu cette situation, « il appartenait, de toute évidence, au Parlement et au gouvernement, dans la sphère de leurs compétences respectives, de prendre toutes les mesures d’ordre financier nécessaires pour assurer la continuité de la vie nationale ; qu’ils devaient, pour ce faire, s’inspirer des règles prévues, en cas de dépôt tardif du projet de loi de finances, par la Constitution et par l’ordonnance portant loi organique, en ce qui concerne tant les ressources que la répartition des crédits et des autorisations relatifs aux services votés » (décision du 29 décembre 1979).

En 2024, après le renversement du gouvernement Barnier, le président de la République Emmanuel Macron avait annoncé le dépôt d’un projet de loi de finances spéciale. Après un vote à l’unanimité par les députés et les sénateurs, la loi spéciale a été promulguée onze jours avant la fin de l’année (20 décembre 2024).

En décembre 2025, si la situation est comparable, elle présente tout de même quelques différences.

Les conditions sont-elles remplies pour le dépôt d’un projet de loi de finances spéciale ?

L’article 47 de la Constitution et l’article 45 de la loi organique relative aux lois de finances (LOLF) posent chacun une condition pour une loi de finances spéciale. Aucune des deux n’est remplie par Sébastien Lecornu.

La condition de l’absence de dépôt « en temps utile » du PLF

L’article 47 alinéa 4 de la Constitution, qui prévoit la possibilité d’une loi de finances spéciale, pose la condition de l’absence d’un dépôt « en temps utile de la loi de finances pour être promulguée avant le début de l’exercice » (le 1er janvier 2026). Cela renvoie à la situation dans laquelle le PLF a été déposé avec un retard tel que le Parlement n’a pas pu disposer du temps d’examen prévu par la Constitution, c’est-à-dire soixante-dix jours. Or, si Sébastien Lecornu a déposé le PLF en retard, le 14 octobre 2025, le Parlement a bien, théoriquement, disposé de soixante-dix jours calendaires, le délai s’achevant le 23 décembre à minuit. En conséquence, la condition n’est pas remplie pour déposer un projet de loi spéciale
(ce point a été confirmé par le rapporteur de la commission des finances de l’Assemblée nationale dans son rapport sur le projet de loi spécial de 2024).

Qu’à cela ne tienne, le premier ministre le fera quand même, comme Michel Barnier en décembre 2024. Cette petite entorse de la Constitution semble implicitement assumée par le gouvernement. Il faut dire que, pour respecter la lettre du texte, le premier ministre devrait retirer le PLF qui est à l’Assemblée, en redéposer un autre, constater que le dépôt n’a pas été fait en temps utile et déposer un projet de loi spécial. En 2024, Michel Barnier ne le pouvait pas, car étant démissionnaire, il n’en avait pas le pouvoir. En 2025, Sébastien Lecornu en a le pouvoir, mais le temps presse et, surtout, cela revient au même.

La condition d’un dépôt du projet de loi spéciale avant le 19 décembre

L’article 45 de la LOLF prévoit que le projet de loi de finances spéciale doit être déposé avant le 19 décembre. Or, l’échec de la commission mixte paritaire est intervenu le 19 décembre, justement. Pour déposer un projet de loi spéciale, le gouvernement doit d’abord recueillir l’avis du Conseil d’État puis l’arrêter en Conseil des ministres.

Sébastien Lecornu, même en allant très vite, n’est pas en mesure de respecter ce délai. Le dépôt intervient donc avec quelques jours de retard. Est-ce problématique ? La LOLF n’est pas respectée, mais de peu. Ce n’est problématique que si le Conseil constitutionnel est saisi et que s’il applique strictement la règle du 19 décembre. Il y a des raisons pour le premier ministre de ne pas être inquiet. En décembre 2024, le projet de loi spéciale avait été adopté à l’unanimité et le Conseil n’avait pas été saisi.

Même si le Conseil est saisi en 2025, il est fort probable qu’au regard de sa jurisprudence antérieure il considère que le premier ministre a bien tout mis en œuvre pour assurer la continuité de la vie nationale et, par surcroît, avec l’aval du Parlement.

Le contenu de la loi spéciale

En 1979, le gouvernement s’était contenté de prévoir le strict minimum prévu par l’article 47 alinéa 4 de la Constitution, c’est-à-dire la perception des impôts existants. En décembre 2025, le gouvernement s’est montré plus audacieux.

Partant du principe que la Constitution se contente de prévoir ce contenu obligatoire, il a considéré que d’autres dispositions pouvaient être ajoutées. Le Conseil d’État a confirmé cette lecture dans son avis sur le projet de loi spéciale de 2024. La loi spéciale de 2024 comportait quatre articles. Le premier portait sur la perception des impôts existants. Le deuxième prévoyait le prélèvement sur recettes au profit des collectivités territoriales. Le troisième portait autorisation pour le gouvernement d’emprunter. Le quatrième a permis aux organismes de sécurité sociale de percevoir leurs ressources non permanentes.

En 2025, le gouvernement est parvenu à faire adopter le PLFSS. Par conséquent, il n’a pas besoin de prévoir le quatrième article. Comme il n’y a pas de raison qu’il en prévoit d’autres, le projet comportera sans doute les trois premiers articles.

Le Parlement devrait rapidement voter le projet de loi spéciale. Si, comme en 2024, il le fait à l’unanimité, il n’y aura vraisemblablement pas de saisine du Conseil constitutionnel.

Le 1er janvier 2026, le gouvernement fonctionnera avec le minimum, comme début 2025. Il restera alors à faire à adopter par le Parlement un PLF complet. François Bayrou y était parvenu, le 5 février 2025. La voie du compromis choisie par Sébastien Lecornu lui permettra-t-elle de le faire comme ce fut le cas pour le PLFSS ?

The Conversation

Alexandre Guigue est membre de membre de la Société française de finances publiques, association reconnue d’utilité publique réunissant universitaires et praticiens des finances publiques.

ref. Budget 2026 : les conséquences de l’échec de la commission mixte paritaire et du choix de la loi spéciale – https://theconversation.com/budget-2026-les-consequences-de-lechec-de-la-commission-mixte-paritaire-et-du-choix-de-la-loi-speciale-272501

Vous choisissez une carrière ? Dans un marché du travail en constante évolution, écoutez votre voix intérieure

Source: The Conversation – in French – By Kobus Maree, Professor of Educational Psychology, University of Pretoria

Le monde du travail d’aujourd’hui, au 21ᵉ siècle, est beaucoup plus imprévisible que celui du 20ᵉ. Des métiers apparaissent puis disparaissent. Les postes évoluent constamment, et l’automatisation ou les bouleversements numériques sont désormais la norme. Beaucoup de jeunes exerceront un jour des métiers qui n’existent pas encore. Le changement est la nouvelle constante.

Dans ce monde, l’orientation professionnelle se concentre sur la gestion des transitions répétées et le développement de la résilience. Il s’agit de l’employabilité et de la conception d’une vie professionnelle épanouissante, et non de trouver un « emploi à vie ». Elle reconnaît que l’activité économique fait partie d’une réalité sociale plus globale.

Au cœur de cette démarche se trouve la recherche d’un sens à donner à sa vie.

En tant que conseiller d’orientation professionnelle et universitaire, j’ai traversé des décennies d’innovation, de recherche et de pratique en Afrique du Sud et au-delà. J’ai découvert que les travaux du psychologue américain Mark Savickas offrent un moyen utile de comprendre comment les gens construisent une carrière réussie et pleine de sens dans un monde en mutation.

Sa théorie de la construction de carrière propose de ne plus chercher à « assortir » une personne à un environnement “idéal”. Il faut plutôt voir chaque individu comme l’auteur de sa trajectoire. Chacun essaie de créer du sens, de comprendre ses thèmes de vie, et de s’adapter à un monde imprévisible.

En clair, choisir une carrière ne dépend pas seulement de nos compétences ou de nos centres d’intérêt. Cela dépend de la façon dont nous comprenons notre histoire, de nos valeurs, et de notre capacité à faire face aux changements.

Dans mes travaux, j’insiste sur le fait que l’orientation professionnelle doit s’appuyer sur les « histoires » des personnes (la façon dont elles se perçoivent) ainsi que sur leurs « scores » (les données objectives les concernant). C’est pourquoi j’ai développé des outils qui combinent des approches qualitatives et quantitatives pour explorer les intérêts d’une personne.

Je pense également que l’orientation professionnelle doit s’appuyer sur le contexte dans lequel vit chaque personne. Par exemple, en Afrique du Sud, les jeunes sont confrontés à de multiples transitions professionnelles et personnelles, à des opportunités limitées et à des contraintes systémiques, telles qu’un accès inégal et restreint à une éducation et une scolarité de qualité, un manque d’opportunités d’emploi et un soutien insuffisant en matière d’orientation professionnelle. Mon travail dans ce contexte sud-africain met l’accent sur l’autonomie (personnelle), l’adaptabilité (professionnelle), le sens et l’espoir.

Cela va au-delà de la question « quel emploi vous convient le mieux » pour aboutir à un processus plus riche, basé sur le récit de vie. Les personnes racontent leur parcours, repèrent les moments charnières, réfléchissent à leurs valeurs et imaginent les prochains chapitres de leur vie professionnelle. En bref, elles apprennent à s’écouter : leurs souvenirs, leurs rêves, leurs valeurs, leurs identités personnelles et professionnelles en construction. Elles apprennent aussi à construire une histoire qui compte vraiment pour eux-mêmes et pour les autres.

Je pense également que les conseillers d’orientation professionnelle devraient essayer d’aider les gens à gérer leurs déceptions, leur tristesse et leur douleur, et leur donner les moyens de guérir les autres et eux-mêmes.

Conseils pour les personnes en début de carrière

L’adaptabilité est un thème central dans la théorie actuelle de la carrière. Elle comporte quatre dimensions :

  • la préoccupation (à propos de l’avenir)

  • le contrôle (sur votre destin)

  • la curiosité (explorer les possibilités)

  • la confiance (en votre capacité à agir).

Lorsque vous développez ces capacités, vous êtes mieux armé pour gérer les transitions professionnelles, redéfinir votre trajectoire de façon pertinente et réactive, et atteindre un équilibre satisfaisant entre vie professionnelle et vie privée.

J’ai constaté que dans la pratique, il est utile de :

  • réfléchir aux « tournants » majeurs de votre carrière et de vos premiers souvenirs

  • intégrer la connaissance de soi à la compréhension des évolutions d’un secteur, des innovations technologiques et des dynamiques économiques.

  • s’appuyer sur des « récits » (informations subjectives sur vous-même) et des « scores » (données objectives)

  • développer un sens de la mission (ce que le travail signifie pour vous personnellement) et une vision (votre contribution à la société, et pas seulement votre titre professionnel).

Je vous invite à réfléchir profondément à votre histoire, à identifier les moments clés qui vous ont façonné, à clarifier vos valeurs et à décider de la contribution que vous souhaitez apporter. Ensuite, (re)concevez votre cheminement, étape par étape, une transition à la fois.

Si possible, une année sabbatique peut être un bon moment pour mener cette réflexion, acquérir de nouvelles compétences et développer des qualités telles que la capacité d’adaptation.

L’un des meilleurs conseils pour les jeunes diplômés des écoles était le suivant : « Procurez-vous un passeport et parcourez le monde. »

Comment un conseiller peut vous aider

L’un des principes fondamentaux de mon travail: l’orientation professionnelle doit profiter non seulement aux individus, mais aussi aux groupes. Il doit promouvoir les idéaux de justice sociale, de travail décent et une contribution significative de chacun à la société.

Pour moi, le rôle des praticiens n’est pas de conseiller les autres, mais de leur permettre d’écouter leur voix intérieure.

En d’autres termes, dans un monde incertain, le sens de la vie devient une boussole, une étoile polaire. Il donne une direction. En vous aidant à trouver les fils qui relient votre vie et votre parcours professionnel unique, un conseiller vous aide à prendre le contrôle de votre vie professionnelle dans des contextes changeants.

L’orientation professionnelle met également l’accent sur la promotion de la durabilité des sociétés et des environnements essentiels aux moyens de subsistance de chacun.

Aujourd’hui, l’orientation professionnelle est plus nécessaire que jamais. Ce n’est pas un luxe. Ce n’est pas une liste de réponses toutes faites. C’est un soutien pour devenir adaptable, réfléchi, résilient et porteur d’espoir.

The Conversation

Kobus Maree does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Vous choisissez une carrière ? Dans un marché du travail en constante évolution, écoutez votre voix intérieure – https://theconversation.com/vous-choisissez-une-carriere-dans-un-marche-du-travail-en-constante-evolution-ecoutez-votre-voix-interieure-271548

Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ?

Source: The Conversation – in French – By Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

Un xénobot (en rouge) en forme de Pac-Man, conçu par IA, en train de se répliquer grâce à des cellules compressées en une sphère (en vert) pour reproduire sa forme. Douglas Blackiston, Sam Kriegman, CC BY-SA

Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.


Les xénobots sont des entités biologiques artificielles entièrement composées de cellules vivantes issues d’embryons de xénope (Xenopus laevis), un amphibien africain. Prélevées sur des embryons de stade précoce, ces cellules sont encore indifférenciées : elles ne se sont pas encore spécialisées pour devenir des cellules de peau ou du foie par exemple. Elles sont cependant déjà « programmées » naturellement pour devenir des cellules qui tapissent les surfaces internes et externes du corps (peau, parois des organes, vaisseaux) ou des cellules contractiles du muscle cardiaque. Les contractions de ces cellules cardiaques agissent comme de minuscules moteurs, générant une propulsion, qui permet aux xénobots de se déplacer dans un milieu aquatique.

Xénobot par microscopie
Un xénobot conçu par IA est fait de cellules de muscle cardiaque, ce qui lui permet de se déplacer.
Douglas Blackiston, Sam Kriegman, CC BY

Pour fabriquer un xénobot, on isole et on assemble manuellement des groupes de cellules, comme des « briques biologiques ». À l’issue de cette phase de microchirurgie et d’organisation tridimensionnelle, les xénobots sont des entités de moins d’un millimètre de morphologies variables selon la fonction recherchée. Ils ne disposent d’aucun système nerveux ni organe sensoriel. Leur comportement est uniquement dicté par leur forme et leur composition cellulaire, toutes deux déterminées lors de leur création via des techniques de bio-ingénierie.

Bien qu’ils soient constitués uniquement de cellules vivantes, on parle de robots biologiques ou biobots, car ils obéissent à des tâches prédéfinies par l’humain : déplacement, coopération en essaim, transport d’objets, voire contrôle et assemblage d’autres xénobots à partir de cellules libres présentes autour d’eux (on parle d’autoréplication). Le terme « robot » prend ici un sens élargi, fondé sur la capacité à accomplir une tâche, en l’occurrence programmée par la forme et non par un logiciel interne.

Des robots biologiques conçus avec de l’IA

Avant de fabriquer un xénobot en laboratoire, des programmes d’intelligence artificielle (IA) sont utilisés pour tester virtuellement et simuler des milliers de formes et d’agencements cellulaires. Des algorithmes calculent quelles combinaisons fonctionneraient le mieux pour atteindre l’objectif fixé par le cahier des charges : par exemple, maximiser la vitesse de déplacement, transporter une charge ou induire de l’autoréplication.

Le lien entre l’intelligence artificielle et les cellules n’existe que lors de l’étape théorique de la conception. L’IA sert exclusivement à prédire et à optimiser la forme la plus adéquate, qui sera ensuite réalisée par microchirurgie et assemblage par des humains. Elle ne fournit aucun processus cognitif embarqué dans le xénobot, qui n’est donc pas contrôlé par une IA et ne possède aucune autonomie décisionnelle, contrairement à d’autres types de robots en développement.

Représentation schématique puis photo de microscopie d’un xénobot
À gauche, le design du xénobot, tel que proposé par un programme d’intelligence artificielle. À droite, l’organisme réel, construit à partir de cellules de peau (en vert) et de muscle cardiaque (en rouge).
Douglas Blackiston, Sam Kriegman, CC BY

Les xénobots ont d’abord été conçus sous forme de sphères, de triangles ou de pyramides, des géométries simples choisies pour être faciles à construire, afin d’étudier de manière contrôlée la manière dont la forme et la disposition des cellules influencent le mouvement.

La forme en croissant, dite Pac-Man, a été identifiée par intelligence artificielle comme la plus performante pour s’autorépliquer. La réplication est cependant limitée à trois ou quatre générations en laboratoire et les xénobots se dégradent après environ dix jours, limitant leurs applications à plus long terme.

Quelles applications pour les xénobots ?

Toutes les applications envisagées demeurent pour l’instant expérimentales. Certaines fonctions (locomotion, agrégation de particules, autoréparation, réplication limitée) ont été démontrées in vitro, ce qui constitue des preuves de concept. En revanche, les usages proposés en médecine ou pour l’environnement restent pour l’instant des hypothèses extrapolées à partir de ces expériences et de modèles informatiques, sans validation chez l’animal.

Dans le domaine environnemental, grâce à leur petite taille, leur forte biodégradabilité et leur capacité à fonctionner en essaim, les xénobots pourraient être utilisés pour concentrer des microparticules ou des polluants en un même endroit, avant une étape de récupération ou de traitement adaptée, les xénobots eux-mêmes se dégradant ensuite sans laisser de trace biologique.

Des versions plus complexes de xénobots pourraient être utilisées comme marqueurs visuels de modifications dans un environnement. Un tel xénobot, exposé à un certain type de polluant, subirait un changement de structure et de couleur. Cette propriété permettrait en quelque sorte de lire ce que le xénobot a rencontré dans son environnement, à l’image d’un capteur lumineux. Cette application n’a cependant pas encore été démontrée expérimentalement.

Cinq constructions schématiques de xénobots accompagnés à chaque fois d’une photographie de l’organisme réel
Le programme d’intelligence artificielle est capable de proposer des centaines de designs possibles, chacun ayant des propriétés spécifiques pour des applications différentes.
Douglas Blackiston, Sam Kriegman, CC BY

Dans le domaine médical, les xénobots pourraient être utilisés, tout comme d’autres microrobots, pour transporter localement des molécules thérapeutiques autour de cellules cibles, en réduisant ainsi la toxicité sur les tissus sains. La possibilité que les xénobots puissent servir à la livraison de molécules, comme des anticancéreux, reste cependant une extrapolation à partir d’expériences in vitro préliminaires sur d’autres microrobots.

Enfin, la recherche fondamentale pourrait bénéficier de l’existence de ces objets. L’organisation cellulaire des xénobots, hors du contexte embryonnaire, offre un modèle pour explorer la plasticité cellulaire ou tissulaire, la coordination cellulaire collective et l’auto-organisation, domaines clés pour comprendre l’évolution d’entités vivantes.

Des propriétés inattendues

Au-delà des tâches programmées, des propriétés remarquables ont été identifiées expérimentalement. Par exemple, des xénobots exposés à des vibrations sonores modifient significativement leur comportement moteur, passant d’une rotation à un déplacement linéaire rapide, une réaction absente chez les embryons de xénope au même stade.

En regroupant des cellules selon des architectures originales, les xénobots obligeraient ces cellules à reprogrammer en partie leur activité génétique : des analyses des gènes activés par ces cellules montrent l’activation de voies de stress, de réparation tissulaire ou de remodelage, qui ne sont pas utilisées de la même façon dans l’embryon intact.

De plus, dans ces expériences, plusieurs xénobots sectionnés se réparent spontanément et retrouvent un mouvement coordonné, ce qui suggère une communication à courte distance entre cellules, probablement via des signaux bioélectriques et chimiques, alors qu’aucun nerf n’est présent. Ces comportements illustrent une forte plasticité cellulaire, dont l’ampleur varie selon la manière dont les tissus ont été assemblés et les conditions de culture employées.

Derrière les promesses, des enjeux éthiques majeurs

Les promesses d’applications médicales ou environnementales ne doivent pas occulter l’ambiguïté de statut de ces entités, ni organismes naturels ni machines traditionnelles. Les xénobots sont des assemblages cellulaires conçus par l’humain appuyé par des systèmes d’intelligence artificielle. Leur déploiement reste, aujourd’hui, de l’ordre de l’hypothèse.

Plusieurs risques sont discutés par les bioéthiciens. Écologique d’abord, en cas d’acquisition par les xénobots d’une capacité de survie ou de réplication inattendue dans l’environnement. Sanitaire ensuite, en cas d’utilisation chez l’humain sans maîtrise complète de leur comportement à long terme. Un risque de détournement enfin, par exemple pour la libération ciblée d’agents toxiques.




À lire aussi :
Xénobots, biobots : doit-on avoir peur des « robots vivants » ?


À cela s’ajoutent des enjeux plus symboliques : brouiller davantage la frontière entre vivant et non-vivant pourrait fragiliser certains cadres juridiques de protection du vivant, d’où les appels à un cadre réglementaire international spécifique à ces biorobots. Les promesses d’applications médicales ou dans le domaine de l’environnement ne doivent pas occulter l’ambiguïté de statut de ces entités, qui exigent une réflexion éthique et un cadre réglementaire international.

L’extension de l’utilisation de ces outils biologiques à des cellules humaines ne devra se réaliser que dans un cadre strictement contrôlé et sous supervision d’un comité éthique pluridisciplinaire. Plusieurs travaux dans ce domaine recommandent déjà des évaluations systématiques des risques (écologiques, sanitaires et de détournement), une transparence des protocoles et une implication du public dans les décisions de déploiement.

Il a été proposé de créer des instances spécifiques à cette technologie, chargées de vérifier la biodégradabilité, la limitation de la réplication, la traçabilité des essais et le respect de la dignité du vivant. Dans ce contexte, l’usage éventuel de xénobots ou d’organismes similaires dérivés de cellules humaines devrait s’inscrire dans un cadre réglementaire international inspiré de ces recommandations, avec des garde-fous comparables à ceux mis en place pour les organismes génétiquement modifiés (OGM) ou les thérapies géniques.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ? – https://theconversation.com/que-sont-les-xenobots-ces-robots-biologiques-qui-bouleversent-les-frontieres-entre-vivant-et-machine-272362

Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ?

Source: The Conversation – in French – By Carole Arnold, Docteur en sciences biologiques, Université de Haute-Alsace (UHA)

Ce qui ressemblait hier encore à de la science-fiction est désormais une réalité clinique : l’édition du génome humain avec CRISPR-Cas9 commence à guérir des maladies jusque-là incurables. Mais où en est réellement cette révolution annoncée ? Entre premiers succès cliniques, limites techniques et questions éthiques persistantes, les thérapies issues de CRISPR dessinent un paysage où promesses et prudence sont désormais indissociables.


Nous assistons à une nette montée des espoirs pour des maladies rares, souvent « orphelines ». Par exemple, un nourrisson atteint d’un déficit métabolique rare (une maladie génétique dans laquelle une enzyme ou une voie métabolique essentielle ne fonctionne pas correctement) dû à une mutation sur le gène CPS1, a reçu en 2025 un traitement « sur mesure » utilisant la technique d’édition de base (base editing), avec des résultats biologiques encourageants. Aujourd’hui, l’édition génique n’est plus une hypothèse lointaine, mais donne des résultats concrets et change déjà la vie de certains patients. Pour comprendre ce qui est en train de se jouer, il faut revenir sur les progrès fulgurants de ces dernières années, des premiers essais pionniers aux versions de plus en plus sophistiquées de l’édition génomique.

Développée en 2012 grâce à l’association d’une endonucléase, Cas9, et de petits ARN guides (sgRNA), cette méthode d’édition ciblée du génome a bouleversé la biologie moderne, au point de valoir à ses inventrices le prix Nobel de chimie en 2020. Depuis son invention, le CRISPR-Cas9 classique est largement utilisé dans les laboratoires, dont le nôtre, pour créer des modèles cellulaires de maladies, fabriquer des cellules qui s’illuminent sous certaines conditions ou réagissent à des signaux précis, et explorer le rôle de gènes jusqu’ici mystérieux.

Un premier système extraordinaire mais imparfait

Côté clinique, l’utilisation de CRISPR-Cas9 a ouvert des possibilités thérapeutiques inédites : modifier précisément un gène, l’inactiver ou en corriger une version défectueuse, le tout avec une simplicité et une rapidité jusqu’alors inimaginables. Mais cette puissance s’accompagnait alors de limites importantes : une précision parfois imparfaite, avec des coupures hors-cible difficiles à anticiper (des modifications accidentelles de l’ADN réalisées à des endroits non prévus du génome), une efficacité variable selon les cellules, et l’impossibilité d’effectuer des modifications plus fines sans induire de cassure double brin (une rupture affectant les deux brins d’ADN à un site génomique spécifique) potentiellement délétère.

Ces limites tiennent en grande partie au recours obligatoire aux cassures double brin et à la réparation par homologie (mode de réparation de l’ADN dans lequel la cellule s’aide d’une séquence d’ADN modèle très similaire – ou fournie par le chercheur – pour réparer une cassure double brin), un mécanisme peu fiable et inégal selon les types cellulaires. Mais la véritable rupture est apparue à partir de 2016 avec l’invention des éditeurs de base (base editors), des versions ingénieusement modifiées de CRISPR capables de changer une seule lettre de l’ADN sans provoquer de cassure double brin. Pour la première fois, il devenait possible de réécrire le génome avec une précision quasi chirurgicale, ouvrant la voie à des corrections plus sûres et plus fines que celles permises par Cas9 classique. Cependant, les base editors restaient limités : ils permettaient d’effectuer certaines substitutions de bases, mais étaient incapables de réaliser des insertions ou des modifications plus complexes du génome.

Ces limitations des base editors ont été en partie levées avec l’arrivée de leurs successeurs, les prime editors, en 2019 : ces nouvelles machines moléculaires permettent non seulement de substituer des bases, mais aussi d’insérer ou de supprimer de courtes séquences (jusqu’à plusieurs kilobases), le tout sans provoquer de cassure double brin, offrant ainsi un contrôle beaucoup plus fin sur le génome. Cette technique a été utilisée avec succès pour créer en laboratoire des modèles cellulaires et animaux de maladies génétiques, et des plantes transgéniques. Cependant, en pratique, son efficacité restait trop faible pour des traitements humains, et le résultat dépendait du système de réparation de la cellule, souvent inactif ou aléatoire. Mais en six ans, la technique a gagné en précision et polyvalence, et les études chez l’animal ont confirmé à la fois son efficacité et la réduction des effets hors-cible. Résultat : en 2025, six ans après son invention, le prime editing fait enfin son entrée en clinique, un moment que beaucoup de médecins décrivent comme un véritable tournant pour la médecine.

Des traitements sur le marché

Dès 2019, de premiers essais cliniques avec le système CRISPR-Cas9 classique (le médicament Casgevy) avaient été réalisés sur des patients atteints de β-thalassémie et drépanocytose, deux maladies génétiques de l’hémoglobine, via la correction ex vivo et la réinjection des cellules modifiées au patient. Les premiers résultats étaient prometteurs : certains patients avaient vu leur production de globules rouges anormaux corrigée de manière durable, avec une amélioration significative de leurs symptômes, après une unique injection. Le traitement Casgevy a d’ailleurs été approuvé en Europe en 2024, pour un coût d’environ 2 millions d’euros par patient.

Plus récemment, en 2025 un bébé atteint d’une mutation du gène CPS1 a été guéri grâce à l’édition de base, la version moins invasive et plus sûre de CRISPR-Cas9, mais qui reste limitée aux substitutions ponctuelles et ne permet pas toutes les modifications (pas d’insertion de séquences longues). Mais aujourd’hui, le prime editing lève les deux grands verrous du CRISPR-Cas9 classique – la nécessité de casser l’ADN et la dépendance à des mécanismes de réparation inefficaces – ouvrant la voie à une édition plus sûre, plus précise et applicable à un spectre beaucoup plus large de maladies.

Il n’est plus limité à de simples conversions ponctuelles, mais permet pour la première fois de remplacer ou restaurer un gène complet, de façon précise et contrôlée. L’année 2025 marque le premier succès clinique d’une telle thérapie – une étape historique pour l’édition génomique. En effet, le 19 mai 2025 la société Prime Medicine fondée par David Liu, inventeur du prime editing, a annoncé la première administration humaine de sa thérapie, destinée à un jeune patient atteint de granulomatose chronique, une maladie immunitaire rare liée à une mutation de l’ADN. Les premiers résultats biologiques de ce « CRISPR ultrapuissant » se sont révélés très prometteurs, ouvrant une nouvelle ère pour l’édition génomique. Il faudra toutefois patienter encore quelques mois avant de mesurer réellement le succès du prime editing : les premiers essais cliniques restent très récents et le manque de recul ne permet pas encore d’en tirer des conclusions définitives, notamment en termes de sécurité – l’absence d’effets secondaires – et de stabilité à long terme.

Ces stratégies d’édition du génome s’inscrivent pleinement dans le mouvement de la médecine personnalisée, où chaque traitement est conçu sur mesure pour un patient donné, en fonction de sa mutation spécifique – un véritable médicament « pour lui seul ». Pour la suite, des sociétés annoncent déjà vouloir continuer l’aventure avec des stratégies consistant à administrer directement les traitements dans le corps, sans passer par la modification in vitro de cellules prélevées chez le patient – une procédure complexe et onéreuse.

D’un prototype de laboratoire, on est donc passés en un temps record à une technologie polyvalente, et on entre désormais dans l’ère de la médecine personnalisée même pour des pathologies très rares. Le champ d’application s’élargit : on ne se contente plus des pathologies sanguines – des essais et projets explorent des maladies métaboliques, des infections chroniques (ex. thérapies pour hépatite B) ou des maladies héréditaires rares. De nouvelles avancées viennent constamment enrichir le potentiel de CRISPR, élargissant sans cesse ses possibilités. Tous les types de maladies ne sont pas encore éligibles : les pathologies monogéniques (mutation simple, bien identifiée) sont les plus adaptées. Pour des maladies multifactorielles, complexes, ou dépendant de l’environnement, l’édition reste beaucoup moins directe. De plus, certaines cibles (cellules non accessibles, tissus spécifiques, traitement in vivo) restent techniquement très difficiles. C’est également un défi économique, tant les traitements de médecine personnalisée restent extrêmement coûteux.

The Conversation

Carole Arnold a reçu des financements de l’INSERM, la Région Grand-Est, le FEDER et l’ANR.

ref. Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ? – https://theconversation.com/editer-le-genome-pour-soigner-ou-en-sont-les-therapies-issues-de-crispr-et-ses-derives-271034

D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules

Source: The Conversation – in French – By Purificación López García, Directrice de recherche CNRS, Université Paris-Saclay

Entrée à l’Académie des sciences en janvier 2025, Purificación López García s’intéresse à l’origine et aux grandes diversifications du vivant sur Terre. Elle étudie la diversité, l’écologie et l’évolution des microorganismes des trois domaines du vivant (archées, bactéries, eucaryotes). Avec David Moreira, elle a émis une hypothèse novatrice pour expliquer l’origine de la cellule eucaryote, celle dont sont composés les plantes, les animaux et les champignons, entre autres. Elle est directrice de recherche au CNRS depuis 2007 au sein de l’unité Écologie- Société-Évolution de l’Université Paris-Saclay et a été récompensée de la médaille d’argent du CNRS en 2017. Elle a raconté son parcours et ses découvertes à Benoît Tonson, chef de rubrique Science et Technologie.


The Conversation : Vous vous intéressez à l’origine du vivant. Vivant, que l’on classifie en trois grands domaines : les eucaryotes, des organismes dont les cellules ont un noyau, comme les humains ou les plantes par exemple ; les bactéries, qui ne possèdent pas de noyau, et un troisième, sans doute le moins connu, les archées. Pouvez-vous nous les présenter ?

Purificación López García : Ce domaine du vivant a été mis en évidence par Carl Woese à la fin des années 1970. Quand j’ai commencé mes études, à la fin des années 1980, cette découverte ne faisait pas consensus, il y avait encore beaucoup de résistance de la part de certains biologistes à accepter un troisième domaine du vivant. Ils pensaient qu’il s’agissait tout simplement de bactéries. En effet, comme les bactéries, les archées sont unicellulaires et n’ont pas de noyau. Il a fallu étudier leurs gènes et leurs génomes pour montrer que les archées et les bactéries étaient très différentes entre elles et même que les archées étaient plus proches des eucaryotes que des bactéries au niveau de leur biologie moléculaire.

Comment Carl Woese a-t-il pu classifier le vivant dans ces trois domaines ?

P. L. G. : On est donc à la fin des années 1970. C’est l’époque où commence à se développer la phylogénie moléculaire. L’idée fondatrice de cette discipline est qu’il est possible d’extraire des informations évolutives à partir des gènes et des protéines codées dans le génome de tous les êtres vivants. Certains gènes sont conservés chez tous les organismes parce qu’ils codent des ARN ou des protéines dont la fonction est essentielle à la cellule. Toutefois, la séquence en acides nucléiques (les lettres qui composent l’ADN : A, T, C et G ; U à la place de T dans l’ARN) et donc celle des acides aminés des protéines qu’ils codent (des combinaisons de 20 lettres) va varier. En comparant ces séquences, on peut déterminer si un organisme est plus ou moins proche d’un autre et classifier l’ensemble des organismes en fonction de leur degré de parenté évolutive.

Carl Woese est le premier à utiliser cette approche pour classifier l’ensemble du vivant : de la bactérie à l’éléphant, en passant par les champignons… Il va s’intéresser dans un premier temps non pas à l’ADN mais à l’ARN et, plus précisément, à l’ARN ribosomique. Le ribosome est la structure qui assure la traduction de l’ARN en protéines. On peut considérer que cette structure est la plus conservée dans tout le vivant : elle est présente dans toutes les cellules.

La classification du vivant en trois grands domaines selon Carl Woese.
CC BY

Avec ses comparaisons des séquences d’ARN ribosomiques, Woese montre deux choses : que l’on peut établir un arbre universel du vivant en utilisant des séquences moléculaire et qu’un groupe de séquences d’organismes considérés comme de bactéries « un peu bizarres », souvent associées à des milieux extrêmes, forment une clade (un groupe d’organismes) bien à part. En étudiant leur biologie moléculaire et, plus tard, leurs génomes, les archées s’avéreront en réalité beaucoup plus proches des eucaryotes, tout en ayant des caractéristiques propres, comme la composition unique des lipides de leurs membranes.

Aujourd’hui, avec les progrès des méthodes moléculaires, cette classification en trois grands domaines reste d’actualité et est acceptée par l’ensemble de la communauté scientifique. On se rend compte aussi que la plupart de la biodiversité sur Terre est microbienne.

Vous vous êtes intéressée à ces trois grands domaines au fur et à mesure de votre carrière…

P. L. G. : Depuis toute petite, j’ai toujours été intéressée par la biologie. En démarrant mes études universitaires, les questions liées à l’évolution du vivant m’ont tout de suite attirée. Au départ, je pensais étudier la biologie des animaux, puis j’ai découvert la botanique et enfin le monde microbien, qui m’a complètement fascinée. Toutes les formes de vie m’intéressaient, et c’est sûrement l’une des raisons pour lesquelles je me suis orientée vers la biologie marine pendant mon master. Je pouvais travailler sur un écosystème complet pour étudier à la fois les microorganismes du plancton, mais aussi les algues et les animaux marins.

Puis, pendant ma thèse, je me suis spécialisée dans le monde microbien et plus précisément dans les archées halophiles (celles qui vivent dans des milieux très concentrés en sels). Les archées m’ont tout de suite fascinée parce que, à l’époque, on les connaissait comme des organismes qui habitaient des environnements extrêmes, très chauds, très salés, très acides. Donc, c’était des organismes qui vivaient aux limites du vivant. Les étudier, cela permet de comprendre jusqu’où peut aller la vie, comment elle peut évoluer pour coloniser tous les milieux, même les plus inhospitaliers.

Cette quête de l’évolution que j’avais toujours à l’esprit a davantage été nourrie par des études sur les archées hyperthermophiles lors de mon postdoctorat, à une époque où une partie de la communauté scientifique pensait que la vie aurait pu apparaître à proximité de sources hydrothermales sous-marines. J’ai orienté mes recherches vers l’origine et l’évolution précoce de la vie : comment est-ce que la vie est apparue et s’est diversifiée ? Comment les trois domaines du vivant ont-ils évolué ?

Pour répondre à ces questions, vous avez monté votre propre laboratoire. Avec quelle vision ?

P. L. G. : Après un bref retour en Espagne, où j’ai commencé à étudier la diversité microbienne dans le plancton océanique profond, j’ai monté une petite équipe de recherche à l’Université Paris-Sud. Nous nous sommes vraiment donné la liberté d’explorer la diversité du vivant avec les outils moléculaires disponibles, mais en adoptant une approche globale, qui prend en compte les trois domaines du vivant. Traditionnellement, les chercheurs se spécialisent : certains travaillent sur les procaryotes – archées ou bactéries –, d’autres sur les eucaryotes. Les deux mondes se croisent rarement, même si cela commence à changer.

Cette séparation crée presque deux cultures scientifiques différentes, avec leurs concepts, leurs références et même leurs langages. Pourtant, dans les communautés naturelles, cette frontière n’existe pas : les organismes interagissent en permanence. Ils échangent, collaborent, entrent en symbiose mutualiste ou, au contraire, s’engagent dans des relations de parasitisme ou de compétition.

Nous avons décidé de travailler simultanément sur les procaryotes et les eucaryotes, en nous appuyant d’abord sur l’exploration de la diversité. Cette étape est essentielle, car elle constitue la base qui permet ensuite de poser des questions d’écologie et d’évolution.

L’écologie s’intéresse aux relations entre organismes dans un écosystème donné. Mais mes interrogations les plus profondes restent largement des questions d’évolution. Et l’écologie est indispensable pour comprendre ces processus évolutifs : elle détermine les forces sélectives et les interactions quotidiennes qui façonnent les trajectoires évolutives, en favorisant certaines tendances plutôt que d’autres. Pour moi, les deux dimensions – écologique et évolutive – sont intimement liées, surtout dans le monde microbien.

Sur quels terrains avez-vous travaillé ?

P. L. G. : Pour approfondir ces questions, j’ai commencé à travailler dans des environnements extrêmes, des lacs de cratère mexicains au lac Baïkal en Sibérie, du désert de l’Atacama et l’Altiplano dans les Andes à la dépression du Danakil en Éthiopie, et en m’intéressant en particulier aux tapis microbiens. À mes yeux, ces écosystèmes microbiens sont les véritables forêts du passé. Ce type de systèmes a dominé la planète pendant l’essentiel de son histoire.

Purificación López García dans le Salar de Quisquiro (Chili), tenant un tapis microbien.
Ana Gutiérrez-Preciado, Fourni par l’auteur

La vie sur Terre est apparue il y a environ 4 milliards d’années, alors que notre planète en a environ 4,6. Les eucaryotes, eux, n’apparaissent qu’il y a environ 2 milliards d’années. Les animaux et les plantes ne se sont diversifiés qu’il y a environ 500 millions d’années : autant dire avant-hier à l’échelle de la planète.

Pendant toute la période qui précède l’émergence des organismes multicellulaires complexes, le monde était entièrement microbien. Les tapis microbiens, constitués de communautés denses et structurées, plus ou moins épaisses, formaient alors des écosystèmes très sophistiqués. Ils étaient, en quelque sorte, les grandes forêts primitives de la Terre.

Étudier aujourd’hui la diversité, les interactions et le métabolisme au sein de ces communautés – qui sont devenues plus rares car elles sont désormais en concurrence avec les plantes et les animaux – permet de remonter le fil de l’histoire évolutive. Ces systèmes nous renseignent sur les forces de sélection qui ont façonné la vie dans le passé ainsi que sur les types d’interactions qui ont existé au cours des premières étapes de l’évolution.

Certaines de ces interactions ont d’ailleurs conduit à des événements évolutifs majeurs, comme l’origine des eucaryotes, issue d’une symbiose entre procaryotes.

Comment ce que l’on observe aujourd’hui peut-il nous fournir des informations sur le passé alors que tout le vivant ne cesse d’évoluer ?

P. L. G. : On peut utiliser les communautés microbiennes actuelles comme des analogues de communautés passées. Les organismes ont évidemment évolué – ils ne sont plus les mêmes –, mais nous savons deux choses essentielles. D’abord, les fonctions centrales du métabolisme sont bien plus conservées que les organismes qui les portent. En quelque sorte, il existe un noyau de fonctions fondamentales. Par exemple, il n’existe que très peu de manières de fixer le CO₂ présent dans l’atmosphère. La plus connue est le cycle de Calvin associé à la photosynthèse oxygénique de cyanobactéries des algues et des plantes. Ce processus permet d’utiliser le carbone du CO₂ pour produire des molécules organiques plus ou moins complexes indispensables à tout organisme.

On connaît six ou sept grandes voies métaboliques de fixation du carbone inorganique, qui sont en réalité des variantes les unes des autres. La fixation du CO₂, c’est un processus absolument central pour tout écosystème. Certains organismes, dont les organismes photosynthétiques, fixent le carbone. Ce sont les producteurs primaires.

Ensuite vient toute la diversification d’organismes et des voies qui permettent de dégrader et d’utiliser cette matière organique produite par les fixateurs de carbone. Et là encore, ce sont majoritairement les microorganismes qui assurent ces fonctions. Sur Terre, ce sont eux qui pilotent les grands cycles biogéochimiques. Pas tellement les plantes ou les animaux. Ces cycles existaient avant notre arrivée sur la planète, et nous, animaux comme plantes, ne savons finalement pas faire grand-chose à côté de la diversité métabolique microbienne.

Les procaryotes – archées et bactéries – possèdent une diversité métabolique bien plus vaste que celle des animaux ou des végétaux. Prenez la photosynthèse : elle est héritée d’un certain type de bactéries que l’on appelle cyanobactéries. Ce sont elles, et elles seules, chez qui la photosynthèse oxygénique est apparue et a évolué (d’autres bactéries savent faire d’autres types de photosynthèse dites anoxygéniques). Et cette innovation a été déterminante pour notre planète : avant l’apparition des cyanobactéries, l’atmosphère ne contenait pas d’oxygène. L’oxygène atmosphérique actuel n’est rien d’autre que le résultat de l’accumulation d’un déchet de cette photosynthèse.

Les plantes et les algues eucaryotes, elles, n’ont fait qu’hériter de cette capacité grâce à l’absorption d’une ancienne cyanobactérie capable de faire la photosynthèse (on parle d’endosymbiose). Cet épisode a profondément marqué l’évolution des eucaryotes, puisqu’il a donné naissance à toutes les lignées photosynthétiques – algues et plantes.

À l’instar de la fixation du carbone lors de la photosynthèse, ces voies métaboliques centrales sont beaucoup plus conservées que les organismes qui les portent. Ces organismes, eux, évoluent en permanence, parfois très rapidement, pour s’adapter aux variations de température, de pression, aux prédateurs, aux virus… Pourtant, malgré ces changements, les fonctions métaboliques centrales restent préservées.

Et ça, on peut le mesurer. Lorsque l’on analyse la diversité microbienne dans une grande variété d’écosystèmes, on observe une diversité taxonomique très forte, avec des différences d’un site à l’autre. Mais quand on regarde les fonctions de ces communautés, de grands blocs de conservation apparaissent. En appliquant cette logique, on peut donc remonter vers le passé et identifier des fonctions qui étaient déjà conservées au tout début de la vie – des fonctions véritablement ancestrales. C’est un peu ça, l’idée sous-jacente.

Finalement, jusqu’où peut-on remonter ?

P. L. G. : On peut remonter jusqu’à un organisme disons « idéal » que l’on appelle le Last Universal Common Ancestor, ou LUCA – le dernier ancêtre commun universel des organismes unicellulaires. Mais on sait que cet organisme était déjà très complexe, ce qui implique qu’il a forcément été précédé d’organismes beaucoup plus simples.

On infère l’existence et les caractéristiques de cet ancêtre par comparaison : par la phylogénie moléculaire, par l’étude des contenus en gènes et des propriétés associées aux trois grands domaines du vivant. En réalité, je raisonne surtout en termes de deux grands domaines, puisque l’on sait aujourd’hui que les eucaryotes dérivent d’une symbiose impliquant archées et bactéries. Le dernier ancêtre commun, dans ce cadre, correspondrait donc au point de bifurcation entre les archées et les bactéries.

À partir de là, on peut établir des phylogénies, construire des arbres, et comparer les éléments conservés entre ces deux grands domaines procaryotes. On peut ainsi inférer le « dénominateur commun », celui qui devait être présent chez cet ancêtre, qui était probablement déjà assez complexe. Les estimations actuelles évoquent un génome comprenant peut-être entre 2 000 et 4 000 gènes.

Cela nous ramène à environ 4 milliards d’années. Vers 4,4 milliards d’années, on commence à voir apparaître des océans d’eau liquide et les tout premiers continents. C’est à partir de cette période que l’on peut vraiment imaginer le développement de la vie. On ne sait pas quand exactement, mais disons qu’autour de 4-4,2 milliards d’années, c’est plausible. Et on sait que, à 3,5 milliards d’années, on a déjà des fossiles divers de tapis microbiens primitifs (des stromatolites fossiles).

Et concernant notre groupe, les eucaryotes, comment sommes-nous apparus ?

P. L. G. : Nous avons proposé une hypothèse originale en 1998 : celle de la syntrophie. Pour bien la comprendre, il faut revenir un peu sur l’histoire des sciences, notamment dans les années 1960, quand Lynn Margulis, microbiologiste américaine, avance la théorie endosymbiotique. Elle propose alors que les chloroplastes des plantes et des algues – les organites qui permettent de réaliser la photosynthèse dans les cellules de plantes – dérivent d’anciennes bactéries, en particulier de cyanobactéries, qu’on appelait à l’époque « algues vert-bleu ». Et elle avance aussi que les mitochondries, l’organite eucaryote où se déroule la respiration et qui nous fournit notre énergie, proviennent elles aussi d’anciennes bactéries endosymbiotes – un endosymbiote étant un organisme qui vit à l’intérieur des cellules d’un autre.

Ces idées, qui avaient été déjà énoncées au début du vingtième siècle et que Margulis a fait revivre, ont été très débattues. Mais à la fin des années 1970, avec les premiers arbres phylogénétiques, on a pu démontrer que mitochondries et chloroplastes dérivent effectivement d’anciennes bactéries endosymbiotes : les cyanobactéries pour les chloroplastes, et un groupe que l’on appelait autrefois les « bactéries pourpres » pour les mitochondries.

L’hypothèse dominante, à cette époque, pour expliquer l’origine des eucaryotes, repose sur un scénario dans lequel un dernier ancêtre commun se diversifie en trois grands groupes ou domaines : les bactéries, les archées et les eucaryotes. Les archées sont alors vues comme le groupe-frère des eucaryotes, avec une biologie moléculaire et des protéines conservées qui se ressemblent beaucoup. Dans ce modèle, la lignée proto-eucaryote qui conduira aux eucaryotes et qui développe toutes les caractéristiques des eucaryotes, dont le noyau, acquiert assez tardivement la mitochondrie via l’endosymbiose d’une bactérie, ce qui lancerait la diversification des eucaryotes.

Sauf que, dans les années 1990, on commence à se rendre compte que tous les eucaryotes possèdent ou ont possédé des mitochondries. Certains groupes semblaient en être dépourvus, mais on découvre qu’ils les ont eues, que ces mitochondries ont parfois été extrêmement réduites ou ont transféré leurs gènes au noyau. Cela signifie que l’ancêtre de tous les eucaryotes avait déjà une mitochondrie. On n’a donc aucune preuve qu’une lignée « proto-eucaryote » sans mitochondrie ait jamais existé.

C’est dans ce contexte que de nouveaux modèles fondés sur la symbiose émergent. On savait déjà que les archées et les eucaryotes partageaient des similarités importantes en termes de protéines impliquées dans des processus informationnels (réplication de l’ADN, transcription, traduction de l’ARN aux protéines). Nous avons proposé un modèle impliquant trois partenaires : une bactérie hôte (appartenant aux deltaprotéobactéries), qui englobe une archée prise comme endosymbionte, cette archée devenant le futur noyau. Les gènes eucaryotes associés au noyau seraient ainsi d’origine archéenne.

Puis une seconde endosymbiose aurait eu lieu, avec l’acquisition d’une autre bactérie (une alphaprotéobactérie) : l’ancêtre de la mitochondrie, installée au sein de la bactérie hôte.

Toutefois, à l’époque, ces modèles fondés sur la symbiose n’étaient pas considérés très sérieusement. La donne a changé avec la découverte, il y a une dizaine d’années, d’un groupe particulier d’archées, appelées Asgard, qui partagent beaucoup de gènes avec les eucaryotes, qui sont en plus très similaires. Les arbres phylogénétiques faits avec des protéines très conservées placent les eucaryotes au sein de ces archées. Cela veut dire que les eucaryotes ont une origine symbiogénétique : ils dérivent d’une fusion symbiotique impliquant au minimum une archée (de type Asgard) et une alpha-protéobactérie, l’ancêtre de la mitochondrie. Mais la contribution d’autres bactéries, notamment des deltaprotéobactéries, des bactéries sulfato-réductrices avec lesquelles les archées Asgard établissent des symbioses syntrophiques dans l’environnement, n’est pas exclue.

Aujourd’hui, l’eucaryogénèse est un sujet étudié activement. La découverte des archées Asgard a renforcé la vraisemblance de ce type de modèle symbiogénétique. Des chercheurs qui considéraient ces idées comme trop spéculatives – parce qu’on ne pourra jamais avoir de preuve directe d’un événement datant d’il y a 2 milliards d’années – s’y intéressent désormais. Tous ceux qui travaillent sur la biologie cellulaire des eucaryotes se posent la question, parce qu’on peut aujourd’hui remplacer certaines protéines ou homologues eucaryotes par leurs variantes Asgard… et ça fonctionne.

The Conversation

Purificación López García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules – https://theconversation.com/dou-venons-nous-un-voyage-de-4-milliards-dannees-jusqua-lorigine-de-nos-cellules-271900

Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles

Source: The Conversation – in French – By Jordy Bony, Docteur et Professeur en droit à l’EM Lyon, EM Lyon Business School

Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.


L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.

Quel est l’objet de cette nouvelle proposition de loi ?

La proposition de loi n° 2297 portée par le député Insoumis François Piquemal (4ème circonscription de la Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté “contrainte” puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.

Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).

Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.

Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.

Une proposition inspirée par l’actualité internationale du droit funéraire

Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.

Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.

La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »

La situation en France

Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.

A défaut de pouvoir supprimer le cercueil, certains réfléchissent à le rendre plus vert. A Saint-Étienne la jeune entreprise Pivert Funéraire a ainsi créé un modèle pour crémation fabriqué à partir de déchet des industries sylvicoles et oléicoles.

D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent intitulé Cercueil(s) & droit(s) qui s’est tenu à l’université Toulouse capitole le 28 novembre 2025.

D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui à lieu en Essonne à travers le projet ANR F-Compost.

En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets comme celui porté par cette proposition de loi puisse voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de 100 ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…

The Conversation

Jordy Bony a travaillé avec le comité de recherche de l’association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.

ref. Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles – https://theconversation.com/une-proposition-de-loi-veut-supprimer-lobligation-dutiliser-un-cercueil-et-relancer-le-debat-sur-la-liberte-des-funerailles-272831

La guerre de l’information autour des métaux stratégiques

Source: The Conversation – in French – By Michel Jébrak, Professeur émérite en ressources minérales, Université du Québec à Montréal (UQAM)

La transition énergétique repose sur une utilisation accrue de métaux. À mesure que cette dépendance augmente, l’attention portée à ces ressources a explosé. En vingt ans, un sujet autrefois réservé aux spécialistes est devenu un enjeu public majeur, et parfois même un motif de tensions internationales.

Dans cet espace de plus en plus exposé, l’information circule vite… et pas toujours correctement. Dans les médias et sur les réseaux sociaux, les fausses nouvelles abondent. Certaines relèvent d’erreurs sincères, d’autres d’approximations intéressées, d’autres encore de stratégies délibérées visant à peser sur les marchés ou à renforcer la position géopolitique d’un pays.

Ces dérives prennent des formes multiples : confusion technique, exagérations, chiffres gonflés, récits séduisants, mais trompeurs, jusqu’aux montages sophistiqués destinés à orienter l’opinion ou les investissements. On peut les regrouper sous une même étiquette : la désinformation minérale.

Pour y voir clair, l’Unesco propose un cadre utile distinguant bien les registres de mésinformation, malinformation et désinformation — un outil précieux pour comprendre comment, dans le domaine des métaux, l’information peut devenir une arme.




À lire aussi :
Le rôle stratégique et essentiel des métaux rares pour la santé


Mésinformation : promesses trop belles et confusion des termes

La mésinformation renvoie à des informations inexactes ou incomplètes. Elle est fréquente au stade de l’exploration minière, quand les promoteurs doivent attirer des capitaux pour des projets miniers tout en rassurant les populations locales. Les chercheurs français Brice Laurent et Julien Merlin parlent d’ « ingénierie de la promesse », des récits optimistes, voire enjolivés, qui mêlent parfois écoblanchiment et espoirs de rendements exceptionnels. Ces approximations peuvent devenir lourdes de conséquences : l’exagération de la taille d’un gisement peut créer l’illusion de prospérité et servir à lever des fonds ou faire monter artificiellement la valeur de l’entreprise en bourse.

La confusion entre « ressources » (un potentiel géologique encore théorique) et « réserves » (une évaluation rigoureuse intégrant la faisabilité économique) demeure répandue, d’autant que les normes de classification varient selon les pays.

Cette ambiguïté a alimenté plusieurs emballements médiatiques. C’est que la multiplication des informations et la vitesse des diffusions augmentent le risque ! En Ukraine, par exemple, l’administration Trump et certains médias ont présenté le pays comme disposant d’immenses « réserves » de terres rares, capables de rivaliser avec la Chine. Or il ne s’agissait pas de réserves au sens strict, mais d’hypothèses géologiques très préliminaires : aucun gisement n’avait été évalué selon les normes internationales ni confirmé économiquement.

L’affaire rappelle le scandale Shell : en 2004, la compagnie reconnaissait avoir surévalué de 20 % ses réserves de pétrole, ce qui a entraîné une chute de valeur d’environ 12 milliards de dollars. Ces cas illustrent combien un vocabulaire précis et des méthodes transparentes sont indispensables.

Autre source d’imprécision : la notion même de « minéraux critiques ». Il n’existe pas de définition internationale consensuelle. Un minéral est dit « critique » lorsqu’il est essentiel à l’industrie et à la technologie d’un pays, mais que son approvisionnement est vulnérable. Chaque État établit donc sa propre liste selon ses besoins et ses risques, certains y incluant même l’or ou le charbon.

Ce pluralisme n’est pas illégitime en soi, mais il ouvre une brèche narrative. Un métal peut être déclaré « critique » pour attirer les investissements ou justifier une politique, puis « déclassé » lorsqu’il suscite trop de convoitises. À l’ère des réseaux sociaux, l’anecdotique peut rapidement prendre l’allure d’un basculement mondial.




À lire aussi :
Le projet d’accord sur les métaux stratégiques Ukraine-États-Unis repose-t-il sur une méprise ?


Malinformation : gonfler les chiffres pour peser sur les marchés

La malinformation relève d’informations exagérées ou fausses destinées à tromper. Des responsables politiques et des États y recourent pour attirer des capitaux étrangers ou rehausser leur poids diplomatique. En 2023, le ministère iranien de l’Industrie, des Mines et du Commerce a annoncé la « découverte de 8,5 millions de tonnes de lithium ». Les États-Unis se sont alors inquiétés, tandis que la Chine y a vu une opportunité stratégique. En réalité, il s’agissait surtout d’hectorite, un minéral argileux ne représentant qu’environ 500 tonnes de lithium exploitable.

En Zambie, le ministre des Mines a vanté « le plus grand gisement de cuivre du monde découvert par intelligence artificielle », alors que KoBold Metals, une start‑up américaine qui utilise l’IA pour repérer ce type de gisement, précisait que la zone était en réalité explorée depuis des décennies. Ces récits séduisent les médias, alimentent les espoirs politiques et attirent des investisseurs, masquant la réalité. Dans ce contexte, le cadre de l’Unesco sur les « désordres informationnels » fournit un vocabulaire utile pour distinguer l’erreur, l’exagération et la manipulation.

Désinformation : l’information comme outil d’influence stratégique

La désinformation consiste à diffuser sciemment de l’information trompeuse pour miner la confiance, manipuler l’opinion ou affaiblir un adversaire. Le concept émerge dans l’orbite soviétique au XXe siècle, lié à toute une panoplie d’opérations destinées à orienter l’opinion internationale. Chez Staline, l’objectif est moins de décrire la réalité que de la produire : énoncer une version officielle, la répéter, mobiliser l’appareil d’État pour la faire croire, puis punir ceux qui la contredisent. La Russie a poursuivi ces pratiques, comme le montre sa stratégie au Sahel, qui visait à évincer l’influence diplomatique et militaire française et à sécuriser des ressources clés — diamants en République centrafricaine, or au Mali et uranium au Niger.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Aujourd’hui, la guerre informationnelle autour des ressources prend de nouvelles formes : campagnes numériques contre des projets concurrents — par exemple, des opérations russes destinées à décrédibiliser le gaz de schiste américain en Europe, ou le lobbying américain présentant son GNL comme l’alternative « démocratique » au gaz russe —, spéculation coordonnée sur les marchés, espionnage industriel et gouvernemental dans le domaine des minéraux critiques. L’Australie estime déjà à plusieurs milliards de dollars les pertes liées à l’espionnage dans le secteur des ressources. Derrière les mots et les chiffres, c’est une lutte pour le contrôle des données qui se joue — et donc pour un avantage technologique et financier durable.

Transparence, vérification, formation, éthique

L’idée d’une science — ici, les sciences de la Terre — entièrement neutre est tentante. Les faits suggèrent pourtant autre chose : l’information géologique agit comme un instrument de pouvoir. Elle peut stabiliser les marchés ou les faire exploser, favoriser la coopération internationale… ou attiser la méfiance.

Pour sortir du brouillard informationnel, un chantier éthique s’impose : promouvoir la transparence des données publiques, renforcer la vérification, et mieux former journalistes et grand public à la lecture critique des annonces techniques. Par exemple, le Service géologique américain publie régulièrement des rapports détaillés sur la production et les réserves de minéraux stratégiques, permettant aux chercheurs, médias et investisseurs de croiser les informations et de détecter les exagérations ou erreurs, tout en masquant cependant certaines informations sensibles.

Sans confiance dans les données géologiques, il ne peut y avoir de transition énergétique crédible. Défendre la fiabilité de l’information scientifique comme bien commun — au même titre que l’eau, l’air ou la biodiversité — devient indispensable. Il est grand temps de construire une éthique de la géo-information.

La Conversation Canada

Michel Jébrak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La guerre de l’information autour des métaux stratégiques – https://theconversation.com/la-guerre-de-linformation-autour-des-metaux-strategiques-269586

Quelle est la différence entre matière noire et antimatière ?

Source: The Conversation – in French – By Dipangkar Dutta, Professor of Nuclear Physics, Mississippi State University

Les galaxies spirales, comme ici Messier 77, ont aidé les astronomes à découvrir l’existence de la matière noire.
NASA, ESA & A. van der Hoeven, CC BY

« Qu’est-ce que la matière noire et qu’est-ce que l’antimatière ? Sont-elles la même chose ou différentes ? » Cet article est issu de notre série pour les plus jeunes lecteurs, Curious Kids, et répond à la question de Namrata, 13 ans, Ghaziabad, Inde.


Les minions dont parle l’auteur de ce texte sont des personnages farceurs et burlesques issus des films Moi, moche et méchant.

Imaginez un jeu vidéo d’aventure avec votre héros préféré comme personnage principal. Un autre personnage, son jumeau miroir, apparaît de temps en temps et fait exploser tout ce qu’il touche. Pour corser encore le tout, le jeu inclut une ruche mystérieuse peuplée de minions cachés à chaque coin, qui changent les règles du jeu sans jamais se montrer.

Si l’on considère ces personnages comme des types de matière, ce jeu vidéo représente en gros le fonctionnement de notre Univers.

Le héros est la matière ordinaire, c’est-à-dire tout ce que nous pouvons voir autour de nous. L’antimatière est le jumeau miroir explosif que les scientifiques arrivent à comprendre, mais plus difficilement à trouver. Et la matière noire représente les minions invisibles : elle est partout, mais nous ne pouvons pas la voir, et les scientifiques ignorent de quoi elle est faite.

Antimatière : le jumeau miroir

Toute la matière ordinaire autour de vous est constituée de blocs de base appelés atomes. Les atomes possèdent des particules chargées positivement appelées protons entourées de minuscules électrons chargés négativement.

On peut considérer l’antimatière comme le jumeau de la matière ordinaire, mais avec des charges opposées.

Toutes les particules, comme les protons et les électrons, ont des « frères et sœurs » d’antimatière. Les électrons ont des positrons, qui sont des anti-électrons, tandis que les protons ont des antiprotons. Les antiprotons et les positrons forment des atomes d’antimatière, ou anti-atomes. Ils ressemblent à des images miroirs, mais avec leurs charges électriques inversées. Quand la matière et l’antimatière se rencontrent, elles se détruisent mutuellement dans un éclair de lumière et d’énergie avant de disparaître.

Heureusement, l’antimatière est très rare dans notre Univers. Mais certains atomes de matière ordinaire, comme le potassium, peuvent se désintégrer et produire de l’antimatière. Par exemple, lorsque vous mangez une banane ou tout aliment riche en potassium, vous consommez de très petites quantités de ces atomes producteurs d’antimatière. Mais la quantité est trop faible pour avoir un effet sur votre santé.

L’antimatière a été découverte il y a presque cent ans. Aujourd’hui, les scientifiques peuvent créer, stocker et étudier l’antimatière en laboratoire. Ils en comprennent très bien les propriétés. Les médecins l’utilisent même pour les PET-Scan. Ils injectent de toutes petites quantités d’atomes producteurs d’antimatière dans le corps et, au fur et à mesure que ces atomes circulent, le scanner prend des images des éclairs de lumière produits par l’annihilation de l’antimatière et de la matière dans le corps. Ce processus permet aux médecins de voir ce qui se passe à l’intérieur du corps.

Les scientifiques ont également découvert qu’à la naissance de l’Univers, il y avait des quantités presque égales de matière et d’antimatière. Elles se sont rencontrées et annihilées. Heureusement, une très petite quantité de matière ordinaire a survécu pour former les étoiles, les planètes et nous tous.

Si la matière et l’antimatière s’annihilent en entrant en contact, et qu’il y avait autrefois des quantités égales de chacune, comment se fait-il qu’il y ait aujourd’hui beaucoup plus de matière que d’antimatière dans l’Univers ?

Matière noire : les minions invisibles

La matière noire est beaucoup plus mystérieuse. Avez-vous déjà tourné très vite sur un tourniquet ? Si oui, vous savez combien il est difficile de rester dessus sans tomber, surtout si vous êtes seul sur le tourniquet.

Maintenant, imaginez qu’il y ait plein de minions invisibles sur ce tourniquet avec vous. Vous ne pouvez ni les voir ni les toucher, mais ils vous retiennent et vous empêchent de vous envoler quand il tourne à toute vitesse. Vous savez qu’ils sont là parce que le tourniquet est plus lourd et difficile à faire tourner qu’il n’y paraît. Les minions ne jouent pas et ne parlent à personne ; ils restent simplement là, ajoutant leur poids à l’ensemble.

Il y a environ cinquante ans, l’astronome Vera Rubin a découvert un mystère similaire dans les galaxies spirales. Elle a observé des galaxies en rotation, qui sont comme des tourniquets cosmiques, et a remarqué quelque chose d’étrange : les étoiles situées à l’extérieur de ces galaxies tournaient beaucoup plus vite qu’elles ne devraient. Elles auraient dû être projetées dans l’espace comme des étincelles d’un feu d’artifice. Mais ce n’était pas le cas.

C’était comme regarder des enfants tourner à une vitesse incroyable sur un tourniquet mais rester parfaitement en place.

L’astronome Vera Rubin a découvert, en observant les galaxies spirales, ce que les scientifiques expliquent aujourd’hui par la matière noire.
Carnegie Institution for Science, CC BY

La seule explication ? Il doit exister un océan de « choses » invisibles qui maintiennent tout en place grâce à leur gravité supplémentaire. Les scientifiques ont appelé cette matière mystérieuse « matière noire ».

Depuis, les astronomes ont observé des comportements étranges similaires dans tout l’Univers. Les galaxies au sein de grands amas se déplacent de manière inattendue. La lumière est plus courbée autour des galaxies qu’elle ne devrait l’être. Les galaxies restent bien plus solidaires que ce que la matière visible seule pourrait expliquer.

C’est comme si notre terrain de jeu cosmique avait des balançoires qui bougent toutes seules et des tape-culs qui basculent alors que personne n’est assis dessus.

La matière noire n’est pour l’instant qu’un nom provisoire, en attendant que les scientifiques découvrent ce que c’est réellement. Depuis cinquante ans, de nombreux chercheurs mènent des expériences pour détecter la matière noire ou la produire en laboratoire. Mais jusqu’à présent, ils sont restés bredouilles.

Nous ne savons pas ce qu’est la matière noire, mais elle est partout. Il pourrait s’agir de particules que les scientifiques n’ont pas encore découvertes ou de quelque chose de complètement inattendu. Mais les astronomes peuvent constater, en observant la vitesse de rotation des galaxies, qu’il y a environ cinq fois plus de matière noire que toute la matière ordinaire de l’Univers.

The Conversation

Dipangkar Dutta bénéficie d’un financement du ministère américain de l’Énergie et de la National Science Foundation.

ref. Quelle est la différence entre matière noire et antimatière ? – https://theconversation.com/quelle-est-la-difference-entre-matiere-noire-et-antimatiere-272386

Du sauveur à l’éboueur : comment les lycéens perçoivent leurs éco-délégués

Source: The Conversation – in French – By Lise Trégloze, Doctorante au Centre de Recherche sur l’Éducation, les Apprentissages et la Didactique, Université Rennes 2

Voilà cinq ans que les élèves du secondaire ont l’obligation d’élire des éco-délégués dans chaque classe. Dans les faits cependant, cette intention n’est pas toujours respectée, et les perceptions quant à leur rôle varient fortement d’un établissement à l’autre.


À quoi servent les éco-délégués ? « Je ne sais pas », « aucune idée », « on n’a pas d’infos », ont répondu la moitié des 380 lycéens interrogés au sujet de leur expérience de l’éducation au développement durable dans leur lycée. Pourtant, chaque établissement scolaire a l’obligation d’organiser l’élection d’au moins un éco-délégué par classe, et ce depuis 2020.

Considérés comme les « pivots du développement durable dans les établissements », l’État les exhorte à devenir les « acteurs du changement » au sein d’un « peuple de colibris », à travers la voix de Jean-Michel Blanquer, alors ministre de l’éducation nationale.

Cinq ans après cette mise en place obligatoire des éco-délégués, « la tension entre ces injonctions et les réalités du terrain » déjà évoquée en 2023 par les chercheuses Évelyne Bois, Aurélie Zwang et Mandarine Hugon, est toujours palpable.




À lire aussi :
Être éco-délégués au collège ou au lycée : quels moyens d’action ?


Un bilan difficile à dresser en l’absence de données officielles

Le ministère de l’éducation nationale affiche certes l’ambition de 250 000 éco-délégués et promeut des ressources et dispositifs d’appui (guides pratiques, prix de l’action de l’éco-délégué, etc.). Cependant, aucun recensement officiel n’est disponible, ni à l’échelle de la direction de l’évaluation, de la prospective et de la performance (DEPP), ni à celle des académies, ni même parfois à celle des établissements. Il est donc compliqué de savoir si chaque classe compte actuellement une ou un éco-délégué. Le travail de terrain nous permet toutefois de déceler que cette obligation n’est pas toujours suivie dans les faits.

Pour tenter de comprendre malgré tout le rôle effectif des éco-délégués, plusieurs ressources sont néanmoins disponibles :

  • une enquête menée en 2023-2024 en région Bretagne auprès d’établissements engagés dans des projets d’éducation au développement durable (EDD), relevant de l’éducation nationale ou de l’enseignement agricole, du secteur public ou privé, de la voie générale ou professionnelle.

  • les quelques travaux existants en science de l’éducation sur l’engagement des éco-délégués.

  • un discret et polémique rapport parlementaire portant sur l’animation des éco-délégués.

À la rencontre des éco-délégués

Des 380 répondants au questionnaire administré auprès de lycéens de Bretagne, 85 % indiquent la présence d’éco-délégués dans leur établissement, même au sein d’un lycée n’ayant pas encore mis en place le dispositif. Moins de 5 % déclarent être eux-mêmes éco-délégué au moment de l’enquête.

À la question « Quelles sont les activités menées par les éco-délégué·es ? », la réponse la plus fréquente (52 %) est donc « Je ne sais pas » ou sans réponse. La question étant ouverte, nous avons pu classer les réponses détaillées des 173 élèves ayant une idée des activités menées. Trois catégories d’acteurs peuvent alors se distinguer dans leurs perceptions du rôle des éco-délégués.

  • Les « agents du changement » (30 %) : les éco-délégués sont avant tout perçus comme les prescripteurs des éco-gestes : ils « trouvent des activités sympas pour insister à ne pas polluer », note une lycéenne. Ils développent, souvent à l’aide de prestataires extérieurs, des nudges inspirés des théories du comportement, pour inciter à la préservation des ressources : une « affiche pour éteindre la lumière », un « autocollant qui se complète que lorsque l’on ferme la fenêtre », un « totem pour recycler le papier »… avec plus ou moins d’efficacité.

Ils peuvent aussi investir des espaces spécifiques, comme un potager, un jardin, un « club nature », ou contribuer à végétaliser la cour. Ils se réunissent souvent le midi, seul temps disponible pour les enseignants comme pour les élèves.

L’éco-délégué est parfois identifié comme l’ambassadeur dont on attend qu’il soit : celui qui « explique les actions et réfléchit à de nouvelles stratégies », qui « présente et propose les projets et motive les élèves », résument des enquêtés. Sa mission de sensibilisation peut progressivement consister à « s’interroger », « trouver des idées pour améliorer le monde pour plus tard », voire à « donner des cours aux camarades », énumèrent d’autres lycéens. Leurs actions « parfois petites mais qui font grandir le lycée » sont vues avec bienveillance. Ils contribuent à « améliorer la vie en communauté pour ne pas avoir à souffrir plus tard », assure une élève. Ils peuvent être perçus comme des innovateurs et apporter des solutions pour « sauver notre terre et l’améliorer », comme l’indique une éco-déléguée.

De façon très marginale, des actions en dehors de la sphère environnementale qui domine les discours sont parfois citées : comme de la sensibilisation sur le handicap, la mise en place de produits d’hygiène féminine ou des « boîtes à livres ».

  • « Les importuns inutiles » (5 %) : Pour certains, les éco-délégués ne font « rien », ou « pas grand-chose ». Leurs rencontres sont identifiées comme l’occasion de « rater les cours pour faire des réunions souvent inutiles » ou pour lesquelles « nous n’avons aucun retour », déplore un élève. Les élèves d’un lycée agricole public en zone rurale sont parmi ceux qui ont les mots les plus durs : les éco-délégués « nous cassent les oreilles » ou sont là « pour faire joli et apporter des idées qui n’aboutissent jamais ».

  • « Les opérateurs de tri » (13 %) : Les éco-délégués ramassent, trient, nettoient, compostent, luttent contre le gaspillage, construisent des poubelles, font des « clean walk » dans leurs lycées, dans leurs villes, sur les plages… Les déchets identifiés sont ceux qui sont visibles, comme le papier ou les mégots, alors que les déchets numériques qui ne cessent de croître ne sont pas mentionnés.

Agir sur les déchets demeure l’activité concrète la plus citée dans l’enquête : qu’elle soit l’unique action ou bien associée à d’autres, perçue de façon conforme aux attendus d’un éco-délégué « acteur du changement » ou de manière plus critique, comme chez ce lycéen qui ironise. « Ils ramassent les poubelles, on ne sait pas s’ils sont délégués ou éboueurs. »

Rappelons que la gestion des déchets dans un établissement scolaire public est une attribution des collectivités qui gèrent les bâtiments. Les projets des éco-délégués peuvent donc impliquer la collaboration d’agents de la collectivité qui sont rarement consultés et, au final, souvent dans l’incapacité de donner suite aux projets commencés, comme la création de composts abandonnés l’année suivante faute de personnel identifié pour les gérer. Il en est de même avec les actions des élèves autour des économies d’énergie dont la portée reste limitée face au défi que représente la rénovation énergétique des bâtiments scolaires, décidée à un tout autre niveau.

Sans remettre en cause l’importance de la gestion des déchets pour la cause écologique et sociale, nous pouvons cependant nous questionner sur l’intérêt d’en faire la mission principale des éco-délégués. Peu de réflexions sur l’origine de ces déchets (surconsommation, obsolescence programmée, mauvaise qualité, réglementation non respectée) ont été observées. Or, sans remise en cause du système à l’origine de la production de ces déchets, les éco-délégués risquent bien de n’occuper qu’une « fonction utilitariste au service des politiques libérales de croissance », pour reprendre les termes des chercheurs Jean-Marc Lange et Angela Barthes.

Un fort effet établissement

Le dispositif des éco-délégués peut également être perçu de manière très différente selon les contextes d’établissements. Dans l’enquête de terrain, les élèves de l’enseignement agricole considèrent les éco-délégués comme des « agents du changement » ou des « opérateurs du tri » dans une proportion supérieure aux attentes. Les élèves de l’éducation nationale suivant une voie de formation générale sont eux beaucoup plus que prévu à répondre ne pas savoir quelles sont les missions des éco-délégués.

Plus surprenant, les élèves d’un lycée pourtant labellisé « établissement en démarche de développement durable (E3D) » et ceux ayant participé à un projet régional sur les ODD (Objectifs de développement durable définis par les Nations unies) sont ceux qui affichent le plus haut pourcentage des « Je ne sais pas » (79 % et 70 %). À l’inverse, les élèves d’un lycée n’ayant pourtant pas encore organisé d’élections d’éco-délégués sont ceux qui les considèrent le plus comme « agents du changement » (49 %).

Perception du rôle des éco-délégués par type d’établissement.
Fourni par l’autrice Lise Trégloze

L’analyse du questionnaire indique par ailleurs que les perceptions des activités des éco-délégués ne varient pas significativement selon le genre, le niveau scolaire ni même selon le vécu scolaire : les élèves se déclarant en réussite ou en échec scolaire et les élèves déclarant avoir une expérience positive ou négative de leur scolarité ont des taux de réponse équivalents. Ainsi, l’effet établissement semble agir plus que le profil socio-scolaire des élèves sur leur perception du rôle de l’éco-délégué. Ces premiers résultats mériteraient cependant d’être consolidés à une échelle plus importante.

Enfin, qu’elle soit conforme aux prescriptions du ministère, restreinte aux déchets ou plus critique, la perception du rôle des éco-délégués se cantonne à la sphère écologique. Les systèmes politiques et économiques à l’origine de l’épuisement des ressources et de la surproduction de déchets ne sont quasiment jamais mentionnés. Cette dépolitisation de la question écologique, notamment dans un contexte scolaire, et « l’invisibilisation des enjeux sociaux » qui l’accompagne sont une tendance déjà bien repérée par les recherches en éducation, comme en témoigne le récent ouvrage d’Irène Pereira sur l’éco-pédagogie (2024).

Quant au profil socio-scolaire des éco-délégués, sans étude statistique nationale, difficile de dresser le portrait type. Le rapport parlementaire réalisé sur ce sujet par une députée de la majorité, dresse un panorama assez mitigé. Le dispositif des éco-délégué est accusé de renforcer les stéréotypes de genre en confiant les tâches du « care », et notamment du maintien de la propreté des lieux, aux filles plus qu’aux garçons. Constat déjà largement documenté en sociologie.

Si les éco-délégués perçoivent bien que l’on attend d’eux qu’ils soient force de propositions, ils sont pourtant dirigés, de manière explicite ou plus implicite, vers les actions déjà en cours ou impulsées par leurs encadrants, considérées comme réalisables et « allant dans le bon sens ». Un acteur du changement donc, mais dans les limites de l’acceptable.

Parmi les éco-délégués interrogés pendant l’enquête, certains s’épanouissent clairement dans leur mission, regrettent parfois qu’elle ne puisse pas s’étendre davantage ou se pérenniser d’une année sur l’autre ou d’un établissement à l’autre. Pour d’autres, elle est synonyme d’usure ou de déception, comme en témoigne cet éco-délégué élève de seconde (lycée privé, zone rurale) :

« C’est bien gentil de faire les petits gestes, mais un moment il va falloir faire les grands, et c’est pas le gouvernement qui s’en occupe. »

Tantôt colibris, tantôt ambassadeurs, tantôt sauveurs, tantôt éboueurs… les éco-délégués cumulent ainsi les casquettes sans véritables moyens pour agir, alors même que les défis auxquels ils sont censés répondre ne cessent de croître dramatiquement.

Certes, nous pouvons convenir que les cinq dernières années n’ont pas été de tout repos pour le milieu scolaire : crise sanitaire de la Covid et huit ministres de l’éducation nationale qui se sont succédé. Cependant, nous pouvons constater qu’après un engouement pour les enjeux de développement durable post-COP21, les moyens attribués au déploiement de l’éducation au développement durable peinent encore à être rassemblés à la hauteur des objectifs auxquels la France continue de s’engager, COP après COP.




À lire aussi :
De COP en COP, une géopolitique de la procrastination climatique


The Conversation

Lise Trégloze a reçu une bourse de recherche doctorale de la région Bretagne (dispositif ARED).

ref. Du sauveur à l’éboueur : comment les lycéens perçoivent leurs éco-délégués – https://theconversation.com/du-sauveur-a-leboueur-comment-les-lyceens-percoivent-leurs-eco-delegues-271812

Comment promouvoir la durabilité grâce à des applications géolocalisées, sans pour autant inquiéter la vie privée des utilisateurs ?

Source: The Conversation – France (in French) – By Catherine Lejealle, Enseignant-chercheur en marketing digital, Responsable de l’axe de recherche Création de matériaux et cas pédagogiques, ISC Paris Business School

En mettant en relation des inconnus autour du don, du partage et de la solidarité locale, les applications de géomatching apparaissent comme de puissants leviers des Objectifs de développement durable élaborés par l’ONU. Leur succès dépend pourtant d’un équilibre délicat entre impact sociétal, exposition des données personnelles et sentiment de sécurité.


Les 17 Objectifs de développement durable (ODD), élaborés par les Nations unies pour transformer le monde d’ici à 2030, nécessitent l’implication du plus grand nombre. Or, de nombreuses applications géolocalisées, fondées sur la mise en relation entre particuliers, offrent un potentiel considérable pour accélérer ce changement. Chaque ODD peut aujourd’hui s’appuyer sur des centaines d’initiatives de « géomatching ».

Pour l’ODD 1 (« pas de pauvreté »), par exemple, FallingFruit met à disposition des glaneurs plus de 4 039 ressources alimentaires distinctes, réparties sur près de deux millions de sites. GEEV permet de récupérer gratuitement des meubles près de chez soi, tandis qu’Olio facilite le partage des surplus alimentaires entre voisins grâce à une communauté de plus de 8 millions de membres.

Ces plates-formes génèrent des impacts concrets sur les trois piliers du développement durable :

  • Social : elles renforcent la solidarité locale et créent de nouveaux liens sociaux ;

  • Économique : elles réduisent la pauvreté et améliorent le quotidien de chacun ;

  • Environnemental : elles diminuent les déchets et prolongent la durée de vie des objets.

Une épineuse question de sécurité

Cependant, leur fonctionnement repose sur la divulgation de données personnelles, notamment la géolocalisation reconnue comme particulièrement sensible par la Commission européenne. Contrairement aux transactions classiques sur des plates-formes comme Leboncoin ou Vinted, les applications de géomatching impliquent souvent une rencontre physique, parfois au domicile d’un particulier.

Aller chez un inconnu ou accueillir un inconnu chez soi n’est pas anodin. La confiance que l’on peut accorder à une marque pour personnaliser des offres ne suffit plus : ici, les données doivent être partagées directement avec d’autres utilisateurs. Ce besoin de sécurité explique le succès d’applications comme Gensdeconfiance, fondées sur la recommandation entre membres.

Les risques perçus sont renforcés par le contexte : augmentation des violations de données, multiplication des infox, usurpations d’identité… Les internautes sont méfiants : 72 % se disent préoccupés par la traçabilité de leurs activités en ligne (enquête de l’Insee auprès des ménages sur les technologies de l’information et de la communication de 2021) surtout que les violations notifiées à la CNIL ont augmenté de 20 % en 2024. Ainsi 76 % ont limité ou renoncé, selon l’enquête Insee TIC de 2019, à une activité en ligne à cause de craintes sur la sécurité.

Une piste : la présence sociale

Face à ces inquiétudes, une piste prometteuse émerge : la présence sociale. Elle désigne la capacité d’une interface numérique à faire ressentir une présence humaine. En humanisant l’expérience, elle rassure et contrebalance partiellement le sentiment de sacrifice inhérent au partage de données personnelles. Elle donne à l’utilisateur l’impression d’intégrer une communauté active, plutôt que de confier ses informations à un espace impersonnel.

Concrètement, cette présence sociale peut être renforcée grâce à des indicateurs communautaires :

  • nombre de visites déjà effectuées chez un membre,

  • quantité de fruits glanés,

  • photos du lieu,

  • retours d’expérience visibles et authentifiés.

Plutôt que de mettre en avant les « meilleures ventes » comme le font de nombreuses plates-formes, le design de l’application pourrait valoriser les interactions réelles, les contributions et les preuves d’activité. Cela rendrait la communauté plus vivante, plus incarnée, et donc plus rassurante.

Le rôle ambivalent des algorithmes

Dans les applications de géomatching, la confiance ne repose pas uniquement sur des recommandations explicites, comme dans Gensdeconfiance, mais aussi sur cette impression de proximité humaine. Les algorithmes et l’IA ont un rôle ambivalent : ils peuvent enrichir cette présence (avec, par exemple, des agents conversationnels sociaux) ou au contraire nourrir la méfiance (en renforçant la crainte des faux avis ou des profils fictifs). L’enjeu est donc de concevoir des technologies qui servent la confiance, plutôt que de l’éroder.

Si ces conditions sont réunies, les applications de géomatching pourraient connaître une adoption bien plus large et contribuer véritablement à l’atteinte des 17 ODD. Alors, pourquoi ne pas commencer dès maintenant à explorer ces initiatives et à agir, à votre échelle, en faveur de la planète ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Comment promouvoir la durabilité grâce à des applications géolocalisées, sans pour autant inquiéter la vie privée des utilisateurs ? – https://theconversation.com/comment-promouvoir-la-durabilite-grace-a-des-applications-geolocalisees-sans-pour-autant-inquieter-la-vie-privee-des-utilisateurs-272575