Donald Trump peut-il poursuivre la guerre en Iran sans l’accord officiel du Congrès ?

Source: The Conversation – in French – By John Hart, Emeritus Faculty, US government and politics specialist, Australian National University

Depuis le 2 mars, le Congrès avait soixante jours pour avaliser l’intervention contre l’Iran. Le délai expire ce 1er mai, et la guerre n’a toujours pas été autorisée. Donald Trump ne va sans doute pas rappeler ses militaires pour autant. Mais les élus démocrates, hostiles à ce conflit, pourraient bientôt voir une partie de leurs collègues républicains leur prêter main-forte pour tenter d’imposer la cessation d’une opération très impopulaire.


Si Donald Trump ne met pas fin à la confrontation militaire de son pays avec l’Iran dans les tout prochains jours, il enfreindra la loi des États-Unis.

La loi sur les pouvoirs de guerre (War Powers Resolution) adoptée en 1973 stipule qu’un président américain ne peut pas conduire une guerre sans l’aval du Congrès pendant plus de soixante jours. Passé ce délai, soit le Congrès doit déclarer la guerre et donc l’autoriser officiellement, soit le commandant en chef est constitutionnellement tenu de cesser les hostilités.

Même si un cessez-le-feu précaire prévaut actuellement entre Washington et Téhéran, le texte s’appliquerait en tout état de cause aux navires chargés de maintenir le blocus américain des ports iraniens.

Ce vendredi 1er mai, soixante jours se seront écoulés depuis le lancement de l’opération Epic Fury le 28 février dernier. Que signifie le dépassement de ce délai légal ?

Qu’est-ce que la loi sur les pouvoirs de guerre ?

Adoptée en novembre 1973 par le Congrès — une majorité des deux tiers a pu surmonter le veto opposé par le président Richard Nixon —, la loi sur les pouvoirs de guerre visait à mettre fin à l’usurpation récurrente, par les présidents des États-Unis, de la prérogative de déclarer la guerre, qui revient constitutionnellement au Congrès. Le texte a été adopté dans un contexte marqué par le départ du contingent américain du Vietnam à l’issue de plusieurs années d’une guerre que le Congrès n’avait jamais officiellement autorisée.

Plus de cinquante ans plus tard, force est de constater que cette loi n’a pratiquement jamais été réellement appliquée. Comprenant plusieurs formulations juridiques imprécises, le texte admet de nombreuses exceptions et ouvre la voie à de multiples interprétations différentes. Au cours des décennies, les présidents successifs et leurs conseillers se sont engouffrés dans ces brèches.

Ainsi, depuis Nixon, aucun président n’a véritablement été contraint par l’existence de la loi. Ceux qui ont déclenché des opérations sans feu vert du Congrès (Reagan en Grenade en 1983 ; George Bush père au Panama et en Yougoslavie en 1999 ; Biden au Yémen en 2023 ; puis Trump au Venezuela et en Iran en 2026, NDLR) se sont contentés de l’évoquer du bout des lèvres sans jamais réellement se mettre en conformité avec son esprit.

Le Congrès lui-même porte une porte de responsabilité de cet échec, lui qui a souvent renoncé à exercer ses prérogatives constitutionnelles en matière de déclaration de guerre. Pour autant, dans le conflit actuel, la loi pourrait bien être réactivée, avant tout parce qu’elle offre aux élus républicains hostiles à ce conflit un moyen de tenter de mettre fin à une guerre devenue impopulaire.

Que dit la loi ?

L’article 4 impose au président de présenter un rapport au Congrès dans les quarante-huit heures suivant l’engagement des troupes américaines dans des « hostilités ». Ce document doit détailler le fondement constitutionnel et législatif sur lequel repose l’action, sa justification, ainsi que l’ampleur et la durée prévues de l’intervention américaine.

La présentation de ce rapport déclenche alors un délai de soixante jours prévu par l’article 5. Si, à l’expiration de ce délai, le Congrès n’a pas déclaré ou autorisé la guerre — ou prolongé le délai —, le président doit impérativement mettre fin à l’action militaire.

Du fait du caractère automatique de cette disposition, les législateurs n’ont rien à faire pour la déclencher. Ils n’ont donc pas à se prononcer publiquement contre la politique militaire et de sécurité nationale conduite par le président.

Donald Trump a soumis son rapport sur la guerre avec l’Iran le 2 mars ; le compte à rebours de 60 jours expire donc le 1er mai.

Jusqu’à présent, le Congrès n’a toujours pas déclaré la guerre, bien que les républicains aient bloqué de nombreuses initiatives législatives des démocrates visant à mettre fin à la guerre ou à limiter la capacité de Trump à agir sans l’accord du Congrès. Ce dernier a également la possibilité de prolonger le délai de 60 jours pour une durée maximale de 30 jours, ce qui nécessiterait un vote à la Chambre des représentants et au Sénat.

Des républicains de plus en plus mal à l’aise

Ce qui distingue fondamentalement cette guerre contre l’Iran des autres conflits menés par les récents présidents américains, c’est son impopularité. 34 % seulement des Américains la soutiennent, selon un sondage Reuters-Ipsos publié cette semaine.

On n’a observé aucun « effet de ralliement autour du drapeau » depuis le déclenchement d’Epic Fury. Les élus du Congrès, très sensibles à l’opinion de leurs électeurs, n’hésitent pas à s’opposer à Trump sur cette question. Beaucoup s’exposeraient à un retour de bâton électoral s’ils affichaient publiquement leur soutien à la guerre.

Exemple parmi d’autres : le sénateur républicain de l’Utah John Curtis a publié un article dans lequel il déclare qu’il ne soutiendra pas la guerre si le délai de 60 jours expire sans l’accord du Congrès. D’autres républicains ont fait écho à cette position.

Que se passera-t-il si Trump ignore la date butoir ?

Compte tenu de son mépris général pour la Constitution et le droit écrit, Donald Trump ignorera très probablement l’obligation légale de mettre fin à la guerre. Il pourrait, comme Nixon en 1973, arguer que la loi sur les pouvoirs de guerre est inconstitutionnelle, et cherchera sûrement à la contester devant les tribunaux.

Tout dépendra alors de la réaction du Congrès. Les démocrates envisageraient d’intenter une action en justice contre l’administration, bien que de tels recours se soient jusqu’ici révélés d’une efficacité limitée.

Le président pourrait également faire valoir que la « loi ne s’applique pas », car les forces américaines ne sont actuellement pas engagées dans des hostilités directes en Iran — un argumentaire déjà employé par Barack Obama lorsque le délai de 60 jours avait expiré lors des opérations militaires américaines en Libye en 2011.

Le 2 mars, quand Trump a adressé une notification officielle au Congrès, il a tenu à préciser qu’il agissait en vertu de son « autorité constitutionnelle en tant que commandant en chef et chef de l’exécutif » — mais aucune de ces deux fonctions ne lui confère le pouvoir d’engager les États-Unis dans une guerre sans l’approbation du Congrès. Il n’a d’ailleurs pas évoqué la loi sur les pouvoirs de guerre, se contentant de déclarer que son rapport était « conforme » à celle-ci — une formulation standard utilisée par ses prédécesseurs, qui ont tous fait preuve d’une certaine réticence à respecter ses dispositions.

Par le passé, lorsque les présidents et le Congrès se sont affrontés au sujet de la loi sur les pouvoirs de guerre, ils sont généralement parvenus à un compromis au cas par cas, souvent favorables au président. Mais cette fois-ci, la donne pourrait changer. Trump gère mal une guerre impopulaire, avec des majorités très fragiles au Sénat (53 républicains et 45 démocrates) et à la Chambre des représentants (218-212), à six mois des élections de mi-mandat.

Si rien ne change d’ici le 1er mai, la loi de 1973 pourrait connaître son heure de gloire en devenant, pour la première fois depuis son apparition, un véritable instrument de confrontation entre les pouvoirs exécutif et législatif.

The Conversation

John Hart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Donald Trump peut-il poursuivre la guerre en Iran sans l’accord officiel du Congrès ? – https://theconversation.com/donald-trump-peut-il-poursuivre-la-guerre-en-iran-sans-laccord-officiel-du-congres-281765

Drones, robots, IA : la technologie suffit-elle à préparer la guerre du futur ?

Source: The Conversation – in French – By Nicolas Minvielle, Docteur en économie, spécialiste des questions d’innovation et de défense, Audencia

La prospective militaire ne se contente pas de décrire l’avenir, elle contribue à le façonner. Dès lors, une question s’impose : quelles hypothèses guident aujourd’hui nos représentations de la guerre, et que laissent-elles dans l’ombre ?


Les imaginaires contemporains de la guerre sont saturés d’images technologiques : drones autonomes, essaims robotisés, intelligence artificielle, armes hypersoniques, cyberconflits permanents. La conflictualité du futur s’y donne à voir comme un théâtre d’objets, toujours plus rapides, plus intelligents, plus autonomes.

Ces représentations ne sont pas fausses. Mais elles sont incomplètes – et, à bien des égards, trompeuses. En concentrant l’attention sur les innovations visibles, elles produisent un effet de substitution cognitive : la technologie devient le lieu apparent de la transformation, reléguant au second plan les dynamiques structurelles qui conditionnent pourtant son efficacité.

Ce déplacement du regard n’est pas neutre. Il reconduit une forme de fétichisme technologique où les artefacts sont perçus comme des causes, plutôt que comme des expressions de systèmes plus profonds. Or, les guerres ne se gagnent pas uniquement par les objets que l’on voit, mais par les structures que l’on ne voit pas (logistiques, industrielles, organisationnelles, sociales).

Nous continuons à observer la guerre par sa surface, mais beaucoup de choses se jouent ailleurs.

Quelles variables importent le plus ?

L’histoire militaire l’a souvent montré : les conflits sont moins déterminés par une innovation isolée que par la combinaison de facteurs structurels. La logistique, la capacité industrielle, la cohésion sociale, l’organisation des forces ou la résilience économique jouent souvent un rôle déterminant.

L’historien et analyste Stephen Biddle, dans un ouvrage déterminant écrit au début des années 2000, Military Power, démontre ainsi que la performance militaire dépend moins de la sophistication technologique que de l’intégration de cette technologie dans un « système de combat moderne » cohérent, reposant sur la coordination interarmes, la dispersion des unités, la discipline tactique et la capacité d’adaptation. Pour l’auteur, la supériorité américaine lors de la guerre du Golfe en 1991 ne s’explique pas uniquement par la possession de munitions guidées de précision, ou d’autres technologies d’ailleurs, mais par leur insertion dans un ensemble doctrinal et organisationnel plus large, combinant renseignement, commandement, logistique, dimensionnement adéquat des unités et supériorité aérienne. Autrement dit, la technologie n’est performative que lorsqu’elle est absorbée par un système capable de la rendre opérante.

La guerre moderne dépend par exemple de systèmes logistiques complexes, de réseaux énergétiques, de chaînes d’approvisionnement mondialisées et de capacités industrielles capables de soutenir un effort militaire prolongé. Souvent présenté comme l’avion de combat le plus avancé au monde, le F35 américain dépend d’un système informatique qui centralise notamment toutes les données de maintenance et d’opération (initialement le système ALIS remplacé progressivement par ODIN). Comme le montrent plusieurs rapports, cette dépendance crée des vulnérabilités importantes : remontée des données d’usage et de maintenance aux États-Unis avec une potentielle perte de souveraineté induite pour les usagers non américains, dépendance aux infrastructures états-uniennes, difficultés de maintenance, etc. Ainsi, une plateforme technologiquement supérieure peut devenir un point de fragilité systémique si elle s’inscrit dans un écosystème logistique instable ou centralisé.

De même, des variables moins visibles peuvent s’avérer décisives, comme le moral des troupes, la cohésion des sociétés, la culture organisationnelle des armées, la capacité d’adaptation doctrinale ou le lien entre les armées et le politique.

Le cas ukrainien semble en être un excellent exemple : cohésion nationale, commandement décentralisé, capacité d’innovation tactique, intégration rapide de technologies civiles (drones commerciaux, plates-formes de communication comme Telegram ou Starlink). Cette « adaptabilité distribuée » a permis à l’Ukraine de compenser des asymétries initiales majeures en matière de puissance de feu et de ressources.

Dans cette perspective, la question n’est pas que les technologies sont secondaires, mais c’est simplement qu’il faut les appréhender moins comme des ruptures autonomes que comme des multiplicateurs d’effets au sein de systèmes plus larges. Elles n’abolissent ni la friction ni l’incertitude ; elles vont simplement redéfinir les termes dans lesquels ces dernières s’expriment. Les asymétries technologiques n’ont pas permis aux États-Unis de remporter la guerre en Afghanistan, certains critiques expliquant simplement que les Américains n’avaient pas compris la nature sociale, culturelle et politique du conflit. Et aucune technologie n’a semblé capable de pallier cela.

Comprendre les conflits contemporains et à venir implique donc de déplacer le regard : des objets visibles vers les dynamiques invisibles, des capacités affichées vers les structures profondes, des innovations spectaculaires vers les processus d’apprentissage et d’adaptation qui en conditionnent l’efficacité réelle.

Si l’on prend cette idée de multiplicateur, l’intelligence artificielle, par exemple, améliore les capacités de ciblage ou de reconnaissance, mais elle transforme également des dimensions moins visibles : optimisation logistique, gestion sanitaire des forces avec un accompagnement aux décisions de triage médical, anticipation des risques environnementaux ou épidémiologiques, logistique des médicaments. Des travaux récents en défense montrent ainsi que l’IA peut avoir des effets systémiques en modifiant les processus de décision, les structures de commandement et les modes de formation.

Un jeu d’anticipations imbriquées

Même si nous regardions les bonnes variables, un problème fondamental demeurerait : l’adversaire pense aussi. La stratégie n’est pas une science exacte, c’est un jeu d’anticipations imbriquées, chaque acteur tentant d’anticiper les décisions des autres. Mais il doit aussi anticiper ce que les autres pensent qu’il fera lui-même. Cette dynamique produit des chaînes d’anticipation complexes, où les perceptions et les représentations jouent un rôle central.

La guerre devient alors, en partie, une collision d’erreurs anticipées. Les conflits pouvant émerger plus facilement lorsque plusieurs acteurs interprètent mal les intentions de leurs adversaires, surestiment leurs propres capacités ou sous-estiment les risques d’escalade. Les surprises stratégiques pouvant naître ou être aggravées par ces décalages de perception.

Les scénarios, les discours prospectifs et les imaginaires de guerre ne se contentent pas, quant à eux, de décrire des évolutions possibles : ils contribuent à orienter les comportements présents. Les acteurs prennent leurs décisions en fonction de futurs anticipés, même incertains. Ces « attentes fictionnelles » structurent ainsi les investissements, les doctrines et les arbitrages stratégiques.

Cette performativité des visions du futur est aujourd’hui largement documentée. Les technologues et historiens Sheila Jasanoff et Sang-hyun Kim ont ainsi introduit en 2015 la notion « d’imaginaire sociotechnique » pour désigner la manière dont des représentations collectives du futur orientent les politiques publiques et les trajectoires technologiques. Appliquée au domaine militaire, cette approche permet de comprendre comment certaines visions de la guerre – notamment celles centrées sur l’autonomie, la vitesse et la précision algorithmique – structurent déjà les programmes d’armement et les doctrines d’emploi.

Sorti en 2021, le long métrage Zone hostile met en scène un pilote de drone obligé de faire équipe avec un officier androïde dans une zone militarisée.

Les visions du futur circulent aujourd’hui dans les doctrines militaires, les think tanks, les simulations de crise, mais aussi dans la culture populaire, les jeux vidéo ou les représentations médiatiques de la guerre. Et ces récits contribuent à structurer les attentes collectives et les décisions stratégiques. Les États-Unis ont clairement compris à quel point ces récits jouent un rôle stratégique.

Des recherches soulignent l’imbrication étroite de Hollywood, du Pentagone et de l’industrie de défense dans la production d’images de guerre. Ces représentations ne se limitent pas à la sphère culturelle : elles participent à la légitimation des choix stratégiques et à la diffusion internationale d’un imaginaire technologique de la conflictualité. Leur diffusion est telle qu’elles ont d’ailleurs un impact sur les visions européennes, affectant notre capacité à envisager de manière originale et alternative les conflits à venir.

Ne pas rétrécir le futur

La prospective militaire ne vise pas à prédire avec exactitude ce que sera la guerre en 2040 ou en 2050. Elle consiste plutôt à éviter certaines formes de surprise stratégique et à se préparer aux conflits de demain, en élargissant le champ des futurs envisagés et en identifiant les dynamiques susceptibles de transformer des tensions en ruptures.

Penser le futur est un acte pleinement stratégique. Les scénarios produits aujourd’hui orientent déjà les investissements, les doctrines et les alliances de demain. À ce titre, ils contribuent à structurer les conflits futurs autant qu’ils prétendent les anticiper. Dès lors, la question centrale pourrait d’ailleurs ne pas être de savoir quel sera le futur de la guerre, mais de comprendre dans quelle mesure nos représentations actuelles contribuent, sans que nous en ayons toujours conscience, à en réduire la diversité et à en orienter les formes.

The Conversation

Nicolas Minvielle est membre du comité d’orientation de la Fabrique de la Cité, il a été animateur de la Red Team Défense et est LCL (R) auprès du Commandement du Combat Futur de l’Armée de terre. Il est aussi cofondateur de Making Tomorrow et investisseur dans Command AI

Marie Roussie est membre du Collectif Making Tomorrow et de la société Alt-a. Elle a travaillé au sein de la Red Team Défense du ministère des Armées, terrain de recherche de sa thèse. Depuis elle poursuit l’exploration stratégique et prospective des théâtres d’opérations militaires avec différents acteurs.

ref. Drones, robots, IA : la technologie suffit-elle à préparer la guerre du futur ? – https://theconversation.com/drones-robots-ia-la-technologie-suffit-elle-a-preparer-la-guerre-du-futur-278805

Des virus hors-norme qui orchestrent la vie aux pôles

Source: The Conversation – in French – By Thomas M.Pitot, Chercheur Postdoctoral, Université du Québec à Chicoutimi (UQAC)

Longtemps ignorés en raison de leur taille, les virus géants redéfinissent aujourd’hui les frontières de la microbiologie. Au cœur des écosystèmes arctiques, ils ne sont pas de simples parasites, mais de véritables chefs d’orchestre de la vie microbienne et des cycles élémentaires planétaires.


Des géants longtemps passés inaperçus

Les virus constituent des acteurs majeurs du fonctionnement des écosystèmes, où ils influencent profondément la dynamique des communautés microbiennes, les flux de matière et les cycles biogéochimiques globaux. Pourtant, malgré leur abondance et leur importance écologique, une large partie de la virosphère est longtemps restée invisible à la science.

Cette lacune s’explique en grande partie par les approches méthodologiques historiques de la virologie environnementale. L’étude des virus nécessite de prélever des échantillons naturels, puis d’isoler les virus présents. Pour cela, il faut trier ces derniers des autres organismes cellulaires, qui sont généralement de 10 à 100 fois plus gros. Traditionnellement, la méthode utilisée pour isoler les virus fonctionne donc sur la base de la taille : on utilise un filtre pour retenir les organismes de grande taille, afin de ne conserver que les virus.

Cette approche, efficace pour la majorité des virus connus à l’époque, a cependant conduit à l’exclusion involontaire de virus de très grande taille, dont on ignorait l’existence. Ces organismes sont ainsi demeurés invisibles pour la virologie dite « traditionnelle ».

Une découverte inattendue

C’est dans ce contexte qu’au début des années 2000 un virus atypique est isolé par hasard. Il est initialement identifié à tort comme une bactérie intracellulaire obligatoire de l’amibe Acanthamoeba polyphaga. En raison de sa ressemblance avec un microbe, il est baptisé Mimivirus pour microbe-mimicking virus en anglais et sera enregistré auprès de l’International Committee on Taxonomy of Viruses sous le nom d’espèce Acanthamoeba polyphaga mimivirus, puis renommé Mimivirus bradfordmassiliense en 2024.

Cette découverte marque l’émergence d’un nouveau groupe de virus qualifiés de géants, les Nucleocytoviricota. Ces virus se distinguent par leur taille exceptionnelle, comparable à celle de petites bactéries, et par des génomes à ADN massifs pouvant atteindre jusqu’à 2,5 millions de paires de bases, les unités élémentaires de l’ADN, codant pour des centaines à des milliers de gènes issus de tous les domaines du vivant.

Contrairement aux bactériophages, qui régulent les populations bactériennes, les virus géants infectent une grande diversité de micro-algues et de petits zooplanctons. Depuis leur identification, ces virus ont profondément bouleversé notre compréhension de la nature même des virus, remettant en question la frontière entre le vivant et le non-vivant, et leur niveau de dépendance aux hôtes qu’ils infectent. Certains virus géants possèdent une partie de leur propre machinerie de réplication, ce qui leur permet d’effectuer l’essentiel de leur cycle de reproduction dans le cytoplasme de la cellule hôte.

Aujourd’hui, la démocratisation des techniques de séquençage de l’ADN, la mise en place d’une structure taxonomique spécifique et le développement d’outils bioinformatiques pour la détection de ces virus ont permis de montrer l’importante distribution et la grande diversité des virus géants dans de très nombreux écosystèmes. Les recherches ont montré qu’ils occupent un rôle majeur dans le fonctionnement et la dynamique microbienne à l’échelle planétaire.




À lire aussi :
La vie secrète d’une famille d’ours polaires


Des ingénieurs des écosystèmes polaires

La structure des réseaux trophiques polaires, souvent qualifiée de « tronquée », amplifie l’influence écologique de ces virus. Dans les habitats aquatiques ou gelés des pôles, en l’absence de grands prédateurs multicellulaires, la vie est dominée par les micro-organismes unicellulaires. Les protistes et les micro-algues y occupent des rôles centraux, mais sont également les hôtes privilégiés des virus géants qui se positionnent ainsi au sommet de la pyramide alimentaire.

Mais ces virus ne sont pas de simples parasites. Ils agissent comme de véritables ingénieurs biogéochimiques via deux mécanismes clés :

  • Le court-circuit viral (viral shunt) : En provoquant la lyse de leurs hôtes, ils libèrent massivement de la matière organique dissoute et particulaire dans l’environnement. Ce processus réinjecte les nutriments directement dans la boucle microbienne, soutenant ainsi la productivité microbienne locale.

  • La reprogrammation métabolique : Grâce à des gènes métaboliques auxiliaires (AMG), les virus géants modulent activement la physiologie et l’activité métabolique de leur hôte pendant l’infection. Ils semblent ainsi pouvoir optimiser l’acquisition de nutriments, manipuler la synthèse des lipides pour maintenir la fluidité des membranes, ou même influencer la production d’énergie de l’hôte.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les virus géants parasités

Toutefois, l’influence prédominante des virus géants aux pôles est elle-même régulée par un autre acteur, celui-ci plus discret : les virophages (Lavidaviridae). Ces petits virus ne peuvent se multiplier qu’en parasitant les « usines virales » créées par les virus géants (de la famille des Mimiviridae) à l’intérieur des cellules hôtes infectées. En détournant les ressources destinées à la production de nouveaux virus géants, les virophages réduisent la capacité d’infection et leur production de virions (la forme libre du virus).

Ce mécanisme de « parasitisme de parasite » introduit une complexité supplémentaire dans la boucle microbienne et le court-circuit viral. Cela a des conséquences majeures sur la stabilité des écosystèmes. Par exemple, des modélisations basées sur le système d’Organic Lake en Antarctique montrent que la présence du virophage OLV diminue la mortalité des micro-algues. Paradoxalement, il permet des floraisons d’algues plus fréquentes en limitant la virulence des virus géants, agissant ainsi comme un stabilisateur du réseau trophique.

Plus surprenants encore, certains virophages peuvent s’intégrer directement dans le génome de l’hôte microbien sous forme d’éléments viraux endogènes (EVEs). Ces séquences génétiques restent dormantes jusqu’à ce que la cellule soit infectée par un virus géant. Elles se réactivent alors pour entraver la réplication virale, fonctionnant comme un véritable système de défense antiviral acquis par l’hôte au fil de l’évolution.

Ces interactions complexes entre hôtes, virus géants et virophages, révèlent une couche de régulation biologique indispensable à la résilience des milieux extrêmes. C’est dans ce contexte de dépendance extrême aux conditions cryosphériques que certains environnements polaires, comme le Dernier refuge de glace (Last Ice Area), deviennent des réservoirs uniques de diversité virale encore largement inexplorée.

Un sanctuaire d’endémisme viral

Le Dernier refuge de glace (DRG) est la région de l’Océan Arctique qui devrait conserver sa glace de mer pluriannuelle plus longtemps que toute autre région du Nord, face au réchauffement climatique actuel. Situé le long des côtes septentrionales du Groenland et de l’archipel arctique canadien, le DRG se caractérise par la glace la plus épaisse et la plus ancienne de l’océan Arctique. Cette région est considérée comme un futur refuge climatique pour les organismes dépendants de la glace et un bastion de stabilité cryosphérique à long terme.




À lire aussi :
De nouvelles données sur le « dernier refuge de glace » pourraient contribuer aux efforts de conservation dans l’Arctique


Le long de la marge terrestre du dernier refuge de glace (MDRG) se trouve une étroite bande côtière comprenant divers systèmes d’eau douce perpétuellement recouverts de glace (lacs épi-plateformes, lacs à barrage de glace, lacs méromictiques), des fjords, des baies côtières et des habitats terrestres marginaux. Ces systèmes sont protégés des changements par les conditions de froid persistant maintenues par le DRG.

Ils ont connu des siècles, voire des millénaires de froid ininterrompu, une connectivité hydrologique minimale et un isolement géographique extrême conduisant à des taux d’endémisme extrêmes dans les populations de virus géants. Dans ces systèmes, ils se répartissent selon des niches écologiques précises dictées par les gradients de lumière, d’oxygène et de salinité, démontrant une adaptation fine aux contraintes extrêmes de l’Arctique.

En tant que refuge de conditions cryosphériques anciennes, la MDRG offre un laboratoire naturel pour comprendre comment virus et leurs hôtes se sont développées et ont évolué sous des régimes de froid stable.

Finalement, elle fait également office de sentinelle climatique : l’amplification arctique et le réchauffement rapide menacent les couvertures de glace pérennes et les colonnes d’eau stratifiées qui maintiennent l’isolement des lacs uniques de la MDRG, ainsi que la stabilité des glaciers environnants. Leur dégradation rapide risque d’entraîner la perte de communautés microbiennes uniques. La rupture de ces barrières physiques pourrait déclencher une restructuration écologique rapide, une perte de diversité endémique et des changements à long terme dans le fonctionnement biogéochimique des écosystèmes du Haut-Arctique.

La Conversation Canada

Catherine Girard a reçu des financements du CRSNG, du NFRF, de Génome Québec.

Thomas M.Pitot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des virus hors-norme qui orchestrent la vie aux pôles – https://theconversation.com/des-virus-hors-norme-qui-orchestrent-la-vie-aux-poles-278366

« Twin Peaks » : les ingrédients d’une série culte

Source: The Conversation – in French – By Maxime Parola, Doctorant en Art, Université Côte d’Azur

Dana Ashbrook dans le rôle de Bobby Briggs et Peggy Lipton dans celui de Norma Jennings. ABC/Allociné

La chaîne franco-allemande Arte propose sur son site de revoir l’intégrale de la série Twin Peaks (1990-1991 et 2017). Mais avant de nous replonger dans la « Black Lodge », essayons de comprendre comment une série si insolite est devenue culte.


Twin Peaks est le fruit de deux esprits singuliers, le scénariste Mark Frost, venant de la télévision, et le réalisateur David Lynch, issu du cinéma. Si Lynch a déjà montré sa singularité avec des films comme Eraserhead (1977) ou Blue Velvet (1986), Frost est en 1990 un scénariste de télévision plutôt consensuel.

La série s’ouvre sur la découverte du corps de Laura Palmer, dont la traque de l’assassin par l’étrange agent Cooper sera le moteur de l’intrigue. La série démarre donc comme une intrigue policière classique mais va rapidement emprunter des thématiques à d’autres genres, notamment le soap et le fantastique.

Un univers, mais plusieurs médias

Pour bien comprendre le phénomène Twin Peaks, il faut se rappeler que son univers s’est développé dans plusieurs médias. D’abord il y eut la série et ses deux premières saisons en 1990 et en 1991, ensuite un film (Fire Walk With Me) en 1992 et, enfin, une troisième saison en 2017.

L’intrigue concernant le meurtre de Laura Palmer est posée et entièrement résolue entre la saison 1 et le milieu de la saison 2. Cette résolution avant même la fin de la saison et le glissement vers des intrigues secondaires auront raison des audiences et entraîneront la fin (provisoire) de la série en 1991.

David Lynch décide alors de poursuivre son histoire avec un film qui sera en réalité une préquelle à la série, mais permettra aussi d’approfondir certains éléments mythologiques liés à la « Black Lodge ». Le film est un échec critique et commercial cuisant, et l’univers de Twin Peaks semble se refermer pour toujours.

C’est ici que naît le statut de série culte, entre une série très populaire, un film qui le sera nettement moins et surtout un très grand nombre de questions que chacun pense restées sans réponses.

Pacôme Thiellement dira que la fin de Twin Peaks est comme la mort de Laura Palmer : bien après sa disparition, la série continue longtemps à nous hanter…

Et puis, en 2017, soit vingt-cinq ans plus tard, et comme cela avait été annoncé dans la série, Dale Cooper revient pour, croit-on, lever les derniers mystères de la loge. En réalité il n’en sera rien, et la dernière saison posera beaucoup plus de questions qu’elle n’offrira de réponses, dans la droite ligne des derniers films de David Lynch.

Une victime mystérieuse

Si le statut de série culte s’est initialement construit autour des deux premières saisons de Twin Peaks c’est aussi largement à cause du personnage de Laura Palmer. C’est son corps mutilé qui ouvre la série, mais c’est son visage angélique qui refermera chacun des épisodes. Dans l’espace entre ces deux images se développeront toutes les ambiguïtés de ce personnage.

La série nous la présentera d’abord comme une figure angélique dont nous découvrirons petit à petit les failles morales. Alors que le film, à l’inverse, nous la montrera tristement réelle mais dotée d’une grande noblesse que personne ne verra, en dehors du téléspectateur.

Cet attachement au personnage sera, paradoxalement, la principale cause de la chute de Twin Peaks. Parce que c’est bien l’intrigue autour de son assassinat qui tiendra en haleine le spectateur chaque semaine, plus que l’esthétique singulière ou la mythologie de la série. La résolution du meurtre, même en ouvrant la porte à de nouvelles intrigues, ne suffira pas à intéresser les spectateurs de l’époque.

Quant au film, il arrive sûrement trop tard. Les spectateurs savent ce qu’ils voulaient savoir et sont passés à autre chose. Sans compter l’ambiance résolument plus glauque et dénuée d’humour du film en comparaison de la série.

Une série, mais plusieurs genres

Si Twin Peaks est considéré comme un moment de bascule dans le monde des séries, il faut noter que ça n’est pas tant pour l’une de ses caractéristiques que pour un ensemble de facteurs associés. Si cette série est une grande réussite populaire, elle n’est pas la première, loin de là. Des séries comme Star Trek ont conservé leur public bien au-delà de la fin de leur production.

Sur le plan qualitatif, là encore, l’ambition et la complexité qu’impulsent Frost et Lynch pour une série de télévision n’est pas inédite. On peut notamment citer la série le Prisonnier (1967-1968) qui reste un modèle du genre.

Ce qui rend la série singulière, c’est l’assemblage en un seul programme de genres très différents (le policier, le soap…), d’une intrigue captivante (qui a tué Laura Palmer ?) et d’une mystique cohérente et mystérieuse qui traversera l’ensemble de la série.

Pacôme Thiellement, auteur d’un essai de référence sur la série, souligne que celle-ci a inventé un nouveau type de spectateur : le spectateur « qualifié ». Il s’agit du spectateur qui revoit plusieurs fois les mêmes épisodes pour en déceler tous les indices. Cette attitude nouvelle n’est possible qu’avec l’avènement et la popularisation d’un nouvel outil technologique : le magnétoscope. Le créateur de la série Lost (2004-2010), Damon Lindelof, raconte d’ailleurs comment son père enregistrait systématiquement chaque épisode pour ensuite les revoir à l’infini.

Peu de réponses, mais de la poésie

Les références ayant permis l’élaboration de la mythologie de Twin Peaks ont été largement étudiées et révélées par Frost, dont l’attitude en interview est nettement moins sibylline que celle de Lynch. On sait que Frost a pioché dans une culture New Age et occultiste et plus particulièrement dans les théories de Dion Fortune et Helena Blavastky, cofondatrice de la Société théosophique.

Pour autant, Twin Peaks reste une œuvre dont le sens est largement multiple et ouvert, que la tardive saison 3 n’a pas souhaité rendre univoque. Citons cependant une interprétation parmi d’autres – de Pacôme Thiellement – selon qui la série parle « d’une nostalgie de l’Unité ». Si effectivement, on retrouve cette thématique du dédoublement et de sa résolution tout au long de la série (citons en vrac et sans spoiler : l’Homme venu d’un autre endroit et Mike, Bob et Leland, Laura et sa cousine, les 3 Cooper, etc.), on peut noter le rapprochement avec l’autre David (Cronenberg) chez qui nous soulevions déjà ici, la thématique centrale de la fusion. On peut d’ailleurs noter qu’un arrière-fond sexuel est là aussi commun aux deux réalisateurs même si cela passe plus par les couleurs et les ambiances chez Lynch.

Il semble vain de chercher une résolution définitive à Twin Peaks, mais rien ne nous empêche de continuer à chercher des signes pour le plaisir de l’analyse et pour en déceler toute la finesse et la poésie. Terminons encore une fois sur les mots de Thiellement :

« Il s’agit de la constitution d’une poétique, et la poétique est toujours une communication par signes. »

The Conversation

Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Twin Peaks » : les ingrédients d’une série culte – https://theconversation.com/twin-peaks-les-ingredients-dune-serie-culte-278867

Diagnostic préimplantatoire et anomalies chromosomiques : les enjeux scientifiques et éthiques du DPI-A

Source: The Conversation – in French – By Valérie Depadt, Maître de conférences en droit, Université Sorbonne Paris Nord

En France, contrairement à d’autres pays, les conditions d’utilisation du diagnostic préimplantatoire sont très encadrées. Il ne peut pas être utilisé en tant que dépistage génétique global, et doit cibler uniquement un risque connu. Une situation que certains aimeraient voir évoluer.


Si l’infertilité constitue aujourd’hui la principale raison du recours à l’assistance médicale à la procréation (AMP), elle n’est pas la seule. Dans certains cas, ces techniques sont mobilisées pour éviter la transmission à l’enfant de maladies génétiques particulièrement graves.

Pour les familles concernées, l’enjeu dépasse alors la simple conception : il s’agit de donner naissance à un enfant indemne de la pathologie identifiée chez au moins l’un des parents. Dans ce contexte, le diagnostic préimplantatoire (DPI), qui permet l’analyse du patrimoine génétique d’embryons issus d’une fécondation in vitro avant leur transfert dans l’utérus – est autorisé en France depuis 1999.

Le DPI ne concerne donc qu’un nombre limité de personnes. Selon l’Agence de la biomédecine, environ 1 000 demandes de DPI sont examinées chaque année, dont environ les deux tiers sont acceptées. Pour autant, il cristallise des questions scientifiques, éthiques et politiques majeures, d’autant plus vives que les cadres juridiques et les pratiques diffèrent sensiblement d’un pays à l’autre.

Le DPI en France : un usage strictement encadré

Le DPI consiste à analyser de une à quelques cellules prélevées sur l’embryon afin de rechercher une anomalie génétique. Réalisé simultanément sur plusieurs embryons obtenus au cours d’un même cycle de fécondation, il permet d’exclure du transfert dans l’utérus les embryons porteurs de ladite anomalie.

En France, le DPI est autorisé lorsqu’une anomalie responsable d’une maladie gravement invalidante, susceptible d’être à révélation tardive ou pouvant mettre prématurément en jeu le pronostic vital a été préalablement et précisément identifiée, chez l’un des parents ou l’un de ses ascendants immédiats.

La loi impose toutefois une restriction majeure quant à la finalité du test : le diagnostic ne peut avoir d’autre objet que la recherche de l’anomalie génétique préalablement identifiée, ainsi que l’identification des moyens de la prévenir ou de la traiter. Le DPI ne constitue donc en aucun cas un dépistage génétique général : il s’agit d’un test ciblé visant un risque connu.

Ce cadre juridique traduit une conception médicale du DPI : il s’agit d’une alternative à une interruption médicale de grossesse lorsque le risque de maladie est élevé. Ainsi, le dispositif est pris en charge par l’Assurance-maladie dans la limite de quatre cycles de FIV. En raison de la haute technicité exigée et d’une volonté de centralisation, seuls cinq centres spécialisés disposent d’un agrément : Paris, Strasbourg, Montpellier, Nantes et Grenoble.

Les termes de la loi française expliquent également les limites technologiques constatées dans notre pays. En France, étant donné que seule la recherche de la pathologie faisant l’objet du diagnostic est autorisée, le recours aux méthodes de séquençage modernes, dites « pangénomiques » (car elles permettent de séquencer l’intégralité du génome) demeure marginal.

Il en va autrement à l’étranger, où de telles techniques sont largement utilisées.

À l’étranger : le développement du dépistage des anomalies chromosomiques

Dans plusieurs pays, notamment aux États-Unis, au Royaume-Uni ou en Espagne, les progrès du séquençage génétique ont conduit à un usage différent du diagnostic préimplantatoire. Celui-ci est utilisé pour le dépistage général des anomalies chromosomiques chez l’embryon.

Ce type de DPI est appelé DPI-A, pour aneuploïdies. Les aneuploïdies sont des anomalies du nombre de chromosomes, telles que les trisomies ou les monosomies (parmi les exemples d’aneuploïdie les plus connus figure la trisomie 21, qui se caractérise par la présence d’un chromosome surnuméraire pour la 21e paire de chromosomes).

Le DPI-A ne consiste donc plus – ou plus uniquement – à rechercher une maladie génétique familiale identifiée. Il implique l’examen de l’ensemble des chromosomes des embryons produits par fécondation in vitro avant de les transférer dans l’utérus, afin de repérer ceux qui présentent un nombre chromosomique normal. Ces embryons sont supposés présenter de meilleures chances d’implantation et de naissance vivante.

À l’étranger, cette technique est largement proposée dans certaines cliniques, notamment dans le secteur privé, parfois au-delà des indications médicales strictes. Dans certains pays d’Europe, aux États-Unis ou encore au Canada, où le DPI-A est présenté comme un facteur d’accroissement des chances de réussite, il est utilisé dans une part importante des cycles de FIV.

Pourquoi, en France, cette pratique est-elle interdite ?

Cette situation s’explique par la volonté de limiter toute extension du diagnostic vers une sélection embryonnaire élargie, laquelle est perçue comme susceptible d’ouvrir la voie à des dérives eugéniques.

Certaines instances éthiques françaises ont cependant récemment contribué à relancer le débat, en recommandant d’évaluer l’intérêt médical de ces techniques dans un cadre strictement encadré.

Le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE), dans son avis 129 de 2017, était favorable à l’autorisation de la recherche d’aneuploïdies, au cours des fécondations in vitro, pour les couples ayant recours au DPI et certains couples infertiles.

Pour l’Agence de la biomédecine, il convient également de s’interroger sur les conséquences de la possibilité du séquençage de l’ensemble du génome, y compris en matière de diagnostic prénatal.

Malheureusement, à l’heure actuelle, les données nécessaires pour fonder une décision manquent encore.

Le DPI-A : un bénéfice scientifique encore débattu

Le DPI-A repose sur une hypothèse biologiquement cohérente : les anomalies chromosomiques étant fréquentes chez les embryons humains (à hauteur de 30 à 60 % des embryons systématiquement étudiés au cours d’un diagnostic préimplantatoire, leur identification pourrait théoriquement améliorer les résultats de la FIV, diminuer le risque d’échec d’implantation, de fausse couche, d’interruption médicale de grossesse ou de naissance d’enfant atteint d’une maladie génétique grave.

Toutefois, les données scientifiques apparaissent moins convaincantes qu’attendu au regard des bénéfices escomptés.

Rappelons qu’un cycle de FIV correspond à une tentative complète, incluant stimulation ovarienne, ponction ovocytaire et transfert d’embryon(s), plusieurs transferts pouvant être issus d’un même cycle. En France, le taux de naissance vivante est d’environ 25 % par cycle initié. En pratique, les patientes réalisent en moyenne deux à trois cycles pour obtenir une naissance vivante, les chances augmentant de manière cumulative avec le nombre de tentatives. La distinction entre taux par transfert et taux par cycle initié est essentielle, le bénéfice observé du DPI-A portant principalement sur le premier indicateur.

Concrètement, lors d’une fécondation in vitro (FIV), plusieurs ovocytes sont fécondés en laboratoire afin d’obtenir un nombre limité d’embryons (souvent entre cinq et dix). Sans DPI-A, un ou plusieurs embryons sont sélectionnés sur des critères morphologiques et transférés, les autres pouvant être congelés. Avec DPI-A, chaque embryon est biopsié et seuls ceux considérés comme euploïdes (présentant le bon nombre de chromosomes) sont retenus pour le transfert.

Cette sélection entraîne de facto une diminution du nombre d’embryons disponibles. Les données issues de cohortes de FIV montrent qu’en moyenne 30 à 60 % des embryons au stade blastocyste (cinq à six jours de développement) sont aneuploïdes, proportion qui augmente avec l’âge maternel. Par exemple, chez une patiente obtenant huit blastocystes, le DPI-A peut conduire à n’identifier que deux à trois embryons euploïdes, voire aucun selon l’âge, réduisant d’autant les possibilités de transfert.

L’exclusion systématique des embryons mosaïques, c’est-à-dire comportant à la fois des cellules euploïdes et aneuploïdes, peut accentuer cette réduction, alors même que des naissances vivantes d’enfants sains sont rapportées après transfert de tels embryons.

Les conséquences de cette sélection sont multiples : diminution du nombre de transferts possibles par cycle, augmentation du nombre de cycles nécessaires pour obtenir une grossesse, et risque de perte d’embryons potentiellement viables.

Les études réalisées montrent dans de larges proportions une augmentation des taux de grossesse par transfert embryonnaire dans certains contextes, comme les échecs d’implantation ou les fausses couches à répétition.

Cependant, il ne semble pas en être systématiquement de même pour le taux de naissances vivantes par cycle initié, qui constitue pourtant l’indicateur le plus pertinent pour les couples. Le DPI-A pourrait même conduire à un taux de naissance diminué chez les femmes de moins de 40 ans.

Comment s’expliquent ces résultats ?

Plusieurs limites biologiques expliquent ces résultats contrastés. La biopsie embryonnaire repose sur l’analyse d’un nombre restreint de cellules, ce qui peut conduire à des erreurs d’interprétation du fait d’un problème de représentativité.

En présence de mosaïcisme embryonnaire, autrement dit lorsque l’embryon contient à la fois des cellules normales et des cellules aneuploïdes, les cellules prélevées pour être analysées peuvent ne pas refléter la constitution chromosomique de l’ensemble de l’embryon, conduisant à des résultats discordants ou à des erreurs de classification.

En outre, il existe parfois une capacité d’auto-correction. Ce phénomène constitue un facteur majeur de limites du DPI-A. Par ailleurs, la variabilité des conditions de prélèvement et les limites analytiques des techniques de séquençage peuvent contribuer à des faux positifs ou faux négatifs, notamment dans la détection du mosaïcisme.

Enfin, toutes les fausses couches ne sont pas liées à des anomalies chromosomiques, ce qui limite mécaniquement l’impact potentiel du dépistage de l’aneuploïdie sur les taux de naissance vivante.

Au regard de ces incertitudes, les sociétés savantes internationales, en particulier européenne (EHRE) et américaine, restent prudentes et ne recommandent pas l’utilisation systématique du DPI-A en pratique clinique courante pour tous les couples ayant recours à la FIV. Il pourrait exister un bénéfice pour certains sous-groupes de patientes, notamment les plus âgées, ou celles qui ont subi plusieurs fausses couches spontanées.

Les limites actuelles des connaissances soulignent la nécessité d’études rigoureuses, incluant également les aspects médico-économiques, afin d’évaluer l’intérêt réel du DPI-A selon les différentes populations de patientes et les contextes cliniques. En effet, la réalisation d’un DPI-A double le coût d’une FIV classique.

Pour combler ces lacunes, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) avait autorisé en 2021 l’Assistance publique – Hôpitaux de Paris (AP-HP) à mettre en œuvre un essai clinique (essai DEVIT) afin de collecter des données sur ces questions. L’objectif de cette étude était d’en évaluer les bénéfices et les risques.

Mais le 7 février 2024, le tribunal administratif de Montreuil (tribunal administratif de Montreuil, 8e chambre, 7 février 2024, no 2206833) saisi par la fondation conservatrice Jérôme-Lejeune, a annulé l’autorisation de l’ANSM, en rappelant l’interdiction légale du DPI-A, y compris au stade de la recherche.

Par une décision du 10 juillet 2025, la Cour administrative d’appel de Paris a confirmé la décision du tribunal administratif.

L’étude est donc interrompue, alors que l’évaluation objective des bénéfices et des risques nécessite précisément des travaux méthodologiquement solides.

Le DPI-A : un débat français particulièrement polarisé

En France, la question du DPI-A suscite un débat particulièrement clivé.

Certaines associations de patients, comme le collectif BAMP !, dénoncent une incohérence : le dépistage de la trisomie 21 est largement proposé pendant la grossesse, avec la possibilité d’une interruption médicale en cas d’anomalie, alors que le dépistage avant implantation reste interdit.

Le risque d’eugénisme n’est-il pas moindre lorsqu’il s’agit de sélectionner des embryons viables que dans la systématisation d’une proposition de détection d’une trisomie 21 chez le fœtus, quelques mois après le début de la grossesse ?

Cette situation crée de fait des inégalités d’accès, puisque seuls les couples disposant des ressources financières nécessaires ont le choix de se rendre à l’étranger.

À l’inverse, des opposants, comme la Fondation Jérôme-Lejeune, considèrent que l’extension du DPI vers le dépistage chromosomique pourrait renforcer une logique de sélection embryonnaire et poserait des questions éthiques majeures, notamment vis-à-vis du handicap.

Replacer la science au cœur de la discussion

Dans ce contexte, le débat ne se laisse pas aisément réduire à une opposition entre une évaluation scientifique supposée neutre et des prises de position liées à des considérations éthiques et sociétales.

Les données scientifiques disponibles concernant le DPI-A restent en effet discutées : si certaines études suggèrent un bénéfice dans des indications ciblées (échecs répétés d’implantation, fausses couches à répétition), d’autres soulignent l’absence d’amélioration significative des taux de naissances vivantes pour l’ensemble des patients ayant recours à l’AMP, ainsi que les limites liées au mosaïcisme embryonnaire, à la représentativité de la biopsie et à la variabilité des pratiques.

L’évaluation scientifique elle-même est donc marquée par des incertitudes, des choix méthodologiques et des interprétations divergentes.

Parallèlement, le recours au DPI-A soulève des enjeux qui dépassent le seul champ biomédical, notamment en matière de représentation du handicap, de sélection embryonnaire, d’équité d’accès aux soins et de finalités assignées à la médecine reproductive. Ces dimensions relèvent de choix collectifs et de cadres éthiques, qui ne peuvent être tranchés par les seules données scientifiques.

L’absence de cadre légal pour la recherche sur le DPI-A en France a paradoxalement freiné la production de données scientifiques nationales, comme le montre la décision du tribunal administratif de Montreuil.

La France ne conçoit l’évolution des techniques biomédicales autorisées que dans le respect des grands principes relatifs au corps humain, tels qu’inscrits dans le Code civil aux articles 16 et suivants, à l’exclusion de toute considération commerciale.

L’histoire du DPI illustre la tension permanente entre progrès biomédical, attentes des patients et préoccupations éthiques. Le DPI-A cristallise aujourd’hui des espoirs importants d’amélioration des résultats de la FIV, mais aussi des inquiétudes quant à ses implications sociétales.

Dans ce contexte, l’enjeu est peut-être moins de trancher immédiatement « pour » ou « contre » que de consolider les connaissances disponibles. Dépassionner le débat, mieux informer le public, soutenir la recherche et expliciter les incertitudes apparaissent comme des conditions essentielles pour orienter les décisions futures en matière de santé publique.

Dans un domaine marqué par la rapidité des innovations et l’ampleur des enjeux éthiques, la qualité des données scientifiques doit jouer un rôle déterminant dans la manière dont notre société définit et définira les choix collectifs à venir.

The Conversation

Marjolaine Willems est membre de la Société Française de Diagnostic Préimplantatoire (SFDPI). Elle a reçu des financements de l’Agence de Biomédecine.

Valérie Depadt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Diagnostic préimplantatoire et anomalies chromosomiques : les enjeux scientifiques et éthiques du DPI-A – https://theconversation.com/diagnostic-preimplantatoire-et-anomalies-chromosomiques-les-enjeux-scientifiques-et-ethiques-du-dpi-a-273039

À Paris, les oiseaux continuent de chanter plus aigu à cause du bruit, malgré la lutte contre la pollution sonore

Source: The Conversation – France (in French) – By Dan Mennill, Professor and Associate Dean of Science, University of Windsor

Les bruits des voitures, des avions, des bateaux et des activités industrielles dans les zones urbaines produisent un bruit de fond constant qui affecte les oiseaux, comme cette mésange charbonnière. Wikimedia Commons, CC BY-SA

Paris a perdu trois décibels en dix ans grâce à des mesures efficaces contre la pollution sonore. Mais le bruit de la circulation oblige encore et toujours les oiseaux à chanter plus haut.


En 1962, la biologiste Rachel Carson nous mettait en garde dans le Printemps silencieux. Cet ouvrage, devenu depuis une référence majeure, alertait sur le monde muet et sans oiseau qui nous guettait du fait de l’impact incontrôlé des activités humaines.

Quarante ans plus tard, des biologistes ont mis en évidence un effet frappant de la pollution sonore sur le chant des oiseaux. Ils ont découvert que les bruits à basse fréquence de la circulation obligeaient les oiseaux à chanter à des fréquences plus élevées dans les villes européennes. Ainsi, les oiseaux d’un parc bruyant situé au pied de la tour Eiffel chantent à une fréquence supérieure de 400 hertz (Hz) à celle de leurs congénères vivant dans les forêts calmes de la banlieue parisienne.

L’étude que j’ai publiée dans la revue scientifique Ornithological Applications avec mon collègue Hans Slabbekoorn de l’Université de Leyde, montre cependant que Paris est un exemple de réussite dans la lutte contre la pollution sonore.

Pourtant, même si Paris est devenu plus calme, les oiseaux n’ont pas retrouvé leurs tonalités de chant naturelles. Nos recherches montrent que les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que les oiseaux des zones sauvages situées en dehors de la ville.

Chant de mésange charbonnière.
Chantal Dengis, CC BY72,5 ko (download)

Il parait donc essentiel de redoubler d’efforts en matière de réduction du bruit dans les zones urbaines du monde entier afin de permettre aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.

Les effets dévastateurs du bruit

De fait, les activités humaines inondent le monde des divers bruits. Les bruits des voitures, des avions, des bateaux et des activités industrielles produisent ainsi un grondement constant qui affecte les animaux sauvages, les oiseaux et les insectes. Nous négligeons souvent la pollution sonore en tant que problème de conservation, alors qu’elle peut avoir des effets dévastateurs sur la faune sauvage à une époque d’urbanisation croissante.

Le bruit de la circulation perturbe par exemple la capacité des oiseaux et des grenouilles à attirer des partenaires. Le bruit des bateaux entraîne lui une diminution de la communication vocale chez les baleines. Enfin, le bruit de la circulation influence par exemple les interactions prédateur-proie entre les papillons de nuit et les chauves-souris.

Depuis que l’on a découvert que, dans les villes européennes, les bruits de circulation à basse fréquence poussaient les oiseaux à chanter à des fréquences plus élevées, ce phénomène a également été observé chez diverses populations d’oiseaux à travers le monde.

Dans les prairies canadiennes, les bruants des prés émettent ainsi des chants plus aigus à proximité des pompes à pétrole bruyantes. Les rouges-gorges familiers chantent eux des mélodies plus aiguës en présence du bruit des éoliennes. On sait également que les zostérops à dos gris d’Australie produisent des chants et des cris plus aigus dans les zones urbaines bruyantes par rapport aux zones rurales.

Or, tous ces changements réduisent la capacité des oiseaux à défendre leurs territoires de reproduction et à attirer des partenaires.




À lire aussi :
Préserver les océans du bruit humain pour mieux les protéger


Se battre pour une ville plus calme

Paris est l’une des plus grandes et des plus densément peuplées d’Europe, mais les Parisiens ont mis au point des stratégies innovantes pour lutter contre la pollution sonore.

La ville a transformé de nombreuses voies de circulation en pistes cyclables et a posé des revêtements antibruit sur les axes routiers principaux.

Une boîte noire fixée à un lampadaire, sur laquelle figure l’image d’un oiseau. La circulation est floue en arrière-plan
Un radar sonore.
Dan Mennill

Des radars sonores infligent également des amendes aux véhicules trop bruyants. Un observatoire régional appelé Bruitparif surveille enfin le bruit dans toute la ville et supervise les efforts de réduction du bruit.

Toutes ces actions visent à rendre la ville plus calme, tant pour les habitants que pour la faune. Ces efforts contre le bruit soulèvent cependant la question suivante : peut-on réduire le niveau de pollution sonore afin de minimiser son impact sur le chant des oiseaux ?

Un frein au vacarme

En 2023, je me suis rendu à Paris pour enregistrer le chant de la mésange charbonnière, un oiseau commun des jardins européens.

J’ai utilisé des microphones et des enregistreurs numériques pour enregistrer les oiseaux dans les rues, sur les places et dans les parcs de toute la ville. J’ai suivi les traces de mon collaborateur, Hans Slabbekoorn, le biologiste qui avait été le premier à enregistrer les mésanges charbonnières à Paris en 2003.

Le chercheur se tient debout, un gros micro noir à la main, avec la Tour Eiffel en arrière-plan
Dan Mennill utilise un micro pour enregistrer le chant des oiseaux près de la tour Eiffel.
Dan Mennill

En comparant le bruit de fond au chant des oiseaux, nous avons constaté que les mésanges charbonnières émettaient des chants plus aigus dans les environnements bruyants. En chantant à un ton plus aigu, elles évitent ainsi que leur chant ne soit masqué par les bruits de circulation à basse fréquence.

Nous avons également analysé les données sur le bruit recueillies dans tout Paris par Bruitparif. Nous avons ainsi constaté que Paris est en passe de gagner la bataille contre la pollution sonore et que la ville est devenue plus calme ces dernières années.

En effet, Paris est aujourd’hui environ trois décibels plus calme qu’il y a dix ans. Comme l’échelle des décibels est logarithmique, une baisse de trois décibels représente une réduction importante de l’intensité sonore. Mais malgré ces progrès, les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que celles des oiseaux vivant dans les zones sauvages en dehors de la ville.

Les oiseaux peuvent changer de chant

Il y a toutefois des raisons d’être optimiste. Des recherches menées dans d’autres villes ont montré que lorsque l’environnement devient moins bruyant, les oiseaux retrouvent leur tonalité naturelle.

Ainsi, le calme observé dans les rues pendant les confinements liés au Covid-19 a offert une occasion rare d’étudier les oiseaux dans un monde plus silencieux. Des biologistes de San Francisco (Californie) ont comme cela constaté que le paysage sonore urbain était devenu environ sept décibels plus silencieux pendant les confinements – des niveaux rarement observés depuis les années 1950.

Ce calme ambiant a permis aux oiseaux de modifier leur chant. À San Francisco, les bruants à couronne blanche ont réagi en chantant des mélodies plus graves et plus douces.

De nombreuses espèces d’oiseaux ont ainsi tiré profit de cet apaisement qui a régné pendant la période de confinement. Dans le cadre d’une étude portant sur 47 espèces d’oiseaux chanteurs en Amérique du Nord, notre équipe de recherche a constaté que les espèces dont le chant couvre une large gamme de fréquences – c’est-à-dire les sons les moins sensibles aux effets du bruit à basse fréquence – ont étendu leur aire de répartition pendant cette période de calme.

Ces résultats montrent que la pollution sonore affecte diverses espèces d’oiseaux, même celles dont le chant semble pourtant bien adapté aux environnements bruyants.

À l’écoute du futur

Nos études menées à Paris montrent qu’une réduction de trois décibels n’est pas suffisante pour permettre aux oiseaux de retrouver leurs fréquences de chant naturelles. Des efforts supplémentaires de réduction du bruit seront donc nécessaires pour que nous puissions partager l’espace sonore de manière adéquate avec nos amis à plumes.

Paris nous offre également une leçon porteuse d’espoir dans la lutte contre la pollution sonore. Les villes peuvent réduire le bruit en encourageant le vélo et les modes de transport plus silencieux. Les politiques publiques jouent également un rôle important, comme l’illustre l’agence Bruitparif à Paris.

Si nous mesurons la pollution sonore, nous pouvons nous efforcer de la réduire, d’améliorer notre propre bien-être et de créer un espace permettant aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.

The Conversation

Dan Mennill a reçu des financements de la Natural Sciences and Engineering Research Council of Canada

ref. À Paris, les oiseaux continuent de chanter plus aigu à cause du bruit, malgré la lutte contre la pollution sonore – https://theconversation.com/a-paris-les-oiseaux-continuent-de-chanter-plus-aigu-a-cause-du-bruit-malgre-la-lutte-contre-la-pollution-sonore-281659

Le monopole syndical existe-t-il vraiment ?

Source: The Conversation – France (in French) – By Rémi Bourguignon, Professeur des Universités, IAE Paris-Est, Université Paris-Est Créteil Val de Marne (UPEC)

Mais pourquoi persiste-t-on à parler de monopole syndical ? Martin Winkler/Unsplash, CC BY

L’idée selon laquelle il faudrait mettre fin au monopole syndical pour redynamiser la démocratie sociale française fait son chemin depuis une dizaine d’années. Il faudrait faciliter la participation aux élections professionnelles des salariés non organisés sous la forme d’un syndicat voire leur permettre, sous certaines conditions, de prendre en charge la négociation collective. Alors que cette idée est revenue dans le débat social à la suite des prises de position de plusieurs économistes, il apparaît qu’elle repose sur une ambiguïté qui rend les enjeux peu perceptibles. Décryptage.


Pour réformer le fonctionnement de la démocratie sociale française, une proposition de réforme fait l’objet de vifs et récurrents débats depuis une dizaine d’années : la fin du monopole syndical. Cette proposition figurait en bonne place dans le programme politique de François Fillon lorsqu’il était candidat à l’élection présidentielle et a fait l’objet, dans la même période, d’un projet de loi déposé par le sénateur Jean-Louis Masson.

Les controverses suscitées par cette mesure ont été réamorcées ces derniers mois par les prises de position d’économistes occupant une place centrale dans le débat social. Pierre Cahuc et André Zylberberg sont ainsi les auteurs d’une tribune parue dans le journal les Échos dans laquelle ils appellent à remettre en cause le « monopole syndical » aux élections professionnelles selon lequel seuls les syndicats peuvent se présenter au premier tour de ces élections. Une « rente » qui nuirait non seulement à l’emploi, mais aussi à la démocratie sociale elle-même, nous disent les deux économistes qui proposent d’ouvrir ces élections en permettant aux salariés non investis par une organisation syndicale de pouvoir constituer une liste candidate.

Pouvoir de négocier

Gilbert Cette, économiste à Neoma Business School et président du Conseil d’orientation des retraites, propose, de son côté, de remettre en cause le monopole syndical sur la négociation collective selon lequel seuls les syndicats sont habilités à négocier avec les employeurs. Avec Jacques Barthélémy puis dans un ouvrage coécrit avec Guy Groux et Richard Robert ainsi que dans de nombreuses interventions médiatiques, il propose que, sous certaines conditions, le pouvoir de négocier soit retiré aux syndicats pour être confié à l’instance élue du personnel, le comité social et économique (CSE). La mise en cause du monopole syndical sur la négociation collective avait déjà fait l’objet d’intenses discussions en 2016 à un moment où les organisations patronales demandaient à ce que le référendum d’entreprise puisse se substituer à la négociation avec les syndicats. Certains juristes se questionnaient alors sur la constitutionnalité du monopole syndical.

Qu’il s’agisse de la présentation de candidats au premier tour des élections professionnelles ou du droit de négocier avec l’employeur, les auteurs de ces propositions suggèrent de remettre en cause le monopole syndical pour laisser plus de place aux travailleurs non syndiqués. Mais que faut-il entendre par « monopole syndical », et y a-t-il réellement monopole syndical ?




À lire aussi :
Syndicats : moins d’encartés, mais une image toujours positive auprès des salariés


Une expression ambiguë

En réalité, cette expression, sans être totalement fausse, est suffisamment ambiguë pour biaiser le débat public. Le non-spécialiste a, en effet, de quoi ne rien y comprendre. Pierre Cahuc et André Zylberberg parlent d’un monopole syndical tout en indiquant qu’il est réservé à un grand nombre d’organisations. D’ailleurs, comme une manifestation de leur embarras, les deux économistes parlent, dans la même tribune, d’un « quasi-monopole ». De même, pour Gilbert Cette et ses coauteurs, la principale entrave à la démocratie sociale est le trop grand nombre d’organisations syndicales. Leur principale proposition, qu’ils nomment la « mère des batailles », est de parvenir à réduire le nombre de syndicats. Là aussi, étrange conception du monopole que ce monopole partagé par un trop grand nombre d’acteurs.

L’ambiguïté, et donc la complexité, du débat tient à ce qu’il existe deux acceptions du monopole syndical. Une première acception est celle renvoyant à un droit de représentation exclusif. Christian Morel rappelle, à cet égard, qu’à l’époque du New Deal et de la rédaction des lois américaines sur la négociation collective dans les années 1930, deux idées de la démocratie étaient en discussion :

« D’un côté, celle de la représentation proportionnelle : selon cette philosophie, plusieurs syndicats pouvaient représenter une même collectivité de salariés. D’un autre côté, celle de la représentation majoritaire, selon laquelle le syndicat détenant la majorité devait disposer du monopole de la représentation. »

Et de rappeler que c’est la seconde qui l’a emporté de sorte que le monopole syndical prévaut dans les entreprises nord-américaines et, plus généralement, dans les systèmes anglo-saxons de relations professionnelles. Lorsqu’un syndicat parvient à s’implanter dans un établissement, il dispose d’un droit de représentation exclusif. Le système français, pour sa part, rejette le principe du monopole syndical et en prend même le contre-pied par un pluralisme particulièrement marqué.

Au cœur de la démocratie sociale

Alors, de quoi parle-t-on lorsqu’on évoque le monopole syndical dans le système français ? En fait, pas d’un monopole syndical au sens où ces droits seraient réservés à un acteur exclusif mais d’un principe au cœur de la démocratie sociale française, à savoir un encadrement collectif de la représentation des salariés. On pourrait également dire un contrôle syndical sur cette représentation. En termes plus clairs, pour s’investir dans la représentation de leurs collègues et dans la négociation avec l’employeur, les salariés doivent s’inscrire dans le cadre d’une organisation collective, extérieure à l’entreprise et disposant d’une personnalité morale.

Ces organisations s’appellent syndicats et ont pour mission de constituer les listes au premier tour des élections professionnelles et de mandater des négociateurs auprès de l’employeur. Ce sont ces organisations qui portent la responsabilité de l’action de leurs militants sur le terrain. C’est en ce sens qu’il s’agit d’un contrôle syndical. Mais si l’on doit parler de monopole, c’est un monopole accordé à un statut, celui de syndicat. Pas un monopole accordé à un acteur.

En effet, l’ensemble des salariés ont la possibilité de se constituer en syndicat et, s’ils remplissent quelques critères, peuvent se présenter aux élections professionnelles. Si, à l’issue de ces élections, ils ont démontré leur représentativité, ils pourront prendre part aux négociations collectives. Le droit de se présenter aux élections professionnelles est donc parfaitement ouvert pourvu que les salariés qui le souhaitent inscrivent leur action dans le cadre d’une organisation collective responsable.

Une ouverture déjà présente

La loi indique notamment qu’elle est ouverte aux organisations syndicales « qui satisfont aux critères de respect des valeurs républicaines et d’indépendance, légalement constituées depuis au moins deux ans et dont le champ professionnel et géographique couvre l’entreprise ou l’établissement concernés ». Bref, si des salariés ont déposé des statuts, font preuve de transparence financière, respectent les valeurs républicaines et sont indépendants de l’employeur, ils peuvent se présenter aux élections professionnelles.

Opposer le monopole syndical à des élections ouvertes obscurcit la question. Car, à ce compte, il fait peu de doute que l’élection ouverte est préférable. Mais ce n’est précisément pas la question puisque l’élection est déjà ouverte. Ce qui est contesté par celles et ceux qui appellent à mettre fin au monopole syndical est, en réalité, moins une rente qui biaiserait la représentativité des négociateurs qu’une prérogative.

Le monopole syndical, pris en ce sens, serait plutôt à rapprocher du monopole médical selon lequel seuls les médecins sont habilités à prescrire des médicaments bien que les médecins soient en concurrence. De la même manière, si l’accès au premier tour des élections professionnelles et à la négociation collective est réservé aux organisations syndicales, celles-ci sont mises en concurrence et l’accès aux statuts de syndicats est possible pour tous les salariés.

Arte, 2024.

Reposer le débat dans le bon cadre

Le débat sur la fin du monopole syndical invite ainsi à se demander si la représentation du personnel et la négociation collective doivent s’inscrire dans le cadre d’une action collective portée par une organisation identifiée et responsable ou si elle peut être le fait d’une collection de salariés plus ou moins coordonnés et organisés.

La forme syndicale joue actuellement un rôle important. Tout d’abord, elle offre une personnalité morale aux salariés qui s’y engagent, ce qui contribue à leur indépendance vis-à-vis de l’employeur et leur ouvre des modalités d’action dont ne disposent pas des salariés qui constitueraient une liste candidate dite non syndiquée.

Elle est surtout une organisation fondée sur des principes démocratiques et doit constituer, à ce titre, un espace permettant de mettre en discussion la diversité des intérêts et des visions qui traversent le monde du travail pour faire advenir, par la délibération, des revendications les plus partagées possibles. C’est au regard de cette fonction que le syndicalisme est habituellement considéré comme l’institution centrale de la démocratie sociale.

La contestation du monopole syndical est nourrie par l’idée selon laquelle les syndicats ne rempliraient, en réalité, plus cette fonction. Si le débat sur la vitalité de la démocratie syndicale est tout à fait légitime et bienvenu, l’argument selon lequel l’affaiblissement voire la suppression des prérogatives syndicales est de nature à renforcer la démocratie sociale reste à étayer.

The Conversation

Rémi Bourguignon a reçu des financements de recherche de France Stratégie, l’agence d’objectifs de l’IRES, la fédération CFE-CGC Métallurgie

ref. Le monopole syndical existe-t-il vraiment ? – https://theconversation.com/le-monopole-syndical-existe-t-il-vraiment-281070

Une anomalie au LHC laisse entrevoir une percée majeure en physique des particules

Source: The Conversation – in French – By William Barter, UKRI Future Leaders Fellow, School of Physics and Astronomy, University of Edinburgh

Après cinquante ans sans faille apparente, le modèle standard pourrait vaciller face à de nouvelles mesures issues du LHC. CERN

Des résultats obtenus au Large Hadron Collider, ou LHC, le grand collisionneur de hadrons du Cern, pourraient remettre en cause le modèle standard, pilier de la physique des particules depuis un demi-siècle.


Sommes-nous sur le point de détecter des signes d’une physique encore inconnue ? C’est ce que semblent suggérer les résultats récents des recherches que nous menons au grand collisionneur de hadrons du Cern (Large Hadron Collider ou LHC).

Si ces indices se confirmaient, ils remettraient en cause la théorie – appelée modèle standard (MS) – qui domine la physique des particules depuis cinquante ans. Les résultats indiquent, en effet, que le comportement de certaines particules subatomiques dans le LHC n’est pas conforme aux prédictions de ce modèle.

Les particules fondamentales sont les briques élémentaires de la matière : des particules subatomiques indivisibles (qui ne peuvent pas être décomposées en unités plus petites). Quatre forces fondamentales – la gravitation, l’électromagnétisme, l’interaction faible et l’interaction forte – régissent leurs interactions.

Le LHC est un immense accélérateur de particules installé dans un tunnel circulaire de 27 kilomètres sous la frontière franco-suisse. Son objectif principal est justement de mettre à l’épreuve le modèle standard.

Cette théorie constitue notre meilleure compréhension des particules et des forces fondamentales, mais elle n’est pas complète. Elle ne rend pas compte de la gravité ni de la matière noire – cette forme de matière invisible, encore jamais mesurée directement, qui représenterait environ 25 % de l’univers.

Au grand collisionneur de hadrons, des faisceaux de protons circulant en sens opposé sont mis en collision afin de déceler des indices d’une physique encore inconnue. Les nouveaux résultats proviennent de LHCb, une expérience du LHC consacrée à l’analyse de ces collisions.

Ce résultat repose sur l’étude de la désintégration – une forme de transformation – de particules subatomiques appelées mésons B. Nous avons analysé la manière dont ces mésons B se désintègrent en d’autres particules, et constaté que ce processus spécifique n’est pas conforme aux prédictions du modèle standard.

Une théorie élégante

Le modèle standard repose sur deux des avancées les plus révolutionnaires de la physique du XXᵉ siècle : la mécanique quantique et la relativité restreinte d’Einstein.

Les physiciens peuvent comparer les mesures réalisées dans des installations comme le LHC aux prédictions issues du modèle standard afin de tester rigoureusement cette théorie. Malgré son caractère incomplet, plus de cinquante ans de tests toujours plus exigeants n’ont encore révélé aucune faille dans ce cadre théorique. Du moins, jusqu’à aujourd’hui.

Notre mesure, acceptée pour publication dans la revue Physical Review Letters, met en évidence un écart de quatre écarts-types par rapport aux prédictions du modèle standard.

Concrètement, cela signifie que, après prise en compte des incertitudes liées aux résultats expérimentaux et aux prédictions théoriques, la probabilité qu’une fluctuation aléatoire des données produise un écart aussi important – si le modèle standard est correct – est d’environ 1 sur 16 000.

Même si ce résultat reste en deçà du standard ultime de la physique – ce que l’on appelle les cinq sigma, soit cinq écarts-types (environ une chance sur 1,7 million) – les indices commencent à s’accumuler. Cette hypothèse est renforcée par des résultats issus d’une autre expérience, CMS, publiés plus tôt en 2025.

Bien que les résultats de CMS soient moins précis que ceux de LHCb, ils sont en bon accord avec ces derniers, ce qui consolide l’ensemble. Nos nouveaux résultats proviennent de l’étude d’un type particulier de processus, appelé désintégration électrofaible « pingouin ».

Des événements rares

Le terme « pingouin » désigne un type particulier de désintégration (transformation) de particules de très courte durée de vie. Dans ce cas, nous étudions la manière dont le méson B se désintègre en quatre autres particules subatomiques – un kaon, un pion et deux muons.

Avec un peu d’imagination, la configuration des particules impliquées peut évoquer la silhouette d’un pingouin. Surtout, l’étude de cette désintégration permet d’observer comment un type de particule fondamentale, le quark bottom, peut se transformer en un autre, le quark étrange.

Cette désintégration « pingouin » est extrêmement rare dans le cadre du modèle standard : sur un million de mésons B, un seul se désintègre de cette manière. Nous avons analysé avec précision les angles et les énergies auxquels ces particules sont produites lors de la désintégration, et déterminé avec exactitude la fréquence du processus. Nos mesures de ces paramètres ne correspondent pas aux prédictions du modèle standard.

L’étude fine de ce type de désintégration constitue l’un des objectifs majeurs de l’expérience LHCb depuis sa création en 1994. Les processus « pingouin » sont particulièrement sensibles aux effets de nouvelles particules potentiellement très massives, qui ne peuvent pas être produites directement au LHC. De telles particules peuvent néanmoins exercer une influence mesurable sur ces désintégrations, en plus de la contribution attendue du modèle standard. Ce type d’observation indirecte n’est pas inédit. Par exemple, une forme de radioactivité a été découverte près de quatre-vingts ans avant que les particules fondamentales qui en sont responsables – les bosons W – ne soient observées directement.

Perspectives

L’étude de ces processus rares nous permet d’explorer des aspects de la nature qui ne deviendront peut-être accessibles autrement qu’avec des collisionneurs de particules dont on ne disposera au mieux que dans les années 2070. Un large éventail de nouvelles théories pourrait expliquer nos résultats. Beaucoup d’entre elles font intervenir de nouvelles particules appelées « leptoquarks », qui unifient deux types de constituants de la matière : les leptons et les quarks.

D’autres théories envisagent des particules plus massives, analogues à celles déjà décrites par le modèle standard. Ces nouveaux résultats permettent de contraindre ces modèles et d’orienter les recherches à venir.

Malgré notre enthousiasme, des questions théoriques ouvertes subsistent et nous empêchent d’affirmer avec certitude que nous avons observé une physique au-delà du modèle standard. La principale difficulté tient aux « pingouins charmants » (charming penguins), un ensemble de processus prévus par le modèle standard dont les contributions sont extrêmement difficiles à estimer. Les évaluations récentes suggèrent que leurs effets ne sont pas suffisamment importants pour rendre compte de nos données.

De plus, la combinaison d’un modèle théorique et des données expérimentales issues de LHCb indique que ces « pingouins charmants » – et donc le modèle standard – peinent à expliquer les résultats anormaux observés.

De nouvelles données, déjà collectées, devraient nous permettre de trancher dans les prochaines années : dans nos travaux actuels, nous avons analysé environ 650 milliards de désintégrations de mésons B enregistrées entre 2011 et 2018 pour identifier ces processus « pingouin ». Depuis, l’expérience LHCb a enregistré trois fois plus de mésons B.

D’autres avancées sont prévues dans les années 2030 afin de tirer parti des futures améliorations du LHC et de constituer un jeu de données 15 fois plus important. Cette étape décisive pourrait permettre d’apporter des preuves définitives – et, peut-être, d’ouvrir la voie à une nouvelle compréhension des lois fondamentales de l’Univers.

The Conversation

William Barter travaille pour l’Université d’Édimbourg. Il reçoit des financements de UKRI. Il est membre de la collaboration LHCb au CERN.

Mark Smith ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Une anomalie au LHC laisse entrevoir une percée majeure en physique des particules – https://theconversation.com/une-anomalie-au-lhc-laisse-entrevoir-une-percee-majeure-en-physique-des-particules-281164

Double fonction des séquences d’ADN : une nouvelle étude démontre que certaines sont à la fois codantes et régulatrices

Source: The Conversation – in French – By Benoit Ballester, Chercheur en Bioinformatique à l’Inserm, Unité Inserm 1090 TAGC, Théories et Approches de la Complexité Génomique, Aix-Marseille Université, Marseille., Aix-Marseille Université (AMU)

Pendant longtemps, nous avons appris à lire le génome en séparant deux mondes. D’un côté, les gènes, ces portions d’ADN qui contiennent les instructions pour fabriquer les protéines. À l’intérieur de ces gènes se trouvent les exons, les segments qui servent directement à produire l’ARN puis les protéines. De l’autre côté, l’ADN régulateur, souvent situé dans les régions dites non codantes, qui commande où, quand et à quel niveau les gènes s’expriment. Cette frontière a été très utile. Mais elle est plus poreuse qu’on ne le pensait.

Épissage d’un pré-ARN messager : excision des introns et suture des exons.
Fdardel/Wikimédia, CC BY

Dans l’étude que nous venons de publier dans Nature Communications, nous montrons que des milliers d’exons, parmi les quelque 200 000 que compte le génome humain, ne servent pas seulement à coder des protéines. Une partie d’entre eux agissent aussi comme des régulateurs, c’est-à-dire des séquences capables de stimuler l’expression des gènes. Autrement dit, une même portion d’ADN peut porter deux messages à la fois : l’un pour la protéine, l’autre pour la régulation.

Cette idée existait déjà à travers quelques exemples isolés, mais notre travail en propose pour la première fois une vue systématique, à grande échelle, et dans plusieurs espèces, de l’humain à la souris, en passant par la drosophile et même une plante, Arabidopsis thaliana.

Comment avons-nous répondu à cette question ?

Ce phénomène n’était pas totalement inconnu. Depuis les années 1990, il était décrit dans la littérature scientifique, au fil de cas particuliers ou d’analyses plus larges, sans vraiment qu’on en saisisse l’ampleur.

Pour y répondre, nous avons combiné plusieurs approches à grande échelle, exploitant de très grands volumes de données biologiques issues de travaux antérieurs. Nous avons d’abord analysé plus de 20 000 cartes montrant les endroits du génome où se fixent des facteurs de transcription, ces protéines qui contrôlent l’activité des gènes, afin de repérer les exons qui ressemblent à de véritables régions régulatrices.

Nous avons ensuite cherché d’autres indices montrant que ces exons pouvaient vraiment jouer un rôle régulateur. Nous avons notamment vérifié s’ils se trouvent dans les régions de l’ADN les plus accessibles, condition nécessaire pour que les gènes puissent être activés, et s’ils sont capables d’augmenter l’expression d’un gène dans des tests fonctionnels. Nous avons aussi bloqué certaines de ces séquences dans des cellules afin de voir comment leur absence modifiait l’activité des gènes.

Au final, nous avons identifié plus de 10 000 exons candidats chez l’humain, avec des signatures comparables chez les autres espèces étudiées. Cela montre que cette double fonction n’est pas une exception, mais un phénomène largement répandu dans le vivant.

Pourquoi est-ce important ?

Cette découverte change d’abord notre vision de la régulation des gènes. Les séquences activatrices étaient surtout recherchées dans l’ADN non codant qui correspond à 98 % de notre ADN. Nous montrons qu’une partie de cette régulation est aussi inscrite au cœur même des régions codantes. Les exons ne sont donc pas seulement des segments qui produisent des protéines : certains participent aussi au pilotage de l’expression des gènes, parfois pour leur propre gène, parfois pour d’autres gènes à distance.

L’enjeu est aussi médical. En génétique, on accorde beaucoup d’attention aux mutations qui modifient la protéine. Mais les mutations dites synonymes, souvent qualifiées de silencieuses, sont généralement moins regardées. En effet, le code génétique est lu par groupes de trois lettres, appelés codons, et plusieurs codons différents peuvent correspondre au même acide aminé. Autrement dit, une mutation peut modifier la séquence d’ADN sans changer la protéine produite. Or, si un exon est aussi un régulateur, une mutation synonyme peut malgré tout perturber un signal régulateur sans altérer directement la protéine.

Dans notre étude, nous montrons par des tests fonctionnels que certaines de ces variations modifient bien l’activité régulatrice de l’exon. Dans des données issues de tumeurs, nous observons aussi que des mutations situées dans ces exons sont associées à des changements d’expression de gènes cibles, y compris pour des mutations synonymes.

Quelles suites donner à ce projet ?

Nous n’en sommes probablement qu’au début. Les 10 000 exons identifiés chez l’humain constituent un atlas, mais pas encore une carte complète de tous les contextes biologiques où ces séquences agissent. La suite consiste donc à en tester beaucoup plus, dans davantage de types cellulaires, de tissus et d’espèces, afin de comprendre quand ces régulateurs exoniques sont actifs, quels gènes ils contrôlent et comment ils ont émergé au cours de l’évolution.

Il faudra aussi revoir à grande échelle notre manière d’interpréter les variants situés dans les exons. Jusqu’ici, beaucoup d’analyses demandaient surtout : cette mutation change-t-elle la protéine ? Il faut désormais poser une seconde question : change-t-elle aussi la régulation du gène ? Cette lecture à double entrée pourrait affiner l’interprétation de variants encore mal compris, notamment en cancérologie et en génétique humaine.

The Conversation

Ce travail a été soutenu par le MESR, INSERM, IFB, ANR.

ref. Double fonction des séquences d’ADN : une nouvelle étude démontre que certaines sont à la fois codantes et régulatrices – https://theconversation.com/double-fonction-des-sequences-dadn-une-nouvelle-etude-demontre-que-certaines-sont-a-la-fois-codantes-et-regulatrices-280230

Lessive : Peut-on passer de 50 à 5 ingrédients et toujours avoir un linge propre ?

Source: The Conversation – in French – By Véronique Sadtler, Professeure, Université de Lorraine

Ce qu’il se passe à l’intérieur d’une machine à laver est bien plus complexe que ce que vous imaginez. Manon Lincésur/Unsplash, CC BY

Vous lancez une machine, versez une dose de lessive et attendez un linge propre : taches éliminées, fibres et couleurs préservées, même à basse température. Derrière ce geste quotidien se cache une chimie sophistiquée. Les formulations actuelles mobilisent souvent plus de 30 ingrédients, chacun jouant un rôle précis. Pourtant, on voit apparaître des lessives mettant en avant des listes plus courtes, parfois réduites à moins de 10 composants, portées par une demande de transparence et de moindre impact environnemental. Mais peut-on vraiment simplifier sans perdre en efficacité ?


Une lessive ne se contente pas de nettoyer. Elle doit simultanément décoller les salissures, préserver les tissus et fonctionner dans des eaux de qualité variable. Pour y parvenir, chaque ingrédient remplit un rôle précis. Les tensioactifs forment la colonne vertébrale de la formulation. Leur structure amphiphile – une tête hydrophile avec affinité pour l’eau et une chaîne hydrophobe attirant les graisses – leur permet de s’intercaler entre les salissures et les fibres, de les décoller et de les maintenir en suspension dans le bain de lavage.

Les enzymes complètent cette action en ciblant des taches spécifiques : les protéases décomposent les taches protéiniques (sang, œuf), les amylases s’attaquent aux amidons (sauces, pâtes, riz), tandis que les lipases hydrolysent graisses et huiles. Leur efficacité à basse température explique en grande partie pourquoi les lessives modernes peuvent nettoyer sans chauffer fortement l’eau. D’autres ingrédients assurent des fonctions complémentaires, comme l’efficacité du lavage en eau dure (une eau riche en ions calcium et magnésium, une eau calcaire), la stabilité de la formulation ou la limitation de la redéposition des salissures sur les fibres.

Cette complexité s’est construite au fil des décennies pour répondre à des exigences toujours plus élevées. Certaines fonctions restent difficiles à concilier : améliorer la blancheur peut altérer les couleurs vives, tandis que renforcer l’efficacité à basse température exige souvent des systèmes enzymatiques plus élaborés. Notons que la réglementation européenne n’impose pas l’affichage de la liste complète des ingrédients sur l’emballage, mais seulement des classes de composants avec des fourchettes de pourcentages. Obtenir la liste exhaustive reste souvent complexe pour le consommateur. Si la liste détaillée est théoriquement accessible en ligne, elle est en pratique plus ou moins facile à consulter, parfois dispersée dans des documents techniques.

Les deux moteurs de la simplification

Les formulations tendent aujourd’hui à se raccourcir sous l’effet de deux dynamiques. La première est réglementaire. Ainsi, les phosphates, autrefois largement utilisés comme agents séquestrants, ont été fortement limités puis pratiquement éliminés des lessives ménagères en Europe depuis 2013. Rejetés dans les eaux usées après le lavage, les phosphates contribuent à l’eutrophisation des milieux aquatiques, c’est-à-dire à un enrichissement excessif en nutriments. Ils favorisent ainsi la prolifération d’algues, qui appauvrit l’eau en oxygène et peut entraîner une perte de biodiversité.

La seconde dynamique est sociétale. Une demande croissante de transparence et de réduction de l’empreinte environnementale pousse les fabricants à proposer des formules plus courtes. Azurants optiques, qui donnent une impression de blancheur plus éclatante sans agir directement sur le nettoyage, parfums, conservateurs, remplissent des fonctions réelles, mais sont de plus en plus contestés pour leurs effets allergènes potentiels ou leur persistance dans l’environnement. Certains labels, comme l’Écolabel européen, vont au-delà de la réglementation en les excluant ou en les limitant strictement, privilégiant certains critères écologiques au détriment d’autres performances.

Simplifier, c’est arbitrer

Réduire le nombre d’ingrédients ne consiste pas à supprimer des composants sans conséquence. Il s’agit de recomposer un nouvel équilibre entre contraintes souvent contradictoires.

Le cercle de Sinner, cadre classique en chimie du lavage, illustre ces arbitrages. Il repose sur quatre paramètres interdépendants : action chimique, température de l’eau, temps de contact et action mécanique. Pour obtenir un niveau de propreté donné, ces facteurs se compensent : réduire l’un impose d’en renforcer un autre.

C’est exactement la logique des programmes « éco » des machines à laver : en abaissant la température à 30 ou 40 °C au lieu de 60 °C, ils allongent la durée du cycle. Si cette baisse de température permet de réduire la consommation d’énergie, elle peut rendre aussi le lavage moins efficace, ce qui nécessite des formulations souvent plus sophistiquées, capables d’agir à froid. Le lavage à basse température ne simplifie donc pas nécessairement les formules, et peut au contraire conduire à les complexifier.

Du bidon à la dosette : la complexité change de forme

L’évolution des formats de lessive illustre la manière dont la complexité est parfois redistribuée plutôt qu’éliminée. Les lessives liquides, aujourd’hui dominantes, sont pratiques et efficaces à basse température, mais transportent une part importante d’eau, souvent plus de la moitié de la formulation et nécessitent des conservateurs. Les formats concentrés ou solides visent à réduire l’emballage et l’impact du transport, mais nécessitent un dosage plus précis de la part du consommateur.

Dans ce contexte, le volume du flacon n’est pas toujours un bon indicateur : les fabricants indiquent généralement sur l’emballage le nombre de lavages, qui reflète mieux la concentration et facilite la comparaison entre produits.

Le surdosage reste fréquent : par habitude ou par crainte d’un résultat insuffisant, beaucoup de consommateurs versent plus que la dose recommandée. Au-delà d’un certain seuil, les tensioactifs supplémentaires n’améliorent plus le nettoyage ; ils sont simplement rejetés dans les eaux usées, augmentant inutilement la charge environnementale.

Les dosettes multi-compartiments offrent une autre réponse élégante : en séparant physiquement des ingrédients incompatibles (certaines enzymes et agents oxydants qui se neutraliseraient dans un mélange unique), elles préservent l’efficacité de chacun jusqu’au moment du lavage, tout en imposant une dose prédéfinie qui limite mécaniquement le surdosage. La complexité chimique n’a pas disparu ; elle a simplement été intégrée dans l’architecture du produit.

Performance maximale ou performance suffisante ?

Le véritable enjeu réside ici. Les lessives classiques sont conçues selon une logique de performance maximale : elles doivent venir à bout des situations les plus exigeantes – taches tenaces, eau très calcaire, textiles délicats – même si ces cas restent minoritaires dans la vie quotidienne.

Pourtant, l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) le rappelle : la très grande majorité du linge porté n’est que peu ou modérément sale, et il est recommandé d’espacer les lavages. Viser systématiquement la performance maximale revient à surdimensionner la formulation pour des usages qui ne le justifient pas. Dans la pratique, pour le linge du quotidien, des doses modérées et des cycles à basse température sont généralement suffisants. À l’inverse, pour des taches plus tenaces – vêtements de sport ou de travail –, il peut être plus pertinent d’avoir recours à des détachants ciblés plutôt que d’augmenter systématiquement les doses de lessive.

Adapter les formulations aux usages majoritaires implique donc de passer d’une approche universelle à une logique de performance suffisante, c’est-à-dire une efficacité adaptée à la grande majorité des lavages quotidiens. Ce n’est pas une régression technique, mais un choix de conception assumé qui rend enfin visibles les arbitrages. Les lessives pour linge blanc (avec agents de blanchiment et azurants optiques) et celles pour linge foncé (sans ces composants pour préserver les couleurs) en sont l’illustration parfaite : on ne peut pas optimiser simultanément ces deux objectifs.

Enfin, le prix joue un rôle important. Les lessives revendiquant une formulation plus simple ou un impact réduit sont souvent plus chères à l’achat que les produits classiques, en raison du coût plus élevé des ingrédients alternatifs d’origine végétale ou biodégradable, des volumes de production généralement plus faibles et des certifications spécifiques. Toutefois, ce surcoût à l’achat ne se traduit pas nécessairement par un coût plus élevé à l’usage. Grâce à une concentration souvent supérieure et à un dosage plus précis, le prix par lavage peut s’approcher, voire s’aligner sur celui des lessives classiques, notamment avec les marques de distributeurs écologiques qui offrent aujourd’hui un excellent rapport qualité-prix.

Au fond, la simplification ne change pas seulement les formules, elle interroge aussi nos habitudes d’usage. Et c’est peut-être là son véritable apport : non pas viser une performance maximale en toutes circonstances, mais ajuster le niveau de performance réellement nécessaire selon les situations.

The Conversation

Véronique Sadtler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Lessive : Peut-on passer de 50 à 5 ingrédients et toujours avoir un linge propre ? – https://theconversation.com/lessive-peut-on-passer-de-50-a-5-ingredients-et-toujours-avoir-un-linge-propre-280642