Le bateau MV Hondius, foyer du hantavirus qui a causé la mort de trois passagers et en a infecté au moins cinq autres, a quitté le Cap-Vert mercredi et est attendu samedi à Tenerife, dans l’archipel espagnol des Canaries, d’où l’évacuation des passagers, dont des Canadiens, devrait débuter lundi.
C’est le virus des Andes qui est ici en cause, le seul du groupe des hantavirus transmissible entre humains, notamment par des gouttelettes de salive et par l’urine.
Il est peu probable que la première personne contaminée par ce hantavirus l’ait été à bord du MV Hondius ni au cours d’une escale. Le temps d’incubation pointe vers une contamination survenue avant le départ d’Ushuaïa, dans le sud de l’Argentine, au début du mois d’avril. Plusieurs des passagers de la croisière ont voyagé en Argentine et au Chili, où le virus est endémique.
Mais que sait-on de ce hantavirus ? Nous avons joint le professeur Benoît Barbeau du département des sciences biologiques de l’UQAM, expert en virologie, dont les recherches portent sur les rétrovirus humains et les coronavirus.
The Conversation Canada : À quoi avons-nous affaire avec l’hantavirus andin ?
Dr Benoît Barbeau : Il fait partie d’un groupe de virus regroupé sous le genre orthohantavirus. Le type andin peut occasionnellement être transmis à l’humain par des rongeurs (par les particules d’excréments ou d’urines) et provoquer des syndromes pulmonaires et hémorragiques, potentiellement mortels.
Ce qu’on comprend, mais on n’en a pas la certitude pour l’instant, c’est qu’une personne aurait visité des endroits, en Argentine, où il y avait présence de souris sylvestres infectées. Après avoir été en contact avec des particules d’excréments ou d’urine, sans le savoir, elle aurait pu inhaler celles-ci ou tout autre type de matière similaire. C’est le scénario le plus probable. Cette personne serait arrivée sur le bateau en étant déjà infectée. La contamination d’autres passagers s’est poursuivie à partir de là.
Il faut savoir que l’hantavirus andin n’a pas une efficacité de transmission très forte entre humains. Ça se fait par les urines, la salive, les contacts répétés… Par exemple, sur un bateau, dans une même cabine, avec des contacts fréquents. Le virus n’est pas transmissible en aérosol, comme la grippe ou la Covid. C’est quand même rassurant.
TCC : Il n’est pas si aisément transmissible, mais beaucoup plus mortel…
B.B. : En effet. Ce virus provoque deux types de maladies : une fièvre hémorragique, qui fait penser à Ebola, et qui a un taux de mortalité important (NDLR Jusqu’à 40 %), ou un syndrome pulmonaire, tout aussi létal. À l’heure actuelle, on n’a pas de traitements antiviraux. On ne peut que soulager les symptômes.
TCC : C’est un virus moins efficace dans sa transmission, mais son incubation peut être longue…
B.B : En effet, l’incubation peut aller jusqu’à huit semaines, contre deux à trois jours pour la Covid. Ça complexifie évidemment la chaîne de transmission. Cela dit, la personne ne sera pas contagieuse pendant ces huit semaines, mais fort probablement davantage quand les symptômes vont apparaître.
TCC : Pourquoi l’Amérique du Sud est-elle plus touchée par cette forme d’hantavirus ?
B.B. : On ne sait pas trop. De manière générale, en fait, on en sait peu sur ce virus, qui a été identifié à la fin des années 70 seulement. C’est donc un virus relativement récent pour nous, même si on sait que dans l’histoire, certaines éclosions y seraient liées. Il est présent dans plusieurs endroits (dont au Canada), mais demeure très peu prévalent. Depuis 1989, on en a recensé une centaine de cas chez l’humain au Canada. Parmi eux, une vingtaine sont décédés. Cela dit, peut-être que d’autres personnes ont été infectées et non recensées.
Ce qu’on sait, c’est que la souris sylvestre est la principale souche d’infection. Elle peut être porteuse du virus, mais plus tolérante à l’infection, donc elle n’est pas malade, et les risques de contagion sont plus grands. Elle devient un réservoir. Un peu comme la chauve-souris pour plusieurs virus, comme Ebola, les coronavirus, et le virus de la rage.
TCC : Est-ce que la présente éclosion, très médiatisée, poussera à développer davantage la recherche ?
B.B. : Possiblement… On espère un éveil du côté des gouvernements. On aurait intérêt à mieux investiguer. Mais on finance davantage la recherche sur les virus qui ont le plus d’impact sur un pays et sur sa population. Et comme la majorité des hantavirus n’est pas transmissible d’humain à humain, il n’y a pas tant d’intérêt pour les gouvernements d’investir dans la recherche.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Mettre de l’énergie et de l’argent pour développer un vaccin ne serait pas très rentable non plus, car un vaccin efficace pour le type andin, par exemple, serait fort possiblement inefficace pour les autres hantavirus, et il y en a beaucoup. Ça ajoute à la complexité. Il vaut mieux investir dans les traitements, c’est plus efficace. On pourrait commencer par réutiliser ou tester d’autres antiviraux connus.
TCC : À quoi s’attendre pour la suite ?
B.B. : Tout dépend de ce qui va découler des analyses épidémiologiques… Il y a des passagers qui ont quitté le bateau de croisière avant qu’on sache qu’il y avait une éclosion. Il faut les retracer, eux et les gens avec qui ils ont été en contact. Le transfert des passagers toujours à bord du bateau doit se faire dans les prochains jours, à partir des îles Canaries. Les gens seront rapatriés dans leur pays respectif. Ils seront isolés et confinés avec des mesures qui seront certainement strictes, il n’y a donc pas de risque de transmission dans la population.
Je crois qu’on peut être confiant. Mais il faut rester très vigilant.
Benoit Barbeau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – France (in French) – By Jean-Baptiste Meyer, Directeur de recherche (Centre Population et Développement), Institut de recherche pour le développement (IRD)
Et si la diplomatie climatique se réinventait en dehors du format traditionnel des COP ? En Colombie, à l’occasion d’une conférence organisée à Santa Marta du 24 au 29 avril 2026, une dynamique alternative a émergé : plus ouverte, elle cherche à dépasser les blocages multilatéraux en plaçant la diversité des savoirs au cœur des décisions.
S’il y a un constat sur lequel convergent les « climato-négationnistes » et les activistes climatiques radicaux, c’est l’inutilité des COP, organisées sous l’égide des Nations unies (Convention-cadre des Nations unies sur les changements climatiques, UNFCC de son acronyme en anglais). Dans les deux cas, on leur reproche une inefficacité de plus en plus apparente, où les décisions sont nécessairement prises au consensus. En conséquence, le consensus devient tellement mou qu’il n’en exprime plus rien de significatif ni d’opératoire.
Ainsi le résume la bande-annonce d’un film documentaire à venir dans le courant de l’été 2026, en partenariat avec l’Institut de recherche pour le développement (IRD) et l’Université nationale de Colombie.
Bande-annonce du documentaire De Los Andes a Belém (2026).
Du 24 au 29 avril 2026 à Santa Marta, en Colombie, une conférence inédite a voulu replacer enfin la sortie des combustibles fossiles au cœur de l’agenda international. Co-organisée par la Colombie et les Pays-Bas, elle a regroupé 57 États volontaires (et l’Union européenne en tant que telle, NDLR).
Qu’a-t-il été décidé à cette occasion ? À rebours des COP climat, où ce sont avant tout les textes finaux qui comptent, pesés au mot près, car votés par les représentants d’États, c’est ici surtout la méthode de travail qui diffère, beaucoup moins rigide. Elle ne s’accompagnait d’aucune obligation de production particulière, si ce n’est d’engager le processus de constitution d’une feuille de route pour la sortie des énergies fossiles. La rencontre a ainsi inauguré de nouvelles modalités de coopération mondiale sur les enjeux socio-environnementaux.
Dépasser le blocage des COP grâce à une coalition de volontaires
Le débat sur la paralysie des négociations multilatérales en général – et celle des COP climat en particulier – n’est guère nouveau. Leur répétition annuelle exacerbe les frustrations de ceux qui souhaitent réellement progresser sur les questions climatiques.
À la COP30 de Belém, en novembre 2025, une quarantaine de pays avaient exprimé leur mécontentement quant à l’absence de mention de la sortie des énergies fossiles dans la déclaration finale. Plus de 80 se sont associés à l’initiative encourageant à poursuivre les travaux d’élaboration d’une feuille de route en ce sens.
La Colombie et les Pays-Bas ont alors invité les États qui souhaitaient travaillaient sur ce point à se réunir dans une conférence en marge des COP. Autrement dit, la conférence de Santa Marta ne s’est certes pas tenue dans le cadre onusien, mais s’est toutefois inscrite dans le prolongement de la précédente COP climat.
Préparée dans un laps de temps exceptionnellement court (moins de la moitié d’une année, contre un an pour les COP climat), cette conférence inédite avait une organisation moins cadrée au plan organisationnel. Aux dires d’observateurs et de participants, on y percevait un petit côté brouillon : davantage d’improvisation, voire parfois un manque de clarté sur les livrables attendus et les prochaines étapes.
Pourtant, ces faiblesses – inhérentes au format de la conférence spontanée, point d’étape entre la COP30 du Brésil et la COP31 en Turquie – ont, aux dires des participants, pu être dépassées, notamment grâce à son caractère volontaire. Juan Carlos Monterrey Gómez, envoyé climatique du Panama, cité dans le Climate Diplomacy Brief, a par exemple déclaré :
« Santa Marta est un moment historique, car c’est la première fois que nous pouvons ouvrir nos cœurs, ouvrir nos esprits et avoir une véritable conversation sans ces stupides demandes de mise au vote, sans ces stupides procédures qui font dérailler toute la séance et ne nous laissent que dix minutes pour aborder le fond. »
La méthode Santa Marta ? Un bouillon de culture plutôt que des zones bleue et verte
Concrètement, la conférence a successivement réuni trois composantes : un panel académique (baptisé Academic Dialogue) où les scientifiques du monde entier ont pu émettre des recommandations, un « sommet des peuples », avec notamment des représentants associatifs, communautaires et syndicaux et, enfin, un segment de haut niveau (Transition Away from Fossil Fues, ou TAFF, regroupant essentiellement des représentants gouvernementaux spécialisés.
Cette concentration de thématiques, de compétences et de volontés dans des espaces restreints a favorisé un véritable bouillon de culture permettant des échanges fertiles. Il contraste avec l’organisation physique des COP, où plusieurs milliers de participants se retrouvent dans une multitude de pavillons, souvent sur plusieurs bâtiments. L’espace y est alors divisé entre zone bleue, réservée aux délégations nationales, aux organismes onusiens et aux ONG observatrices, et où se déroulent les négociations officielles de la COP28, et zone verte, ouverte à toutes les autres parties prenantes.
Contrairement aux COP, où ce sont les délégations nationales qui débattent (les discussions relatives à l’état de la science, par exemple, se déroulent à un autre moment, sous l’égide d’un organe subsidiaire, la conférence de Santa Marta a proposé une méthodologie transversale, impliquant en amont 15 groupes de travail transnationaux. Une grande hétérogénéité a caractérisé l’ensemble de ces groupes, allant des représentants des sciences à ceux de la société civile, en passant par les entités publiques à différentes échelles, ainsi que des agences de financement ou des entreprises multinationales.
Au cours des deux mois qui ont précédé la rencontre, ces derniers ont planché sur trois enjeux fondamentaux : la dépendance structurelle aux combustibles fossiles, l’action sur l’offre et la demande et les modalités de la coopération internationale et de la diplomatie climatique.
Répartition des groupes de travail en amont de la conférence de Santa Marta (Colombie). Fourni par l’auteur
Malgré la diversité de statuts et d’intérêts des participants à ces groupes de travail, un certain nombre de points de convergence sont apparus :
les progrès réalisés par les alternatives aux fossiles sont irréversibles,
il est indispensable de mettre fin aux soutiens fiscaux et juridiques à l’extraction des combustibles,
pour y parvenir, la concertation et la dialogue sont essentiels.
Remettre la science au centre, sans oublier les savoirs autochtones
À Santa Marta, la science a gardé un rôle fondamental, acté à la fin de la conférence par l’instauration d’un conseil spécifique. Sa fonction est de nourrir les processus de décision, à partir de connaissances élaborées de façon rigoureuse. Lors de la conférence, les participants ont exprimé leur foi dans une politique fondée sur les preuves (evidence based policy). Elle confère une responsabilité majeure à la communauté scientifique.
L’hétérogénéité de la participation des corps sociaux à la conférence a ainsi permis d’introduire de véritables porte-paroles des entités naturelles. Au-delà des chercheurs, régulièrement convoqués pour en expliquer les comportements et la dégradation, elles ont également mis à l’honneur les communautés indigènes, paysannes ou afro-descendantes
Le mariage cognitif entre ces savoirs hétérogènes requiert toutefois un travail transépistémique. Les épistémies varient considérablement entre celles fondées sur le scepticisme organisé (les disciplines scientifiques) et celles recourant aux explications traditionnelles parfois d’ordre religieux, qui font intervenir des entités spirituelles, par exemple. Pourtant, des convergences notables existent, notamment pour ce qui est de la conscience écologique, susceptibles d’influencer les positions politiques qui en découlent.
Malgré tout, une certaine hiérarchie a pu perdurer durant la conférence entre ces acteurs de la diversité culturelle et ceux de la gouvernance, inscrite dans la division successive des séquences (académique, société civile puis représentation gouvernementale) et leur degré d’exclusivité. Mais la tendance à l’ouverture et à l’inclusion manifeste plus qu’un changement idéologique : c’est aussi une modification (partielle mais réelle) des références objectives.
On retrouve en effet, dans la nouvelle diplomatie climatique portée à Santa Marta, une « esquisse du Parlement des choses », telle que décrite par Bruno Latour en 2018. Elle consiste à revoir les rôles attribués au politique, à l’expertise et à la technocratie, et où ce ne serait plus seulement les humains qui auraient le droit d’être représentés.
Ce concept pose de nouvelles questions au droit et à l’économie politique internationale. Un ouvrage à paraître prochainement, issu d’un projet européen et latino-américain sur la transition écologique auquel j’ai collaboré, entame la remise en question de la conception de la géopolitique centrée sur l’humain.
Vers une nouvelle géopolitique climatique ?
Les efforts déployés à Santa Marta ont transcendé les clivages nationaux, mais aussi nord-sud, d’une certaine manière. Avec une présidence bicéphale eurolatino (colombo-néerlandaise), et euro-océanique pour la prochaine conférence qui sera co-organisée par l’Irlande et Tuvalu, le grand partage manichéen des responsabilités historiques de l’empreinte écologique (qui, historiquement, est un point d’achoppement des COP climat) n’a, certes, pas été complètement effacé. Il a toutefois été adouci par le cadrage de la conférence sur la recherche de solutions.
Toutes les régions du monde étaient représentées, avec une majorité relative de l’Europe (plus d’un tiers des pays officiellement présents), suivie de l’Amérique latine, puis de l’Asie, de l’Afrique et de l’Océanie. Aucun des grands pays à prétention hégémonique n’était invité – ni les États-Unis, ni la Chine, ni la Russie – et le seul des grands émergents à participer était le Brésil.
Déclaration du premier ministre canadien Mark Carney, lors du Forum de Davos, en janvier 2026.
Mais la vision de la conférence de Santa Marta s’affirme et se distingue sur au moins deux points :
le premier concerne l’importance accordée au Sud global,
et le deuxième, l’irruption des non-humains dans le champ de la géopolitique.
Même si la prégnance du Nord demeurait dans les coordinations, la composition de l’assistance lors des réunions privilégiait naturellement la participation de ressortissants du Sud. Les sujets abordés reflétaient des enjeux qui les concernent au premier chef, puisque les impacts écologiques actuels les affectent en priorité. En mettant le Sud au cœur des débats, une telle rencontre participe du rééquilibrage de ces derniers et renouvelle la façon de les aborder.
Avec ce renouvellement de la contradiction à son endroit, le négationnisme climatique (qui peut, on l’a vu avec la sortie des États-Unis de l’accord de Paris, trouver des relais à l’échelle des États) a de fortes chances d’être progressivement confronté à un isolement accru. Ses velléités d’entraînement ont fait long feu à Belém, où aucun pays n’est sorti de l’accord de Paris. Elles pourraient se voir débordées par des initiatives telles que celles explorées à Santa Marta, qui a aussi voulu anticiper ses effets pervers. Des mécanismes ont ainsi été envisagés pour contrer l’augmentation de la demande d’hydrocarbures que pourrait générer une baisse des prix du fait de la croissance des énergies renouvelables.
Claude Mythos est une intelligence artificielle de pointe, développée par la société Anthropic, dont les capacités avancées en cybersécurité offensive suscitent autant de fascination que d’inquiétude.Gguy/Shutterstock
L’apparition de l’IA Mythos, présentée comme capable de détecter rapidement des failles informatiques majeures, montre que les capacités offensives dans le cyberespace progressent très vite. Cette évolution pourrait rendre les systèmes nucléaires plus vulnérables et augmenter le risque d’erreurs, de sabotage ou d’escalade accidentelle.
En 1983, le film WarGames imaginait un adolescent qui, entré par accident dans un système informatique du Pentagone, déclenchait un programme de simulation, lequel était interprété comme un prélude à une guerre nucléaire. Le film avait tant marqué Ronald Reagan qu’il avait interrogé ses conseillers sur la possibilité d’une telle intrusion dans les systèmes américains les plus sensibles. Une semaine plus tard, la réponse était venue : « Monsieur le Président, le problème est bien plus grave que vous ne le pensez. »
Les politiques autour de l’armement nucléaire reposent sur une série de paris, souvent lointains, sur l’avenir de la dissuasion nucléaire. D’abord, les pays dotés de l’arme nucléaire considèrent que la peur de leur riposte suffira toujours à empêcher un adversaire de les attaquer en premier, et qu’ils disposeront toujours de l’expertise et de la chance nécessaires pour prévenir des explosions accidentelles. Ils estiment donc que la possession de l’arme nucléaire sera pour eux, au cours des décennies à venir, source de sécurité et non d’insécurité.
Mais il existe un autre pari, bien plus implicite : celui que les arsenaux nucléaires, qui sont des systèmes technologiques complexes et hautement digitalisées, ne possèdent aucune vulnérabilité cyber qui pourrait être exploitée par un acteur souhaitant empêcher son fonctionnement normal.
La récente percée de l’intelligence artificielle Mythos révèle à quel point les conditions de ce pari peuvent changer sur le long terme.
Mythos et l’avenir de la cybersécurité
Le 7 avril 2026, la compagnie Anthropic – qui commercialise la série de grands modèles de langages (LLM) Claude – annonçait la création de son nouveau modèle d’intelligence artificielle (IA) : « Mythos ». Ce modèle, qui n’a pas été mis sur le marché mais rendu disponible à un groupe de travail restreint composé d’une douzaine des principaux géants américains de la technologie (Google, Microsoft, Apple, NVidia, Amazon Web Services, etc.), obtiendrait un taux de succès sans précédent en matière de détection des failles dans les systèmes informatiques.
Mythos aurait ainsi été capable de détecter, avec un impressionnant taux de succès, des failles « zero-day » dans différents navigateurs informatiques, logiciels ou systèmes d’exploitation. Une faille « zero-day » est une faille de sécurité critique dans un système d’information, contre laquelle aucune protection n’existe pour l’instant, rendant ainsi possible une attaque laissant un délai de « zéro jour » pour réagir. Selon Anthropic, Mythos aurait réussi à développer en un temps record (sans doute moins d’une journée) des méthodes permettant d’exploiter ces failles avec un taux de succès de 72,4 %, largement supérieur aux autres modèles existants.
Si ces informations proviennent de la compagnie elle-même – qui a tout intérêt à exagérer les résultats –, certaines preuves publiques ont toutefois été apportées. Sylvestre Ledru, le directeur de l’ingénierie chez Mozilla responsable du navigateur Firefox, a déclaré que Mythos avait permis de découvrir un nombre « proprement hallucinant » de vulnérabilités dans leurs logiciels. Une faille de sécurité vieille de près de vingt-sept ans, ayant survécu à un grand nombre d’audits, a par exemple été découverte dans un système d’exploitation libre très utilisé par des services de sécurité informatique, OpenDSB.
Même dans le cas où Mythos ne serait pas à la hauteur des performances annoncées, le développement des LLM depuis le début des années 2020 a montré à quel point leurs performances s’améliorent vite. Nous faisons donc face à une accélération du développement des capacités offensives et de la diffusion de celles-ci à un nombre d’acteurs plus large. Cela signifie une potentielle tendance à la hausse de la probabilité de succès d’une cyberattaque, ainsi qu’une augmentation du nombre absolu de ces attaques.
La vulnérabilité des arsenaux nucléaires
Pour comprendre la vulnérabilité des armes nucléaires aux cyberattaques, il faut avoir à l’esprit le fait que par « arsenal nucléaire », on entend bien plus qu’un stock de têtes nucléaires. Le fonctionnement normal des arsenaux nucléaires modernes repose sur une large configuration de technologies : têtes nucléaires, missiles permettant de transporter ces armes, technologies de communication (permettant d’assurer que l’ordre soit transmis depuis le président jusqu’à l’opérateur chargé d’actionner ces armes), ainsi qu’un ensemble de technologies d’alerte avancée servant à surveiller le ciel à la recherche de potentiels signaux d’une attaque nucléaire adverse. Ces éléments doivent être capables de communiquer entre eux pour assurer le contrôle de ces armes.
Et ils sont plus nombreux qu’on pourrait le penser. Comme le note Herbert Lin, chercheur à l’Université de Stanford et auteur d’une étude sur les cybermenaces contre les armes nucléaires, la métaphore du « bouton nucléaire » est simplifiée : une fois que le président appuie dessus, un ensemble de « cyber-boutons » doivent être pressés pour déclencher les opérations nucléaires, et les contrôler – autant d’échelons où des attaques informatiques pourraient s’insérer pour empêcher, par exemple, l’arrivée de l’information pertinente.
Le président pourrait ne pas recevoir suffisamment d’informations – ou ne pas en recevoir du tout – pour déterminer qu’une attaque est en cours. Ou alors, il pourrait ne pas être en mesure de communiquer à ses forces sous-marines l’ordre de tir. Pis, on pourrait voir se réaliser le scénario catastrophe imaginé depuis les années 1950 : un faux ordre de tir pourrait être communiqué aux opérateurs de missiles.
Les scénarios n’ont pas besoin d’être aussi radicaux : l’ordre pourrait être communiqué, mais avec un retard, ou ne pas être communiqué à l’ensemble des forces, menant à une riposte moindre que celle désirée. Ladite riposte pourrait être bloquée : en 2010, un centre de commandement américain a perdu la communication avec une cinquantaine de missiles nucléaires pendant près d’une heure. Un adversaire pourrait savoir tirer profit de telles failles.
On peut aussi imaginer des actions cyber contre les armes elles-mêmes, le hardware plutôt que le software de l’arsenal. Bien sûr, les acteurs de la sécurité nucléaire ne se contentent pas d’attendre qu’une attaque survienne sur l’un de ces systèmes. Ils développent et testent leurs capacités défensives de manière continue. Le problème est que la complexité des systèmes existants ne permet pas d’affirmer avec certitude qu’il n’existe « aucune vulnérabilité ».
Cela ne signifie pas non plus que des vulnérabilités existent nécessairement. Mais cela veut dire qu’aucun acteur n’est en mesure de savoir s’il y en a. Alors, faut-il craindre que l’arsenal nucléaire français, ou bien n’importe quel autre arsenal ciblant la France, soit « hacké » dans le futur ?
En fait, on ne sait pas. Des scénarios de ce type sont de l’ordre du possible : il n’existe pas de large système d’information complexe dont on puisse garantir, avec une totale certitude, la fiabilité totale. L’évolution des outils permettant des cyberattaques, et leur potentielle diffusion auprès d’un large nombre d’acteurs étatiques et non étatiques, rend ce type de scénario futur potentiellement plus probable et, dans tous les cas, plausible.
Un nouveau pari sur le futur
Mythos met en lumière une nouvelle modalité du pari nucléaire, née du développement des nouvelles technologies et de leur intégration aux arsenaux nucléaires.
Nous parions d’abord sur l’absence de vulnérabilité au sein de ces systèmes – alors même qu’il est impossible de mesurer cette probabilité avec certitude. Elle évolue avec le temps, au rythme des systèmes mis à jour, remplacés, connectés à d’autres. Si une vulnérabilité existe malgré tout, nous parions ensuite sur le fait que, en temps voulu, l’évolution des capacités offensives dans le cyberespace sera constamment égalée, et toujours à temps, par l’évolution des capacités défensives – y compris à l’ère de l’intelligence artificielle. Là encore, cette probabilité est elle aussi indéterminable, puisque le développement de capacités défensives est réactif : il se fait en fonction de la connaissance que l’on a de la nature des capacités offensives et des vulnérabilités existantes, qui sont indéterminables. On fait donc le pari que nos défenses, et celle des autres États dotés d’armes nucléaires, suffiront.
Nous faisons donc le pari que nos défenses contre les cyberattaques, et celle des autres États dotés d’armes nucléaires, seront suffisantes. Dans le cas contraire, alors on fait le pari que la chance sera de notre côté et que les vulnérabilités existantes ne seront pas détectées – comme celle qui existait depuis 27 ans dans le code d’OpenDSB. Il s’agit d’un pari sur la chance puisque dans ce scénario, c’est l’incapacité ou l’absence de volonté adverse, sur laquelle nous n’avons aucun contrôle, à développer des capacités efficaces qui nous sauve.
La capacité des pratiques existantes de contrôle à remplir leur tâche est rendue plus incertaine par l’arrivée de grands modèles d’IA capables de détecter des vulnérabilités et concevoir des cyberattaques de façon massive et automatisée. Faire le choix d’une politique de sécurité fondée sur les armes nucléaires revient à parier sur le fait que, dans le futur comme par le passé, la chance restera toujours de notre côté.
Ce travail a été financé par le Conseil Européen de la Recherche (ERC) au titre du programme-cadre de l’Union européenne pour la recherche et l’innovation Horizon Recherche (projet RITUAL DETERRENCE, convention de subvention n°101043468).
Source: The Conversation – in French – By Bamba Gaye, MD, MPH, MSc, PhD, Executive Director, Alliance for Medical Research in Africa (AMedRA) | Adjunct Professor at Biomedical Informatics, Emory School of Medicine in Atlanta, Georgia, USA |, Université Cheikh Anta Diop de Dakar
La médecine moderne se targue d’être une science universelle, fondée sur les données issues des essais cliniques.
Mais il existe un biais dans la recherche médicale. Alors que l’Afrique représente environ 25 % de la charge de morbidité du monde et 19 % de la population mondiale. Pourtant, sa population est largement absente des essais cliniques.
L’ampleur de cette exclusion est révélée par une étude phare portant sur 2 472 essais contrôlés randomisés publiés dans le monde entier entre 2019 et 2024.
J’ai dirigé cette équipe de chercheurs, qui a passé au crible les publications médicales les plus influentes dans le monde monde afin de quantifier la représentation africaine. Parmi celles-ci figuraient le New England Journal of Medicine, The Lancet, le Journal of the American Medical Association, Nature Medicine et le British Medical Journal. L’étude portait également sur trois revues de référence en cardiologie : Circulation, l’European Heart Journal et le Journal of the American College of Cardiology.
Je suis médecin-chercheur et je travaille à la croisée de l’épidémiologie cardiométabolique et de la science des données biomédicales. Je me consacre également aux études de population à grande échelle en Afrique et à la prévention cardiovasculaire fondée sur les données.
Les essais cliniques randomisés constituent la pierre angulaire de la médecine factuelle. Introduits au milieu du XXe siècle, ils évaluent rigoureusement la sécurité et l’efficacité des traitements en répartissant aléatoirement les participants dans différents groupes. Cette méthode vise à minimiser les biais. De tels essais ont joué un rôle central dans les avancées médicales majeures, des thérapies cardiovasculaires aux vaccins. Ils continuent de guider les décisions cliniques et le développement de nouveaux traitements à travers le monde.
Nos résultats révèlent un profond déséquilibre dans le paysage mondial de la recherche clinique. Parmi les cinq revues médicales les plus prestigieuses dans le monde, seuls 3,9 % des essais ont été menés exclusivement en Afrique. En matière de santé cardiovasculaire, ces chiffres tombent à un niveau statistiquement insignifiant. Parmi les essais majeurs publiés dans les principales revues de cardiologie, seules deux études (0,6 %) ont été menées uniquement sur le sol africain.
C’est un problème de fiabilité scientifique. Lorsque les essais cliniques excluent les populations africaines, ils produisent des données qui manquent de « validité externe ». Cela fait référence à la capacité des résultats d’une étude à être généralisés au-delà des participants. La question est de savoir si les conclusions d’un essai clinique resteront valables lorsqu’elles seront appliquées à des populations, des contextes ou des conditions réelles différents.
Sans cette validité, les médecins appliquent des résultats incertains à des millions de patients chaque jour.
La médecine moderne ne peut prétendre être universelle si des populations entières restent invisibles dans la base de données probantes. La biologie, les systèmes de santé et les schémas épidémiologiques ne sont pas identiques partout dans le monde.
De nombreux traitements utilisés sur le continent reposent sur des données générées auprès de populations non africaines, ce qui soulève des inquiétudes quant à leur applicabilité.
De plus, la plupart des essais menés en Afrique se concentrent encore sur les maladies infectieuses, malgré le fardeau croissant des maladies non transmissibles telles que les maladies cardiovasculaires.
De nouvelles données montrent que la génétique, l’environnement et l’alimentation peuvent modifier radicalement la façon dont un organisme réagit à un médicament. Il n’est donc pas logique, d’un point de vue médical, qu’un continent entier soit exclu du réseau des essais cliniques.
Il existe également des preuves montrant que certains traitements présentent des profils de sécurité différents chez les patients noirs. Le diabète et la goutte n’en sont que deux exemples. Il en va de même pour certains médicaments courants contre l’hypertension, tels que les inhibiteurs de l’enzyme de conversion de l’angiotensine (ECA). Des recherches montrent qu’ils présentent un risque trois à quatre fois plus élevé d’effets secondaires graves et potentiellement mortels chez les personnes d’origine africaine par rapport aux autres populations.
Lorsque les essais cliniques excluent certaines populations, les médecins sont contraints d’extrapoler les résultats obtenus sur une population et de les appliquer à une autre.
L’étude met également en évidence un décalage dangereux entre le financement mondial de la recherche et l’évolution de la réalité sanitaire en Afrique. Les nouvelles données montrent que près de 76 % des essais menés exclusivement en Afrique portaient sur des maladies infectieuses. Or, le continent connaît actuellement une transformation épidémiologique majeure. Les maladies non transmissibles – maladies cardiaques, accidents vasculaires cérébraux et diabète – représentent désormais environ 38 % de tous les décès dans de nombreux pays africains.
La classe moyenne en Afrique a triplé pour atteindre 300 millions de personnes, contre environ 100 millions au début des années 2000. De plus en plus de personnes vivent désormais suffisamment longtemps avec des modes de vie qui augmentent le risque de maladies chroniques telles que les maladies cardiaques, le diabète et l’hypertension. Par conséquent, il existe un besoin et un marché croissants pour des traitements à long terme permettant de prendre en charge ces maladies, plutôt que pour des thérapies à court terme contre les infections. Pourtant, les essais cardiovasculaires continuent d’être découragés.
Même au sein du continent, les données révèlent de véritables zones d’ombre en matière d’information. L’Afrique du Sud représente plus de 62 % de tous les essais menés sur le continent. L’Afrique centrale, une région qui compte plus de 180 millions d’habitants, était pratiquement absente des registres mondiaux de la recherche. Elle a contribué à moins de 3 % de la production limitée d’essais cliniques du continent.
Parmi les raisons possibles, on peut citer les décennies d’investissements cumulés de l’Afrique du Sud, qui se traduisent par des pôles universitaires plus solides, une meilleure gouvernance de la recherche, des unités d’essais expérimentées et des relations plus établies avec les promoteurs. D’autres régions sont confrontées à des obstacles tels que des institutions de recherche disposant de moins de ressources, un accès plus limité aux plateformes d’essais cliniques, et parfois des problèmes linguistiques et de publication qui peuvent réduire leur visibilité dans les revues de premier plan.
Cette inégalité s’étend à la hiérarchie scientifique elle-même. Même lorsque des sites africains sont inclus dans de grands essais cliniques multiconinentaux, ils sont souvent relégués au rôle de « centres de recrutement » plutôt qu’à celui de partenaires scientifiques.
Notre étude a révélé que les scientifiques africains ne dirigeaient que 3,6 % des essais sur plusieurs continents incluant un site africain.
L’Afrique ne devrait pas se contenter d’être un simple lieu où l’on mène des études.
Elle doit être un lieu où la recherche est conçue, dirigée et interprétée. Le modèle actuel crée un cycle de dépendance vis-à-vis de l’extérieur, dans lequel les institutions internationales gèrent le financement et les données. Cela rend les systèmes de recherche locaux fragiles et incapables de traduire les données probantes en politiques nationales.
Il est nécessaire de mettre en place un financement « réservé » pour la recherche dirigée par des Africains, de développer des réseaux régionaux d’essais cliniques et d’imposer aux revues médicales de rendre compte de la diversité des populations participant aux essais.
Des signes indiquent une dynamique croissante. Des organisations telles que l’Alliance pour la recherche médicale en Afrique s’efforcent de former une nouvelle génération de chercheurs africains. L’Afrique doit créer un écosystème de recherche trop important pour que la communauté internationale puisse l’ignorer.
Bamba Gaye, MD, MPH, MSc, PhD does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
L’entreprise états-unienne Anthropic, spécialisée en intelligence artificielle générative, a pris début avril la décision de geler la diffusion publique de l’un de ses modèles récents, baptisé « Mythos ».
Selon un communiqué de la société, cette décision découle d’une puissance de calcul et d’une capacité de raisonnement jugées trop « offensives ». Anthropic a choisi de ne partager son modèle qu’avec une coalition de géants technologiques (Apple, Amazon Web Services, Cisco, Google, Microsoft, etc.) dans le cadre du projet Glasswing. Le but annoncé est d’utiliser Claude Mythos Preview pour détecter des vulnérabilités dites « zero-day » (c’est-à-dire inconnues et n’ayant aucun correctif connu) et sécuriser proactivement les logiciels critiques… avant que des acteurs malveillants n’exploitent ces failles.
Les grands modèles de langage savent déjà coder depuis quelques années, mais la presse spécialisée documente désormais un saut plus préoccupant. Des systèmes d’intelligence artificielle (IA) peuvent identifier des vulnérabilités réelles dans des logiciels critiques. Les autorités, comme l’Agence nationale de la sécurité des systèmes d’information (Anssi), soulignent la capacité des systèmes d’IA à automatiser les attaques.
Les enjeux de la diffusion massive de tels modèles, Mythos compris, dépassent largement le cadre technique. Une cyberattaque d’envergure, automatisée par une IA, pourrait paralyser des systèmes financiers ou logistiques en quelques secondes, avec un coût de remédiation se chiffrant en milliards d’euros. Les enjeux sont aussi sociétaux et de santé, puisque nos hôpitaux, nos réseaux énergétiques et les autres systèmes critiques reposent sur des couches logicielles souvent anciennes, vulnérables à des « attaques de zero-day » désormais générées à la chaîne.
Dans ce contexte, des IA ultraperformantes, comme Mythos, peuvent-elles contribuer à une forme de « dissuasion algorithmique » ? Celle-ci repose sur un principe simple : détecter et neutraliser ses propres vulnérabilités critiques plus vite que n’importe quel attaquant humain ou automatisé – y compris lors d’une attaque – si rapidement que l’attaque en devient inutile ou trop coûteuse.
La rétention de ce modèle par une ou des entreprises privées états-uniennes rouvre également la question de la souveraineté numérique à l’échelle mondiale.
Les systèmes d’IA facilitent les cyberattaques
Historiquement, la cybersécurité repose sur une asymétrie fondamentale : l’attaquant n’a besoin de trouver qu’une seule faille de sécurité, tandis que le défenseur doit toutes les combler dans une forme de course contre la montre.
L’intégration de systèmes d’IA renforce les capacités des attaquants, en premier lieu parce qu’un modèle comme Mythos peut scanner des millions de lignes de code en quelques minutes, là où un humain passait des semaines à analyser le code source d’un logiciel pour y déceler une erreur de mémoire. C’est ce que l’on appelle l’« automatisation de la reconnaissance ».
De plus, l’IA permet le phishing de haute précision, c’est-à-dire des messages frauduleux (le phishing classique) mais plus crédibles, sans fautes d’orthographe, dans n’importe quelle langue et ultrapersonnalisés pour tromper l’utilisateur. L’Anssi alerte d’ailleurs sur l’usage de l’IA générative pour briser les barrières linguistiques et psychologiques traditionnelles qui rend les « pare-feux humains » – c’est-à-dire la vigilance et l’esprit critique des lecteurs – de plus en plus obsolètes.
Enfin, des malwares peuvent désormais réécrire leur propre code en temps réel pour échapper à la détection « par signature ». Cette méthode classique des antivirus consiste à identifier un virus par son « empreinte » (un code déjà connu et répertorié). En changeant constamment de forme (exploitation polymorphe), le malware devient invisible pour ces outils traditionnels.
En revanche, rien ne prouve pour l’instant que Mythos puisse, sans accès au code source et sans intervention humaine, compromettre de manière autonome n’importe quel logiciel fermé.
De plus, des analyses suggèrent que des capacités comparables seraient déjà reproductibles à partir de modèles publics, remettant en cause l’efficacité de cette rétention. Ainsi, Mythos ressemble aujourd’hui davantage à un analyste de sécurité surpuissant, capable d’identifier des failles et de proposer des pistes d’exploitation, qu’à une entité autonome de cyberattaque universelle.
Ce qui inquiète vraiment, ce n’est pas seulement que Mythos sache mieux coder ou mieux tester du code : c’est qu’il semble abaisser le coût, le temps et le niveau d’expertise nécessaires pour découvrir et enchaîner des failles, donc potentiellement accélérer aussi bien la défense que l’attaque.
Vers un nouvel équilibre de la « dissuasion algorithmique » ?
Dans ce contexte, la notion de « dissuasion algorithmique » (algorithmic deterrence en anglais) émerge. Elle peut être comprise par analogie avec la dissuasion nucléaire : il ne s’agirait plus seulement de se protéger, mais de posséder une capacité de réponse et de détection si rapide que l’attaque en devient inutile ou trop coûteuse.
Contrairement au domaine nucléaire, la dissuasion algorithmique repose sur le renforcement des mécanismes défensifs (plutôt que de réponse) : détection accélérée des intrusions, analyse des causes et simulation d’attaques pour boucher les failles avant qu’elles ne soient exploitées.
Avant l’ère de l’IA, la dissuasion algorithmique était plus limitée : les équipes de sécurité réalisaient des tests d’intrusion, une méthode d’évaluation de la sécurité qui repose sur la simulation de cyberattaques, pour identifier les ports ouverts et failles connues, pour enclencher leur correction.
Aujourd’hui, on l’a vu, l’IA peut renforcer les mécanismes défensifs et donc la dissuasion. Mais, dans le meilleur des cas, une IA de défense permet de réduire le coût de la protection et d’augmenter la probabilité qu’un attaquant soit repéré ou neutralisé avant d’atteindre son objectif.
La dissuasion algorithmique reste donc fragile. Même à l’ère de l’IA, elle dépend beaucoup des pratiques des acteurs opérationnels (agences de cybersécurité, armées, entreprises), de la qualité et de la modernité des systèmes hérités qu’ils doivent protéger et intégrer, des stratégies nationales et militaires mises en œuvre par les États ainsi que des dispositifs de gouvernance qui définissent les règles, les responsabilités et les mécanismes de contrôle de l’IA.
Le dilemme de la rétention d’outils de dissuasion : sécurité contre transparence
Ne pas rendre disponibles au grand public certains modèles peut sembler responsable, car cela évite de publier des capacités offensives qui seraient immédiatement détournées. Mais cette rétention concentre le pouvoir technologique entre quelques mains et réduit la transparence scientifique.
Le débat rejoint ici celui du cadre l’AI Act européen, qui impose déjà des obligations de transparence, de traçabilité et de documentation pour les modèles d’IA d’usage général, tout en cherchant à concilier innovation, sécurité et protection des secrets industriels.
Christine Abdalla Mikhaeil est membre de Association for Information Systems (AIS). Elle a reçu des financements de l’Institut Bachelier et du LEM CNRS UMR 9221.
Au fond de la lagune de Thau, en Occitanie, la source de la Vise est régulièrement sujette à un phénomène dit d’inversac, où la source d’eau douce se met soudainement à absorber l’eau saumâtre. Ce mécanisme, jusque-là peu connu, expose les ressources en eau douce des côtes à un risque de salinisation. Grâce à un dispositif expérimental unique, des chercheurs français ont pu l’observer en direct. De quoi expliquer au passage pourquoi certaines villes des alentours souffrent, lors de ces épisodes, d’inondations en l’absence de pluies.
Un phénomène exceptionnel, appelé « inversac », menace les ressources d’eau souterraine autour de l’étang de Thau (une vaste lagune d’eau saumâtre) en Occitanie. En fonction des conditions météorologiques, la source sous-marine de la Vise (surnommée localement « le Volcan » ou « le Gouffre ») peut s’interrompre – et cesse alors momentanément d’apporter de l’eau douce dans la lagune.
Elle devient dès lors un point d’infiltration majeur d’eau salée de la lagune vers l’aquifère, provoquant une salinisation chronique des eaux souterraines si précieuses, et des épisodes d’inondation sans pluie dans la station thermale de Balaruc.
Avec des collègues, nous avons pu suivre le phénomène en direct grâce à des instruments spécifiques, une première mondiale, qui a notamment fait l’objet d’une publication scientifique en 2025. De quoi mieux comprendre les causes de ce phénomène jusque-là mystérieux, qui peut durer des mois : six mois pour les épisodes survenus en 2010 et en 2014, et même dix-huit mois pour celui survenu entre 2020 et 2022.
En zone côtière, les exutoires des eaux souterraines peuvent être sous-marins
Les eaux de pluie qui s’infiltrent à la surface de la terre rejoignent les nappes aquifères. Elles circulent ensuite dans le sous-sol jusqu’à des exutoires en surface : sources, zones humides et lits des rivières constituent autant de points bas du paysage vers lesquels convergent les eaux souterraines.
Dans la calanque de Port-Miou, seul un léger courant à peine visible en observant l’écume formée par les vagues contre les rochers indique la présence d’un débit de plusieurs mètres cubes par seconde, quelques mètres sous la surface de la mer. L’eau presque douce (plus légère que l’eau très salée de la Méditerranée) forme une nappe froide sur la mer, plus chaude en été. Xerti, CC BY-SA
En zone côtière, les exutoires des eaux souterraines peuvent être sous-marins, situés dans la mer ou dans des lagunes côtières. Jouant un rôle important pour les écosystèmes marins côtiers, ils sont diffus ou ponctuels selon le type d’aquifère. Dans ce dernier cas, le plus souvent en contexte karstique, il s’agit de sources sous-marines. Elles sont particulièrement nombreuses en Méditerranée grâce à la forte présence de roches calcaires propices aux phénomènes karstiques.
Plus à l’Ouest, dans l’Hérault, il existe plusieurs autres sources sous-marines qui émergent dans la lagune de Thau. Parmi elles, la source sous-marine de la Vise, située au large de Balaruc, draine un aquifère côtier primordial pour les habitants de cette région au climat chaud et sec de type méditerranéen.
Géographie de la source sous-marine de la Vise. En (a), la localisation de la source dans la lagune de Thau, en (b) une vue en plan du cône (anomalie bathymétrique liée au débit d’eau de la source) autour de la source au large de Balaruc et enfin en (c) vue en coupe du cône et du point d’émergence (griffon) de la source. Fourni par l’auteur
En effet, les eaux souterraines y sont prélevées pour l’alimentation en eau potable des villages voisins, pour l’irrigation aussi, mais surtout elles alimentent les thermes de Balaruc-les-Bains, première station thermale de France en nombre de curistes. Malheureusement, cette ressource d’eau douce précieuse est menacée par un phénomène exceptionnel : l’inversac.
L’inversac, ou quand les flux d’eau s’inversent et une source absorbe l’eau saumâtre
Bien connue des pêcheurs et des ostréiculteurs, la source de la Vise est située dans la lagune de Thau, à une profondeur de 30 mètres au large de Balaruc. Cette profondeur est exceptionnelle pour l’étang de Thau, dont la profondeur moyenne excède rarement 4 m à 5 m : les flux d’eau souterraine ont creusé et érodé la roche pour créer un grand cône sous-marin situé autour de l’émergence. Cette profondeur attire les amateurs de plongée sous-marine qui peuvent ainsi pratiquer leur sport au cœur d’un site remarquable.
La source est localisée au sommet d’un conduit karstique subvertical qui relie la lagune de Thau à une nappe aquifère captive (c’est-à-dire sous pression) située en profondeur dans les calcaires du Jurassique. Le débit de la source est généralement de l’ordre de 100-150 litres par seconde (l/s), et augmente avec le niveau d’eau dans la nappe après des pluies intenses. C’est une eau douce et chaude (20 °C), car réchauffée par les flux d’eau d’origine profonde qui alimentent également la station thermale de Balaruc.
Or, depuis la fin des années 1950, on observe des épisodes temporaires d’inversion des flux d’eau au niveau de la source. Le résultat ? Une interruption brutale de l’arrivée d’eau douce d’origine souterraine, suivie d’une absorption des eaux de la lagune par la source. En hydrologie karstique, ce phénomène est connu sous le nom d’inversac, nom qui désigne une cavité karstique alternativement absorbante ou émissive, selon les conditions hydrologiques.
Depuis la fin des années 1950, la source de la Vise a commencé, à plusieurs reprises, à absorber l’eau saumâtre de la lagune.
La plupart du temps, les inversacs sont des pertes-émergences situées le long d’une rivière : selon les niveaux d’eau, la rivière s’infiltre dans la cavité karstique (fonctionnement en perte) ou alors cette dernière déverse de l’eau dans la rivière (fonctionnement en émergence).
Dans le cas de la Vise, l’inversac se produit en lien avec l’étang de Thau. Selon les conditions hydroclimatiques, la source va tantôt déverser l’eau douce, tantôt absorber l’eau salée de l’étang.
Explication du mécanisme d’inversac (a) en régime normal, la pression au sein de l’aquifère captif est supérieure à la pression exercée par le niveau d’eau dans la lagune, les flux d’eau sont ascendants au sein du conduit karstique (b) lorsque la pression au sein de l’aquifère devient inférieure à la pression de l’étang, les flux deviennent descendants et la source absorbe l’eau de l’étang (régime d’inversac). Fourni par l’auteur
Un dispositif de mesure unique au monde
Pour mieux comprendre ce phénomène, les hydrogéologues du BRGM, en collaboration avec la société ANTEA, ont conçu un dispositif inédit spécialement consacré à la mesure des débits de la source sous-marine. Il s’agit d’un tube d’une longueur d’environ cinq mètres et d’un diamètre d’un mètre, posé sur l’émergence, composé de trois compartiments.
(a) Position du dispositif sur le griffon de la source sous-marine de la Vise, (b) vue descriptive du dispositif. Fourni par l’auteur
Le tube inférieur récolte l’eau douce sortant des principaux griffons (points d’émergence) présents au fond de la lagune. Au-dessus, un débitmètre électromagnétique permet de mesurer le débit vertical au sein du tube intermédiaire. Il est surmonté d’un tube de tranquillisation destiné à réguler les flux d’eau et à réduire les turbulences pour assurer une bonne qualité de la mesure du débit. Des capteurs de température, de salinité et de pression sont installés dans le dispositif pour compléter les mesures.
Un inversac observé en direct en novembre 2020
Installé en juin 2019 par des scaphandriers professionnels, il a permis d’observer en direct un inversac qui s’est produit le matin du 27 novembre 2020. En effet, à 9 h 40 exactement, le débit de la source s’est brutalement inversé : d’un débit ascendant d’environ 120 l/s, il est passé à un débit descendant de 350 l/s.
Simultanément, les capteurs ont mis en évidence la présence d’une eau complètement différente : une eau salée et froide (comme la lagune) s’est substituée, au sein du tube de mesures, à l’eau douce et chaude qui provenait précédemment de la nappe aquifère. À cet instant, la source a commencé à absorber l’eau de la lagune, qui a envahi progressivement la nappe aquifère.
Cet inversac a duré seize mois, durant lesquels environ 7 millions de mètres cubes d’eau salée se sont infiltrés, provoquant l’intrusion de 200 000 tonnes de sel dans l’aquifère. En 2014, la salinisation progressive de la nappe provoquée par la succession des inversacs a nécessité la fermeture du captage d’eau souterraine de Cauvy, qui alimentait en eau potable Balaruc-les-Bains.
La répétition successive des inversacs menace également la ressource en eau thermale, dont l’usage est important pour l’activité économique du secteur. Plusieurs maraîchers exploitants ont également arrêté leur activité à cause de la salinisation de leur puits, tandis que de nombreux forages domestiques ont été touchés. Le sel est aussi remonté dans les sols, menaçant les espaces verts en affaiblissant un grand nombre d’arbres de la commune.
En complément des mesures à la source de la Vise, un réseau d’observation a été installé pour surveiller les niveaux d’eau de la lagune et de la nappe aquifère.
L’analyse détaillée de toutes ces données a permis de montrer que l’inversac s’est enclenché à un moment bien particulier, où une tempête marine accompagnée d’un coup de vent marin avait induit une hausse du niveau de l’étang. Et cela, au moment même où, au contraire, le niveau de la nappe aquifère était au plus bas, par manque de précipitation et de recharge. Résultat : la pression exercée par la masse d’eau salée de l’étang est devenue plus élevée que la pression de la nappe : les écoulements d’eau se sont alors brusquement inversés. C’est ce mécanisme que nous avons décrit dans notre article publié dans la revue Nature Communications Earth and Environment.
« Bouchon de sel » et inondations sans pluie
Restait à expliquer une bizarrerie locale : alors que les inversacs se déroulent en période de sécheresse, lorsque le niveau de la nappe aquifère est au plus bas, ils sont systématiquement accompagnés d’inondations dans la ville de Balaruc-les-Bains. Ceci est d’autant plus étonnant qu’aucun épisode de pluie ne précède ces inondations qui frappent les sous-sols, les caves et les parkings souterrains de la commune, causant de nombreux dégâts.
Cette curiosité hydrologique est à rapprocher des mesures observées dans les piézomètres des environs : chaque inversac est suivi d’une augmentation rapide des niveaux d’eau de la nappe d’environ 2,3 m. Cette hausse est expliquée par le contraste de densité entre les eaux : l’eau salée de la lagune est environ 3 % plus lourde que l’eau douce.
Ainsi, au moment de l’inversac, le conduit karstique vertical se remplit en quelques minutes d’eau salée sur sa hauteur totale, estimée à environ 70 m. Il en résulte une augmentation brutale de 2,3 m de la pression exercée par la lagune sur la nappe aquifère. Cette onde de pression se propage ensuite rapidement dans la nappe aquifère captive jusqu’à plusieurs kilomètres en quelques heures, provoquant une hausse des niveaux d’eau, et donc des inondations, même en l’absence de pluie.
Cette hausse inattendue des niveaux d’eau explique l’apparente contradiction entre la soudaineté du déclenchement d’un inversac et sa très longue durée. Si un coup de vent sur l’étang provoquant une hausse de son niveau de quelques centimètres peut déclencher un inversac, il ne suffit pas d’une accalmie météorologique pour que le système revienne à son état normal initial. Pour retrouver des flux ascendants dans le conduit karstique, la pression de la nappe aquifère doit vaincre cette surpression de 2,3 m provoquée par l’intrusion de sel, qui agit alors comme une sorte de « bouchon » sur la source sous-marine.
De ce fait, seule une très forte pluie sur le causse d’Aumelas, sur les hauteurs du bassin de Thau, peut recharger suffisamment la nappe aquifère pour provoquer une augmentation de niveau supérieure à 2,3 m, capable de vaincre le bouchon de sel. C’est ce qui s’est déroulé le 14 mars 2022 lorsqu’un épisode pluvieux de plusieurs jours, supérieur à 100 millimètres, a mis fin à cet inversac.
Depuis les années 1950, les inversacs se répètent et s’accélèrent. En cause, les pompages d’eau souterraine, mais surtout la succession des sécheresses, qui provoquent une baisse du niveau de la nappe. Jusqu’à présent, le système revient toujours à son état normal après quelques mois, mais qu’en sera-t-il dans le futur lorsque la recharge naturelle déclinera et que le niveau de la mer montera ?
Il n’est pas exclu que le système bascule définitivement en inversac, provoquant ainsi une salinisation complète et définitive de l’aquifère du Jurassique. C’est pour cette raison qu’un projet d’expérimentation est en cours avec le Syndicat mixte du bassin de Thau pour explorer les moyens possibles de réduire les effets d’un inversac et de préserver la nappe aquifère.
Cette étude a pu être menée dans le cadre du projet de recherche DEM’Eaux Thau (2017-2022).
D’un montant de 5,3 millions d’euros, le financement du projet DEM’Eaux Thau a été assuré à 42% par le ministère de l’Enseignement supérieur et de la Recherche et la Région Occitanie (dans le cadre du Contrat de Plan Etat-Région 2015-2020), à 11% par le fonds européen FEDER, à 17% par l’Agence de l’eau Rhône-Méditerranée-Corse, à 4% par Montpellier Méditerranée Métropole, à 2% par Balaruc-les-Bains et à 1% par le Syndicat Mixte du Bassin de Thau. Le reste du financement du projet (23%) a été apporté grâce à la participation financière de la plupart des partenaires
Bernard Ladouche et Claudine Lamotte ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
La photosynthèse fixe le carbone atmosphérique sous forme de molécules organiques essentielles à la vie et produit l’oxygène présent dans l’atmosphère et dans les mers. Elle a été acquise par le monde vivant grâce à des intégrations cellulaires successives en « poupées russes », les photosymbioses. En mimant les étapes précoces des photosymbioses, nous suggérons, dans notre article publié dans Current Biology, que l’oxygène serait un facteur déterminant pour les amorcer en milieu hypoxique (c’est-à-dire à faible teneur en oxygène) – la fourniture de carbone pouvant être un évènement secondaire.
En convertissant le rayonnement solaire en énergie utilisable par le monde vivant, la réaction de photosynthèse a profondément modifié l’ensemble de la planète Terre. La photosynthèse permet la conversion du carbone provenant du dioxyde de carbone (CO₂) atmosphérique en matière organique complexe, principalement sous forme de sucres qui alimentent une grande partie des formes de vie, dont les sociétés humaines. Une autre conséquence de la photosynthèse, qui a eu des conséquences majeures à l’échelle planétaire, est la production d’oxygène. Celle-ci est causée par la cassure de molécules d’eau qui initie le flux énergétique d’électrons qui permet la fixation du carbone en sucres.
La photosynthèse oxygénique est apparue chez un groupe particulier de bactéries, les cyanobactéries, dont des traces fossiles remontent à 3,8 milliards d’années et dont des descendants existent encore aujourd’hui. L’oxygène produit a permis le métabolisme aérobie, plus énergétique, qui a conduit à l’émergence d’organismes unicellulaires prédateurs. Certains ont intégré des cyanobactéries, bénéficiant à leur tour de la photosynthèse, c’est ce que l’on appelle la photosymbiose. Les lointains descendants de ces organismes sont devenus les algues et les plantes actuelles.
Des emboîtements en « poupées russes » secondaires et tertiaires
L’histoire ne s’arrête pas là puisque, à plusieurs reprises, d’autres organismes prédateurs ont intégré ceux déjà issus de la première photosymbiose, créant des emboîtements en « poupées russes » secondaires et tertiaires. Par exemple, les coraux, apparus il y a environ 500 millions d’années, sont des animaux hébergeant des organismes photosynthétiques unicellulaires issus d’une photosymbiose secondaire, les dinoflagellés.
Nous avons développé un système expérimental permettant l’évolution en laboratoire d’étapes précoces de la transition entre une relation prédateur-proies vers une relation hôte-photosymbionte. Il comprend un organisme unicellulaire prédateur du groupe des ciliés, Tetrahymena thermophila et des proies photosynthétiques. Les ciliés sont des unicellulaires, très abondants dans les écosystèmes aquatiques, dont font partie les paramécies. la cyanobactérie Synechoccoccus elongatus permet de mimer les événements de photosymbiose primaire et la microalgue verte eucaryote Chlorella variabilis permet de mimer les événements de photosymbiose secondaire.
Des cellules de Tetrahymena thermophila ont phagocyté des algues unicellulaires (Chlorella variabilis), celles-ci ne sont pas digérées et peuvent fournir de l’oxygène issu de la photosynthèse. Fourni par l’auteur
Grâce à la fluorescence naturelle des organismes photosynthétiques, nous avons combiné la microscopie et la cytométrie de flux, qui permet de quantifier et de trier des cellules suivant leur taille ou leur fluorescence pour observer le trajet des proies à l’intérieur des cellules prédatrices.
Une gloutonnerie extraordinaire
Nous avons ainsi caractérisé cette dynamique de la phagocytose jusqu’à l’élimination sous forme de boulettes fécales. Ceci a montré la gloutonnerie du prédateur unicellulaire qui peut ingérer jusqu’à 160 cyanobactéries ou 40 microalgues en moins d’une heure et les éliminer progressivement pendant plusieurs heures. Curieusement, de nombreuses proies sont rejetées sans être digérées totalement, voire pas du tout, suggérant qu’une transition simple entre l’état de proie et celui de symbionte intracellulaire ne nécessiterait que l’interruption de la rejection.
Afin d’évaluer les conditions environnementales permettant l’initiation d’une symbiose, nous avons placé le prédateur et ses proies dans des milieux pauvres en carbone assimilable ou en absence oxygène, et mesuré la survie du prédateur. Nous avons ainsi montré que les proies photosynthétiques favorisent considérablement la survie en milieu hypoxique alors qu’elles procurent un avantage faible, voire inexistant, dans un milieu pauvre en carbone. L’hypoxie induit aussi une condition physiologique atténuant sa propre cause, puisque le transit intracellulaire des proies est considérablement ralenti, favorisant ainsi l’utilisation de l’oxygène produit par la photosynthèse des proies.
Ce résultat n’était pas vraiment attendu, car il est généralement admis que le moteur principal des photosymbioses est la fourniture de carbone sous forme de sucres. Nous montrons donc que la production d’oxygène en conditions hypoxiques peut être une cause primaire de l’amorce d’une symbiose photosynthétique.
Les milieux hypoxiques ont été prépondérants pendant une grande partie de l’histoire de notre planète et sont toujours fréquents, en particulier dans les environnements aquatiques et marins. Leur incidence augmente même sous l’influence de perturbations anthropiques et de l’augmentation des températures. L’exploration de ces milieux pourrait donc révéler de nouvelles associations photosymbiotiques. Nous anticipons maintenant que le système expérimental que nous avons développé nous permettra d’étudier les mécanismes moléculaires et cellulaires stabilisant une proie en symbionte, qui restent largement inconnus. Au-delà de la compréhension d’un mécanisme fondamental d’association entre organismes ces travaux pourraient avoir des applications de biologie synthétique, pour construire, par exemple, de nouvelles associations productrices de biocarburants.
Christophe Robaglia a reçu des financements de l’ANR, Projet-ANR-21-CE20-0035 PHOCEE
Gaël Brasseur et Loïc Quevarec ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
Source: The Conversation – in French – By Sylvie Ratté, Professeure titulaire en Génie logiciel et des TI, École de technologie supérieure (ÉTS)
L’analyse du langage permet d’identifier précocement les signes de déclin cognitif. Un projet en cours pourrait transformer la prise en charge de la maladie d’Alzheimer.
Pour améliorer le dépistage précoce de cette maladie neurodégénérative qui touche le tiers des personnes âgées de 80 ans et plus au Canada, mon équipe de recherche et moi, à l’ÉTS, cherchons à élaborer une méthode innovante basée sur l’intelligence artificielle (IA). Notre approche, non invasive et accessible, repose sur l’analyse du langage des patients.
Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.
Le langage comme indicateur de troubles cognitifs
L’un des premiers signes de la maladie d’Alzheimer est la modification subtile du langage. Les personnes peuvent, par exemple, avoir du mal à trouver leurs mots, utiliser des pronoms à la place de noms ou multiplier les pauses. L’expression de leurs idées est moins dense.
L’outil que nous avons conçu analyse ces indices linguistiques avec un test simple : la description d’images. Ce test fait partie de l’outil diagnostique BDAE (Boston Diagnostic Aphasia Examination). Il consiste à demander au patient de décrire une image. Ce test permet d’évaluer divers aspects du langage oral. La figure suivante présente une des images utilisée.
Une image utilisée lors de l’application du Boston Diagnostic Aphasia Examination pour l’évaluation du langage. CC BY-NC
Cette approche nous permet de mesurer la richesse lexicale, la complexité syntaxique et les marqueurs d’hésitation, autant de signes précurseurs du déclin cognitif.
Nos travaux montrent qu’en analysant les changements subtils dans la structure du discours, nous pouvons identifier jusqu’à 85 % des patients atteints d’Alzheimer, même à un stade très précoce.
Une solution de rechange aux outils cliniques traditionnels
Contrairement aux méthodes classiques de diagnostic, qui reposent souvent sur des tests cognitifs (qui incluent notamment ceux de description d’images) ou des techniques d’imagerie lourdes et coûteuses, notre approche permet une détection accessible et un suivi fréquent.
Actuellement, les tests cliniques de description d’image exigent une évaluation manuelle des réponses des patients, ce qui est long et imprécis. Les cliniciens doivent retranscrire mot pour mot les réponses des patients, ce qui est une tâche pratiquement impossible dans un cadre hospitalier.
Avec notre technologie, nous automatisons cette étape et extrayons des centaines de caractéristiques du langage pour affiner l’analyse.
Notre procédé permet non seulement de détecter la maladie, mais aussi de suivre son évolution et d’analyser l’effet des traitements. Nos outils peuvent mesurer les progrès des patients au fil du temps, ce qui est essentiel pour évaluer l’efficacité des traitements.
Des défis techniques et éthiques à relever
Malgré les avancées prometteuses, l’intégration de l’IA dans le domaine médical pose encore des défis.
De plus, l’analyse du langage repose sur des algorithmes qui doivent être entraînés sur des bases de données représentatives. Nous devons nous assurer que notre modèle fonctionne pour des personnes de différentes origines linguistiques et socioculturelles. Dans le cadre de notre recherche, nous nous assurons de collecter des données diversifiées au Canada mais aussi en Équateur et au Mexique.
Un programme (ou un logiciel) classique fonctionne sur la base d’un processus logique dans lequel s’enchaîne un ensemble d’instructions qui traite les données d’entrée pour produire un résultat en sortie.
L’IA utilise des données autrement : elle s’en sert pour y détecter des patrons récurrents. Le processus est similaire pour une autre IA qui détecterait d’autres types de problèmes. Seules les données changent. Si celles-ci ne sont pas assez variées, l’IA se collera à cette réalité, ce qui peut engendrer des biais culturels ou linguistiques et nuire à la fiabilité des diagnostics.
Ainsi, dans une de nos expériences, l’IA n’était pas adaptée au fait qu’à une certaine époque, les femmes portaient souvent des tabliers dans la cuisine. Bien que ce mot s’avère très pertinent pour évaluer la qualité des descriptions, l’IA avait évacué ce mot, car il n’apparaissait pas avec suffisamment de fréquence.
L’autre problème rencontré concerne la qualité des IA intermédiaires utilisées pour transformer le signal de la parole en texte écrit (transcriptions). Les IA qui résolvent cette transformation sont moins performantes pour le français (et plus particulièrement le français parlé du Québec et du Canada en général) et encore moins pour l’espagnol.
Une technologie aux multiples applications
Les implications de cette recherche dépassent le cadre de la maladie d’Alzheimer. Nous travaillons également sur l’aphasie qui affecte la communication, tant dans la compréhension que dans le langage. Cette condition peut être le résultat d’un accident vasculaire cérébral ou un traumatisme crânien.
Notre équipe de recherche explore aussi l’utilisation de ces outils pour les enfants autistes non verbaux, qui apprennent souvent le langage différemment. Par exemple, nous avons constaté que certains de ces enfants acquièrent une langue grâce à l’exposition à des vidéos sur YouTube, ce qui ouvre de nouvelles pistes d’exploration sur l’apprentissage du langage.
Ces travaux s’inscrivent dans une perspective plus large visant à mieux comprendre les liens entre langage et cognition. L’intelligence artificielle nous permet d’extraire une quantité d’informations que l’humain ne pourrait pas analyser à grande échelle. L’objectif final est de développer des outils adaptés aux besoins des cliniciens et des patients, pour améliorer leur qualité de vie.
Un avenir où IA et santé convergent
L’intégration de cette technologie dans les pratiques médicales pourrait révolutionner la prise en charge des troubles cognitifs. Notre but est de rendre ces outils accessibles à tous, sans que cela requière du matériel sophistiqué.
Cette approche pourrait ainsi permettre une détection précoce et un suivi plus personnalisé, bénéficiant à des millions de patients partout dans le monde.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
En combinant l’IA et les sciences cognitives, notre équipe de recherche pave la voie à une médecine plus prédictive, mieux adaptée aux besoins des patients et plus efficace dans la lutte contre les maladies neurodégénératives.
Bien que nous soyons encore au début de cette révolution technologique, les avancées actuelles montrent déjà un potentiel considérable. En rendant ces outils accessibles, nous espérons transformer la manière dont nous abordons le diagnostic et le suivi des troubles du langage.
En parallèle, notre équipe travaille déjà à de nouvelles collaborations avec des établissements médicaux pour tester ces technologies en milieu clinique.
Nous espérons qu’à terme, nos outils puissent être intégrés directement dans les protocoles de soins, afin d’offrir un suivi plus précis et adapté aux besoins individuels des patients.
Sylvie Ratté a reçu des financements du CRSNG et de MITACS.
Source: The Conversation – France (in French) – By Guillaume Christen, Maître de conférences à l’Université de Strasbourg, docteur en sociologie de l’environnement, Université de Strasbourg
Les biocides utilisés dans les produits de nettoyage, en particulier pour la désinfection des bâtiments publics, participent à la pollution de l’eau. Pourtant, des alternatives existent, mais faire évoluer les pratiques est difficile. En cause, la méconnaissance des risques au sein de la filière ainsi que l’organisation du travail actuelle.
Nous manipulons au quotidien des produits contenant des biocides, par exemple pour l’entretien de la maison, l’hygiène personnelle, la lutte contre les nuisibles, etc. En milieu urbain, leur utilisation s’est diffusée dans de nombreuses activités : construction, nettoyage, entretien des espaces verts, etc. On y recourt, par exemple, pour la protection des revêtements de façade afin de lutter contre les mousses et moisissures ou dans des usages domestiques tels que l’hygiène et l’entretien des bâtiments (sols, sanitaires…).
Ce constat invite à repenser les usages et à étudier la possibilité d’une réduction à la source. Mais renoncer aux biocides n’est pas une évidence. En effet, il s’agit d’un enjeu environnemental mal identifié par la population. Il requiert aussi des changements de pratiques susceptibles de se heurter à des formes d’inertie.
La question du renoncement aux biocides pour la désinfection (bactéricides, virucides, fongicides) est particulièrement sensible. C’est encore plus vrai dans les secteurs de la petite enfance et de la maintenance de bâtiments municipaux.
Les pratiques en place pour nettoyer les bâtiments publics
Pour comprendre ces enjeux, nous avons mené une enquête sociologique à l’échelle de l’eurométropole de Strasbourg. Celle-ci se fonde sur une trentaine d’entretiens semi-directifs réalisés auprès de la chaîne des acteurs du secteur du nettoyage, en particulier le personnel d’entretien, les responsables techniques et les fournisseurs.
Nous nous sommes appuyés sur l’idée d’une réduction des biocides à la source, à partir du concept de « redirection écologique ». Il ne s’agit pas de simplement optimiser les pratiques existantes, mais bien d’abandonner l’utilisation de certains produits susceptibles de contenir des biocides nocifs.
Dans l’enquête, nous avons cherché à comprendre comment les professionnels de la filière du nettoyage peuvent innover différemment, en utilisant moins de produits chimiques, soit en considérant des alternatives comme la désinfection à la vapeur, soit en privilégiant des composés plus naturels tels que l’acide lactique.
Des micropolluants omniprésents, en particulier les ammoniums quaternaires
Les biocides, dont l’étymologie désigne l’action de neutraliser « les vivants indésirables », sont qualifiés de « micropolluants » en raison de leur faible concentration dans les systèmes aquatiques urbains. Bien que présents en petite quantité, leur impact toxicologique notable sur l’environnement et la santé humaine nécessite notre attention.
Les sources sont, en effet, nombreuses : traitements antibiotiques, PFAS, peintures de façade ou encore désinfectants domestiques, objet de notre propos.
Afin d’assurer la désinfection de certaines surfaces (sols, tables, sanitaires, points de contact), professionnels et particuliers ont recours à l’utilisation de biocides nommés « ammoniums quaternaires » (ou « QUATS »). Or, leur persistance dans l’environnement est préoccupante. Bien qu’il existe d’autres méthodes de désinfection (acide lactique, nettoyage à la vapeur), l’usage de QUATS est la pratique dominante, en partie en raison de leur utilisation reconnue dans le milieu médical. S’il n’est pas possible de quantifier le volume de QUATS introduits dans l’environnement, leur prédominance dans les usages en fait un sujet de santé environnementale, dans une démarche One Health).
Le nettoyage étant une compétence municipale, une commune peut renoncer à l’usage de ces composés. Toutefois, le risque « biocide » est mal identifié par les différents acteurs de la chaîne, ce qui complique sa transmission vers les agents d’entretien qui les manipulent au quotidien.
Un risque invisibilisé par l’« effet de filière »
Il existe en effet un « effet de filière » qui entraîne la délégation de la confiance à des acteurs spécialisés. Cela se traduit par une mise à distance, pouvant être à l’origine d’une « capacité empêchée » des professionnels à formuler une préoccupation environnementale quant à l’usage d’un produit.
Cela se manifeste par une méconnaissance de la composition des produits utilisés, tout au long de la chaîne d’acteurs. Cette perte de savoir s’observe dès les fournisseurs, incapables de transmettre l’information aux responsables techniques et eux-mêmes aux agents. Après usage, les eaux contenant les produits de nettoyage sont collectées et traitées en stations d’épuration. Leur gestion discrète invisibilise le devenir des eaux de nettoyage et la compréhension courante de l’enjeu.
Dans ce contexte, les services techniques de nettoyage, notamment ceux des municipalités, ne font pas de la composition du produit un critère de choix. Ils font confiance aux fournisseurs-producteurs, explique un coordinateur des agents d’entretien d’un établissement scolaire :
« Nous, on est l’utilisateur, on n’est pas le fabricant, donc nous, on arrive à la fin de la chaîne. Nous, on arrive, on dit : “Moi, je veux un produit pour nettoyer.” Après c’est lui, le concepteur, qui dit : “Bah, voilà pour cette tâche, il faut tel grammage, il faut ceci, cela.” Moi, ça, ce n’est pas mon souci. »
Acteurs clés de la filière, fabricants et fournisseurs interviennent dans la définition des pratiques de nettoyage. Ces derniers vendent non seulement des produits d’entretien, mais aussi les préconisations d’application (le type de surface, la fréquence d’utilisation, la préparation, le dosage pour dilution ou encore la méthode de nettoyage), que les agents d’entretien respectent.
Les professionnels perdent ainsi la « trace » et la « mémoire » de la composition chimique des produits d’entretien ainsi que de leurs impacts possibles sur les milieux.
Des alternatives à s’approprier
Désinfecter avec des biocides nocifs (QUATS) n’est pourtant pas inéluctable. L’acide lactique et la vapeur sont deux alternatives déjà utilisées par certains professionnels engagés dans une démarche écologique plus générale. Elles incarnent l’idée d’innover par le « retrait » en incitant à « faire sans » (vapeur) ou « avec moins » (acide lactique).
Ces alternatives qui innovent sans apporter de technologie supplémentaire peinent toutefois à susciter la confiance, dans un contexte où l’innovation technique apparaît comme la clé de lecture légitime. Ces réticences s’expliquent par le fait que l’efficacité est le critère principal servant à juger de la qualité d’un protocole de nettoyage. Or, selon le cercle de Sinner, cette efficacité dépend de quatre facteurs : le temps d’application, l’action mécanique (AM), la température et la chimie utilisée.
Le cercle de Sinner permet de décrire les différentes solutions de nettoyage, en fonction du rôle qu’y jouent quatre composantes : le temps, l’action mécanique, la température et la chimie. ManonM12/Wikimédia
L’utilisation d’une chimie moins « agressive » se traduit par une augmentation d’au moins un des trois autres facteurs. Ce qui entraîne la modification des pratiques historiques ou même de l’organisation du travail (planning horaire, achat de machines). En d’autres termes, pour nos interlocuteurs, simplifier la chimie du nettoyage revient à complexifier l’organisation quotidienne, freinant l’adhésion aux alternatives.
Le renoncement aux biocides pour l’hygiène suppose de cerner les principaux acteurs impliqués, leur niveau de conscience des impacts (notamment sur la santé et sur l’eau) et les obstacles à l’utilisation d’alternatives. Retrouver des eaux urbaines de qualité et sans pollution est aussi un enjeu d’adaptation dans un contexte de crise écologique : leur réemploi constitue un levier majeur face aux aléas climatiques, par exemple lors des canicules et sécheresses.
ReactiveCity est financé par le programme Interreg VI Rhin supérieur. La recherche associe des chercheurs du département d’hydrologie de l’Université Albert-Ludwig de Fribourg-en-Brisgau (Allemagne), du Groupe de travail sur l’écotoxicologie fonctionnelle aquatique (Université de Coblence-Landau), de l’Institut de chimie durable et de chimie de l’environnement (Université de Leuphana Lüneburg), de l’Institut Terre et environnement de Strasbourg (Ites, porteur du projet) ainsi que du laboratoire Sociétés, acteurs, gouvernement en Europe (Université de Strasbourg).
Guillaume Christen a reçu des financements de l’Union européenne dans le cadre du projet Interreg 6 Rhin supérieur « ReactiveCity : vers une ville pro-active sans biocides » (sept. 2023 – août 2027).
Louise Negri a reçu des financements de l’Union européenne dans le cadre du projet Interreg 6 Rhin supérieur « ReactiveCity : vers une ville pro-active sans biocides » (sept. 2023 – août 2027).
Philippe Hamman a reçu des financements de l’Union européenne dans le cadre du projet Interreg 6 Rhin supérieur « ReactiveCity : vers une ville pro-active sans biocides » (sept. 2023 – août 2027).
La victoire écrasante du parti Tisza aux récentes élections législatives marque un tournant historique en Hongrie et la fin de seize ans d’hégémonie du Fidesz de Viktor Orban. Ce succès repose sur la capacité de Péter Magyar à fédérer un électorat hétérogène, grâce à une stratégie combinant mobilisation de terrain, communication numérique et récit politique mobilisateur. Son leadership hybride, mêlant incarnation personnelle et crédibilité programmatique, a permis de transformer une dynamique d’opposition en majorité constitutionnelle.
La victoire du parti Tisza (Respect et liberté) aux législatives du 12 avril 2026 face au Fidesz de Viktor Orban a été sans appel. Porté par une participation record de 79,56 %, Tisza a obtenu une majorité constitutionnelle de 141 sièges sur 199, tandis que l’alliance Fidesz-KDNP s’effondrait à 52 sièges. Ce mandat exceptionnel lui confère la légitimité nécessaire pour réviser la Constitution, démanteler le système illibéral et rétablir les conditions d’un fonctionnement démocratique fondé sur l’équilibre des pouvoirs.
Ce résultat est d’autant plus remarquable que le Fidesz semblait indétrônable. Le système électoral avait été conçu pour favoriser son maintien au pouvoir ; les médias, sous son contrôle, diffusaient la propagande gouvernementale, dénigrant systématiquement l’opposition ; enfin, le Fidesz fonctionnant en mode « parti-État », les ressources financières publiques ont été massivement mobilisées en sa faveur durant la campagne. À l’inverse, Tisza, formation récente, ne disposait d’aucun financement public.
Agréger un vote anti-régime
Cette large victoire s’explique par la rencontre, au moment opportun – dans un contexte de crise politique et morale –, entre, d’une part, une forte attente de l’électorat d’opposition et, d’autre part, l’ambition, le talent et l’engagement hors norme de Péter Magyar, président du parti Tisza.
Magyar est parvenu, en à peine deux ans, à construire ex nihilo un parti-mouvement et à fédérer un électorat d’opposition hétérogène autour d’un objectif commun de changement de régime.
Ce ralliement s’est opéré au prix d’une mise entre parenthèses des clivages idéologiques traditionnels. Malgré un positionnement revendiqué à droite, son succès tient avant tout à sa capacité à agréger, dans le contexte d’un régime illibéral, des électeurs aux orientations diverses, y compris de gauche, tout en refusant toute alliance avec les anciens partis d’opposition. Un choix stratégique qui s’est révélé payant.
Au-delà de cette dynamique, Magyar a su enrôler dans son projet de transformation politique des citoyens désireux de changement et prêts à construire une véritable « communauté Tisza », avec 50 000 bénévoles-activistes implantés localement. Il s’est aussi entouré d’une excellente équipe de campagne.
Un travail de terrain intense
La principale force de Péter Magyar réside dans sa capacité de mobilisation et d’occupation de l’espace public. Pendant près de deux ans, il a sillonné le pays, multipliant les déplacements et les rencontres locales. Il est allé chercher des voix aussi bien dans les grandes villes que dans les zones rurales, y compris dans les bastions historiques du Fidesz, sans hésiter à s’exposer dans des contextes hostiles.
La vieille camionnette à plateau de Tisza, une Ford Transit customisée à la bombe aux couleurs nationales sur laquelle il sautait pour prononcer ses discours dans les villages, est devenue légendaire. Cette présence continue et son accessibilité lui ont permis de construire une relation de proximité avec l’électorat.
L’intensité de son travail se mesure à la cadence de ses meetings en fin de campagne. Durant le dernier mois, il en a tenu 108, dont 27 durant les cinq jours précédant l’élection, atteignant jusqu’à sept événements par jour – certains, dès 7 heures du matin.
Stratégie numérique efficace
La présence sur le terrain de Magyar a été amplifiée par une utilisation intensive des réseaux socionumériques, l’autre pilier de sa stratégie de communication. Maîtrisant les codes propres à ces plateformes, il s’est adressé efficacement à des publics différenciés, notamment aux jeunes.
Magyar s’est principalement appuyé sur ses comptes officiels, en particulier sur son compte Facebook – réseau largement dominant en Hongrie –, dont il assurait lui-même la gestion. Sa chaîne YouTube centralisait ses contenus vidéo, avec un recours fréquent aux formats en direct. En parallèle, son activité sur TikTok visait à toucher un public jeune et à construire une image plus informelle, proche des codes des influenceurs ; certaines de ses vidéos y ont dépassé le million de vues.
La diffusion en direct de ses meetings a donné à voir, en temps réel, l’ampleur de la mobilisation et l’enthousiasme suscité par le mouvement. Cette mise en visibilité a renforcé la dynamique militante, contribuant à transformer une présence locale en phénomène politique de portée nationale.
Cette stratégie numérique s’est révélée d’une efficacité redoutable. Magyar s’est imposé comme l’acteur le plus actif du paysage politique en ligne durant les deux années qui ont précédél’élection. Cela a favorisé la mobilisation des sympathisants de Tisza, dont l’activité s’est développée de manière largement organique, avec un niveau très élevé d’interactions et d’engagement.
Un récit symbolique rassembleur
Issu des rangs du Fidesz, Magyar maîtrise les codes et les ressorts de la communication de ses adversaires, qu’il s’est attaché, au cours de sa campagne, à retourner contre eux. Il a aussi élaboré un récit symbolique puissant, capable de concurrencer le récit dominant.
Son discours repose largement sur un usage stratégique des métaphores, empruntant à des registres variés pour dénoncer les dérives politiques et morales des représentants du pouvoir. Orban a ainsi été qualifié de « Don Corleone », de « vieil empereur », ou encore de « drôle de maître du palais carmélite [qui] se pavane dans son domaine à dix milliards de forints » (le forint est la monnaie nationale hongroise, NDLR), autant d’images destinées à frapper les esprits et à désacraliser la figure du pouvoir.
Le recours au folklore hongrois constitue un élément central de son récit. Il mobilise la figure de Döbrögi, un seigneur féodal cruel et cupide, pour incarner une élite prédatrice qui opprime le peuple. En miroir, il s’est identifié à Lúdas Matyi, le jeune berger rusé qui finit par triompher de l’injustice.
À l’instar d’Orban, Magyar puise dans la mémoire collective pour structurer son discours. Toutefois, là où Orban construit un récit fondé sur la menace, la peur et la défense d’une souveraineté assiégée, Magyar propose une narration tournée vers l’espoir et l’avenir. Cette opposition se traduit également dans le symbolisme architectural où les citoyens sont décrits comme des bâtisseurs plutôt que comme des soldats. La transformation politique est présentée comme un processus collectif, progressif, mais aussi comme un mouvement puissant et inéluctable.
Un leadership hybride
La force de Magyar tient à la nature hybride de son leadership. Son mouvement s’est d’abord construit autour d’une forte centralisation et d’une personnalisation assumée de la politique : durant de longs mois, sa campagne a pris la forme d’un véritable one-man-show, faisant de lui l’incarnation même du parti Tisza, au point que son image en est devenue indissociable.
Cependant, cette personnalisation ne s’est pas limitée à une posture de chef charismatique. Magyar a su lui adjoindre une crédibilité politique et institutionnelle, s’imposant comme figure d’autorité et se présentant comme un homme d’État en devenir. À côté de son récit symbolique, il a ancré sa campagne dans les réalités concrètes du pays, en mettant en lumière les dysfonctionnements affectant la vie quotidienne des Hongrois.
Ses déplacements sur le terrain ont joué un rôle central dans cette stratégie. Durant la canicule, il s’est rendu dans des hôpitaux, thermomètre à l’appui, pour dénoncer les conditions de travail du personnel soignant et l’état catastrophique du système de santé. En plein hiver, il a distribué du bois de chauffage aux populations les plus précaires. Il a également multiplié les visites dans des orphelinats afin d’alerter sur les défaillances de la protection de l’enfance, pourtant érigée en priorité par le gouvernement Fidesz.
Ce double registre – symbolique et pragmatique – constitue l’une des clés de son succès. D’un côté, Magyar projette un imaginaire collectif fondé sur la justice et la reconstruction ; de l’autre, il propose une offre politique structurée, élaborée avec l’appui d’experts et formalisée dans un programme détaillé, qui a contribué à rassurer. Ainsi, la victoire de Tisza s’explique par l’habileté communicationnelle de Péter Magyar et sa capacité à articuler incarnation personnelle, ancrage dans le réel et projection collective – symbolique d’une Hongrie heureuse et apaisée.
Action politique et popularité
Dès le lendemain des élections du 12 avril, Magyar s’est attelé à la tâche sans répit : conférences de presse internationales, interviews offensives dans les médias pro-Fidesz, échanges avec des dirigeants étrangers, négociations pour débloquer les fonds européens et constitution du futur gouvernement. Parallèlement, il multiplie les gestes symboliques de rupture : la séance inaugurale de l’Assemblée nationale et sa prise de fonction sont fixées au 9 mai, Journée de l’Europe, marquée par le retour symbolique du drapeau européen au Parlement.
Son usage stratégique des réseaux sociaux – auprès de ses 1,4 million d’abonnés sur Facebook – reste crucial avant sa prise de fonction officielle. Jonglant avec plusieurs figures de leader, il alterne habilement les registres. Il mêle annonces politiques et pression sur le pouvoir sortant, avec des appels à la démission du président de la République et d’autres figures clés ainsi que des alertes sur les destructions massives de documents dans les ministères et les transferts de fonds à l’étranger des oligarques proches d’Orban.
Il partage aussi des contenus plus personnels, comme un selfie à la salle de sport pour inciter les citoyens à l’activité physique à l’approche de l’été. Enfin, il excelle dans l’humour viral : lors d’une visite officielle au palais Sándor, apercevant Orban sur un balcon adjacent, il mime un geste iconique de Martin Scorsese et intitule la vidéo « Absolute Cinema », créant un mème devenu instantanément culte.
Dix jours après le scrutin, une enquête de l’Institut Medián révèle une avance importante de Tisza sur le Fidesz : un écart de 40 points, confirmant la popularité de Magyar, la confiance accordée au parti Tisza et l’ampleur du basculement politique en Hongrie.
Renata Varga ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.