Some 252 million years ago, almost all life on Earth disappeared.
Known as the Permian–Triassic mass extinction – or the Great Dying – this was the most catastrophic of the five mass extinction events recognised in the past 539 million years of our planet’s history.
Up to 94% of marine species and 70% of terrestrial vertebrate families were wiped out. Tropical forests – which served, as they do today, as important carbon sinks that helped regulate the planet’s temperature – also experienced massive declines.
Scientists have long agreed this event was triggered by a sudden surge in greenhouse gases which resulted in an intense and rapid warming of Earth. But what has remained a mystery is why these extremely hot conditions persisted for millions of years.
Our new paper, published today in Nature Communications, provides an answer. The decline of tropical forests locked Earth in a hothouse state, confirming scientists’ suspicion that when our planet’s climate crosses certain “tipping points”, truly catastrophic ecological collapse can follow.
A massive eruption
The trigger for the Permian–Triassic mass extinction event was the eruption of massive amounts of molten rock in modern day Siberia, named the Siberian Traps. This molten rock erupted in a sedimentary basin, rich in organic matter.
The molten rock was hot enough to melt the surrounding rocks and release massive amounts of carbon dioxide into Earth’s atmosphere over a period as short as 50,000 years but possibly as long as 500,000 years. This rapid increase in carbon dioxide in Earth’s atmosphere and the resulting temperature increase is thought to be the primary kill mechanism for much of life at the time.
On land it is thought surface temperatures increased by as much as 6°C to 10°C – too rapid for many life forms to evolve and adapt. In other similar eruptions, the climate system usually returns to its previous state within 100,000 to a million years.
We looked at the fossil record of a wide range of land plant biomes, such as arid, tropical, subtropical, temperate and scrub. We analysed how the biomes changed from just before the mass extinction event, until about eight million years after.
We hypothesised that Earth warmed too rapidly, leading to the dying out of low- to mid-latitude vegetation, especially the rainforests. As a result the efficiency of the organic carbon cycle was greatly reduced immediately after the volcanic eruptions.
Plants, because they are unable to simply get up and move, were very strongly affected by the changing conditions.
Before the event, many peat bogs and tropical and subtropical forests existed around the equator and soaked up carbon
Enclaves of larger plants remained towards the poles, in coastal and in slightly mountainous regions where the temperature was slightly cooler. After about five million years they had mostly recolonised Earth. However these types of plants were also less efficient at fixing carbon in the organic carbon cycle.
This is analogous in some ways to considering the impact of replacing all rainforests at present day with the mallee-scrub and spinifex flora that we might expect to see in the Australian outback.
Post-extinction lycopod fossils. Zhen Xu
Finally, the forests return
Using evidence from the present day, we estimated the rate at which plants take atmospheric carbon dioxide and store it as organic matter of each different biome (or its “net primary productivity”) that was suggested in the fossil record.
We then used a recently developed carbon cycle model called SCION to test our hypothesis numerically. When we analysed our model results we found that the initial increase in temperature from the Siberian Traps was preserved for five to six million years after the event because of the reduction in net primary productivity.
It was only as plants re-established themselves and the organic carbon cycle restarted that Earth slowly started to ease out of the super greenhouse conditions.
Maintaining a climate equilibrium
It’s always difficult to draw analogies between past climate change in the geological record and what we’re experiencing today. That’s because the extent of past changes is usually measured over tens to hundreds of thousands of years while at present day we are experiencing change over decades to centuries.
A key implication of our work, however, is that life on Earth, while resilient, is unable to respond to massive changes on short time scales without drastic rewirings of the biotic landscape.
In the case of the Permian–Triassic mass extinction, plants were unable to respond on as rapid a time scale as 1,000 to 10,000 years. This resulted in a large extinction event.
Overall, our results underline how important tropical and subtropical plant biomes and environments are to maintaining a climate equilibrium. In turn, they show how the loss of these biomes can contribute to additional climate warming – and serve as a devastating climate tipping point.
Zhen Xu was the lead author of the study, which was part of her PhD work.
Andrew Merdith receives funding from the Australian Research Council as part of the Discovery Early Career Researcher Award.
Benjamin J. W. Mills receives funding from UK Research and Innovation.
Zhen Xu receives funding from UK Research and Innovation and the National Natural Science Foundation of China.
The number of tourists heading to Antarctica has been skyrocketing. From fewer than 8,000 a year about three decades ago, nearly 125,000 tourists flocked to the icy continent in 2023–24. The trend is likely to continue in the long term.
Unchecked tourism growth in Antarctica risks undermining the very environment that draws visitors. This would be bad for operators and tourists. It would also be bad for Antarctica – and the planet.
Over the past two weeks, the nations that decide what human activities are permitted in Antarctica have convened in Italy. The meeting incorporates discussions by a special working group that aims to address tourism issues.
It’s not easy to manage tourist visitors to a continent beyond any one country’s control. So, how do we stop Antarctica being loved to death? The answer may lie in economics.
Future visitor trends
We recently modelled future visitor trends in Antarctica. A conservative scenario shows by 2033–34, visitor numbers could reach around 285,000. Under the least conservative scenario, numbers could reach 450,000 – however, this figure incorporates pent-up demand from COVID shutdowns that will likely diminish.
The vast majority of the Antarctic tourism industry comprises cruise-ship tourism in the Antarctic Peninsula. A small percentage of visitors travel to the Ross Sea region and parts of the continent’s interior.
Antarctic tourism is managed by an international set of agreements together known as the Antarctic Treaty System, as well as the International Association of Antarctica Tour Operators (IAATO).
The Treaty System is notoriously slow-moving and riven by geopolitics, and IAATO does not have the power to cap visitor numbers.
Even when cruise ships don’t dock, they can cause problems such as air, water and noise pollution – as well as anchoring that can damage the seabed.
Then there’s carbon emissions. Each cruise ship traveller to Antarctica typically produces between 3.2 and 4.1 tonnes of carbon, not including travel to the port of departure. This is similar to the carbon emissions an average person produces in a year.
Global warming caused by carbon emissions is damaging Antarctica. At the Peninsula region, glaciers and ice shelves are retreating and sea ice is shrinking, affecting wildlife and vegetation.
Of course, Antarctic tourism represents only a tiny fraction of overall emissions. However, the industry has a moral obligation to protect the place that maintains it. And tourism in Antarctica can compound damage from climate change, tipping delicate ecosystems into decline.
Market-based tools – such as taxes, cap-and-trade schemes and certification – have been used in environmental management around the world. Research shows these tools could also prevent Antarctic tourist numbers from getting out of control.
One option is requiring visitors to pay a tourism tax. This would help raise revenue to support environmental monitoring and enforcement in Antarctica, as well as fund research.
Such a tax already exists in the small South Asian nation of Bhutan, where each tourist pays a tax of US$100 (A$152) a night. But while a tax might deter the budget-conscious, it probably wouldn’t deter high income, experience-driven tourists.
Alternatively, a cap-and-trade system would create a limited number of Antarctica visitor permits for a fixed period. The initial distribution of permits could be among tourism operators or countries, via negotiation, auction or lottery. Unused permits could then be sold, making them quite valuable.
Caps have been successful at managing tourism impacts elsewhere, such as Lord Howe Island, although there are no trades allowed in that system.
Any cap on tourist numbers in Antarctica, and rules for trading, must be based on evidence about what the environment can handle. But there is a lack of precise data on Antarctica’s carrying capacity. And permit allocations amongst the operators and nations would need to be fair and inclusive.
Alternatively, existing industry standards could be augmented with independent schemes certifying particular practices – for example, reducing carbon footprints. This could be backed by robust monitoring and enforcement to avoid greenwashing.
Looking ahead
Given the complexities of Antarctic governance, our research finds that the most workable solution is a combination of these market-based options, alongside other regulatory measures.
So far, parties to the Antarctic treaty have made very few binding rules for the tourism industry. And some market-based levers will be more acceptable to the parties than others. But doing nothing is not a solution.
The authors would like to acknowledge Valeria Senigaglia, Natalie Stoeckl and Jing Tian and the rest of the team for their contributions to the research upon which this article was based.
Darla Hatton MacDonald receives funding from the Australian Research Council, the Australian Forest and Wood Innovations Centre, the Department of Climate Change, Energy, the Environment and Water, and the Soils CRC. She has received in-kind support from Antarctic tour operator HX.
Elizabeth Leane receives funding from the Australian Research Council, the Dutch Research Council, and DFAT. She also receives in-kind support and occasional funding from Antarctic tourism operator HX and in-kind support from other tour operators.
Source: The Conversation – Canada – By Brittany Ferdinands, Lecturer in Digital Content Creation, Discipline of Media and Communications, University of Sydney
Emojis, as well as memes and other forms of short-form content, have become central to how we express ourselves and connect online. Yet as meanings shift across different contexts, so too does the potential for misunderstanding.
A senior colleague of mine recently encountered some commentary about the “slightly smiling” face emoji: 🙂
They approached me, asking whether it represented joy, as they had assumed, or if it had a more ominous meaning.
As a chronically-online millennial, who unironically identifies as a gen Z, I bore the news that I, along with most younger internet users, only ever use it sarcastically.
“It doesn’t actually signify happiness – more so fake happiness, or dry humour,” I explained.
I also told them how the thumbs up emoji is often interpreted as passive aggressive, and that the only time I’d use the laughing-crying (“face with tears of joy”) emoji is under duress.
Despite seeming like a universal language – and sometimes they do function that way – emojis can be at once more vague, and more specific, than words. That’s because you can’t separate the meaning of a smiley from the person who sent it, nor from the person receiving it.
Markers of age and identity
While emojis were originally developed in the late 1990s by Japanese artist Shigetaka Kurita to add emotional nuance to text-based messaging, their function has since evolved.
Today, emojis are not just emotional cues; they also operate as cultural symbols and markers of identity.
Research published last year highlights how these symbols can create subtle communication barriers across age groups. For instance, a study of Chinese-speaking WeChat users found younger and older people differed not only in how frequently they used emojis, but in how they interpreted and aesthetically preferred them.
One emoji that’s increasingly becoming a distinct marker of age is the previously mentioned laughing-crying emoji (😂). Despite being named Oxford Dictionary’s 2015 word of the year, and frequently topping the most-used emoji charts, this smiley is on the decline among gen Z – who decided in 2020 that it wasn’tcoolanymore.
Instead, they prefer the skull emoji (💀), which is shorthand for the gen Z catch phrase “I’m dead”. This means something is funny (not that they’re literally deceased).
Such shifts may understandably be perplexing for older generations who are unfamiliar with evolving norms and slang.
A digital body language
Emojis can also take on distinct meanings on different platforms. They are embedded within “platform vernaculars”: the ever-evolving styles of communication that are unique to specific digital spaces.
For example, a thumbs up emoji (👍) from your boss at work is seemingly more acceptable, and less anxiety inducing, than from a romantic interest you’ve just sent a risky text to.
This dilemma was echoed in a recent viral TikTok by user @kaitlynghull, which prompted thousands to comment about their shared confusion over emoji use in the workplace.
This reaction highlights a deeper communication issue.
A survey of 10,000 workers across the US, France, Germany, India and Australia, conducted by YouGov and software company Atlassian, found 65% of workers used emojis to convey tone in the workplace. But while 88% of gen Z workers thought emojis were helpful, this dropped to 49% for baby boomers and gen X.
The survey concluded some emojis can be interpreted in multiple ways, and these double meanings aren’t always safe for work.
In with the ‘it’ crowd
Another example of platform-specific emoji use comes from social media content creators who deploy emojis to curate a certain aesthetic.
Under the Tiktok tag #emojicombo, you’ll find thousands of videos showcasing emoji combinations that provide aesthetic “inspo”. These combinations are used to represent different online identities or subcultures, such as “that girl”, “clean girl” or “old money”.
Users may include the combinations in their captions or videos to signal their personal style, or to express the mood or vibe of their online persona. In this way, the emojis help shape how they present themselves on the platform.
This example of emoji use is also a display of symbolic capital. It signals social alignment, in an environment where a user’s visibility (and popularity) is determined by their platform fluency.
Emojis, then, aren’t just tools for expression. They are badges of identity that index where a user stands in the online cultural hierarchy.
There’s a fragmentation in how we relate
A single emoji might communicate irony, sincerity or sarcasm, depending on who is using it, what platform they’re using it on, and what generation they belong to.
This gap points to deeper questions around online access and participation, and the systems that shape online cultures.
And when the meaning of an emoji is platform-dependent and socially stratified, it can become as much about fitting in with a cultural in-group than conveying emotion.
Brittany Ferdinands does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Après la tentative de moratoire sur les énergies renouvelables du Rasemblement national en juin, c’est le ministre de l’intérieur Bruno Retailleau (Les Républicains) qui a demandé l’arrêt des subventions publiques à l’éolien et au photovoltaïque, estimant que ces énergies « n’apportent au mix énergétique français qu’une intermittence coûteuse à gérer ». Des propos dénoncés comme « irresponsables » par la ministre de la transition écologique, Agnès Pannier-Runacher.
Est-ce vraiment le cas ? Certes, la transition énergétique et la décarbonation de l’économie font peser des contraintes inédites sur les réseaux électriques. Les incertitudes de planification augmentent, à la fois du fait de la variabilité des énergies renouvelables sensibles aux conditions météorologiques (solaire, éolien…). Mais le problème vient aussi de la montée en puissance du véhicule électrique, dont le lieu de consommation change au cours du temps. Des défis qu’il est possible de relever, à condition de s’en donner les moyens.
Quant à l’augmentation des capacités nucléaires défendue par Bruno Retailleau, elle serait très coûteuse car elle impliquerait de sous-exploiter ces nouvelles installations une partie de l’année.
On l’appelle « fée électricité ». De fait, les réseaux électriques sont l’une des infrastructures les plus emblématiques jamais conçues par l’humain. Ils sont aussi l’une des plus complexes. Essentiels à l’électrification de nos sociétés humaines, ils sont devenus cruciaux pour d’autres infrastructures vitales, telles que les transports, les technologies de l’information en passant par la gestion des ressources en eau.
Ces réseaux sont aussi très étendus : leur échelle est celle de l’Europe, et même au-delà. De ce fait, ils peuvent être sources de tensions du fait du jeu d’interdépendances complexes et du comportement non linéaire des systèmes électriques. Ceci peut provoquer quelques fois des blackouts, comme on l’a vu en Espagne, fin avril 2025.
S’ajoute désormais l’impératif de transition énergétique et de décarbonation de l’économie. Pour atteindre la neutralité carbone en 2050, nous misons, en grande partie, sur une électrification encore plus poussée de nos usages et des sources d’énergies (renouvelables).
En cela, les réseaux électriques sont la véritable « colonne vertébrale » de la neutralité carbone. Déjà complexe à la base, ils font face aujourd’hui à de nouveaux défis dans le cadre de la décarbonation, qui ajoute un étage de complexité supplémentaire. Mais des pistes existent.
Le principal facteur de complexité des systèmes électriques tient à la nécessité d’équilibrer la production (l’offre) et la consommation (la demande), dans un contexte où les capacités de stockage d’électricité sont limitées. De nombreuses technologies de stockage de l’électricité existent et sont en cours de développement. Mais, aujourd’hui, les moyens les plus répandus pour, les réseaux électriques, sont le stockage par turbinage-pompage sur certaines infrastructures hydroélectriques
Cet équilibre est fait à travers les réseaux électriques. Ces derniers, grâce au foisonnement qu’ils permettent entre les divers moyens de production et les diverses formes d’usage et de consommation, permettent à chaque utilisateur d’accéder à la source d’énergie la plus disponible et la plus économique à chaque instant. Ceci lui permet de bénéficier de la concurrence éventuelle entre les différentes sources d’énergie – même les plus éloignées – pour bénéficier des coûts les plus bas.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cela permet aussi de faire face plus facilement aux diverses défaillances pouvant survenir dans le système électrique. En effet, en cas de défaillance d’une unité de production, le caractère interconnecté et mutualisé du réseau permet facilement à une autre de prendre le relais. Les réseaux électriques, à travers la mutualisation à large échelle qu’ils permettent, sont donc une source d’économie et de sécurité pour tous leurs utilisateurs.
… rendu plus complexe encore par l’enjeu de décarbonation
Pour atteindre la neutralité carbone, il faut poursuivre et accélérer l’électrification des usages (par exemple, passage du véhicule thermique au véhicule électrique) tout en augmentant les capacités de production d’électricité.
À titre indicatif, l’humanité a mis environ cent cinquante ans pour passer de 0 à près de 25 % de part d’électricité dans sa consommation d’énergie finale.
Affiche de la fin du XIXᵉ siècle vantant l’énergie électrique.
Or, pour atteindre les objectifs de la neutralité carbone, il faudra que la part d’électricité dans cette consommation d’énergie finale passe d’environ 25 % à 60 %, et cela en moins de vingt-cinq ans : c’est dire l’ampleur du défi. C’est une véritable seconde révolution électrique qui nous attend, la première étant celle qui a apporté la lumière à l’humanité – la fameuse « fée électricité » – à la fin du XIXe siècle.
Il faut également prendre en compte l’impact des énergies renouvelables (EnR) sur les systèmes électriques, en particulier, la variabilité de certaines productions du fait de leur dépendance des conditions météorologiques, ainsi que du caractère décentralisé et distribué pour une grande partie d’entre elles.
Le développement rapide des véhicules électriques est également un défi, comme leur lieu de consommation (en fonction du site de recharge) n’est pas constant dans le temps. Enfin, la complexité croissante du réseau européen interconnecté, dans un contexte de fort développement des EnR, constitue un enjeu supplémentaire.
Il est à noter que la grande majorité des EnR mais aussi les véhicules électriques rechargeables sont connectés au niveau des réseaux de distribution. Cependant, ces derniers n’ont pas été conçus pour raccorder en masse des sources d’énergie ni des charges « qui se déplacent », avec un niveau d’incertitude en constante augmentation, qui complexifient encore la gestion de ces réseaux.
Les réseaux électriques sont au cœur de cette révolution, qui pose des défis scientifiques, technologiques, économiques, sociologiques et réglementaires considérables.
Une réalité physique : équilibrer production et consommation en temps réel
Le réseau électrique a ceci d’unique que la consommation (la demande) doit être égale à la production (l’offre) à tout instant. Les centrales de production interconnectées produisent à la même fréquence électrique, sous peine de perte de synchronisme. Une bonne analogie pour comprendre le phénomène est celle du vélo tandem. Pour qu’il roule à la vitesse souhaitée, il faut que les deux cyclistes pédalent à la même vitesse.
Des mécanismes de régulation permettant d’assurer cet équilibre sont donc essentiels à la stabilité du réseau, notamment en fréquence et en tension. Trois niveaux de réglages peuvent intervenir : le réglage primaire, qui vise à compenser rapidement le déséquilibre le réglage secondaire, qui vise à coordonner les réglages pour corriger les écarts qui peuvent persister localement du fait du réglage primaire et revenir aux valeurs de référence (p.ex., 50 Hz) et, enfin, le réglage tertiaire, qui intervient pour reconstituer les réserves. À la différence des réglages primaires et secondaires qui sont automatiques, le réglage tertiaire est mis en œuvre manuellement par le gestionnaire du réseau.
La difficulté, pour ces mécanismes de régulation, tient surtout aux temps de réponse nécessaires. Les dynamiques considérées, en termes d’ordres de grandeur, vont de la dizaine de secondes à une dizaine de minutes. Le temps à disposition pour réagir à un déséquilibre est donc très faible. Lors du black-out en Espagne, qui a récemment fait l’actualité, il ne s’est produit que 19 secondes entre la première perte de production et le blackout !
La complexification croissante des systèmes électriques tend à réduire davantage le temps de réaction disponible pour faire face à une défaillance. En effet, la décarbonation ajoute plusieurs difficultés supplémentaires dans la gestion dynamique des réseaux électriques :
elle impose de gérer des systèmes de production non pilotables (par exemple : éoliennes, solaire…) et souvent largement dispersés sur le territoire. De ce fait, il est plus difficile de prédire avec précision, à l’échelle locale, la production électrique qui sera disponible à un instant donné.
De même, il existe de plus en plus de charges « sans domicile fixe » (voitures électriques, par exemple) et de consommations qui changent de profil au cours du temps, qui compliquent les modèles traditionnels de prévision de la consommation.
De plus en plus d’EnR sont raccordées au réseau électrique à travers des interfaces basées sur l’électronique de puissance, qui introduisent moins « d’inertie » en cas de déséquilibre momentané que les systèmes électromécaniques traditionnels (à base d’alternateurs directement raccordés au réseau, par exemple via des turbines hydrauliques ou des centrales thermiques). De ce fait, leur raccordement impose des temps de réaction bien plus rapides que dans le cas des alternateurs classiques.
Tous ces facteurs d’incertitude représentent un défi pour la planification des nouvelles infrastructures à long terme.
Les défis pour l’avenir
Compte tenu de cette complexité, il n’existe pas de solution unique. Le salut viendra d’un savant cocktail de solutions multi-échelles, bien coordonnées entre elles avec une intelligence accrue.
Cela peut passer par :
des dispositifs de contrôle-commande et de pilotage avancés, que ce soit au niveau des composants du réseau ou des systèmes de gestion et de coordination,
des dispositifs et systèmes de protection intelligents,
davantage de coordination des solutions au niveau local (distribution) et globale (transport, stockage),
la généralisation et l’extension des solutions de flexibilité à tous les niveaux (consommation, production classique et production EnR).
Le défi tient notamment au caractère coûteux du stockage. Pour stocker de l’énergie, il faut d’abord l’acheter pour la stocker puis la déstocker au moment où l’on en a besoin. Ces deux opérations (stockage puis déstockage) entraînent des pertes énergétiques – et donc financières. À ceci il faut ajouter des coûts d’investissement élevés (par exemple pour acquérir des batteries) ainsi que le coût d’accès au réseau. Autant de paramètres qui compliquent le modèle économique du stockage.
D’un point de vue mathématique, les réseaux électriques ont un fonctionnement non-linéaire. Cette particularité impose des efforts de R&D accrus pour mieux modéliser les phénomènes complexes en jeu. Ceci permettra de proposer les solutions adaptées de contrôle, de pilotage, d’aide à la décision, de maîtrise de risque ou encore de planification stochastique (c’est-à-dire, qui prennent en compte les incertitudes). Dans ce contexte, les apports du numérique et de l’intelligence artificielle pour l’exploitation des données du réseau sont de plus en plus significatifs, permettant d’améliorer les temps de réaction et de mieux gérer les incertitudes.
Ces enjeux sont d’autant plus cruciaux qu’au-delà de la décarbonation, qui entraîne un besoin d’électrification accrue, les réseaux électriques font aussi face à de nouvelles menaces. Notamment, l’augmentation des risques de cyberattaques, mais aussi l’exigence de résilience du fait du changement climatique. La résilience des réseaux est par nature protéiforme, et elle sera clairement un des grands enjeux des systèmes électriques de demain.
Nouredine Hadjsaïd ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Dans notre quête d’égalité sociale, il est essentiel de s’attaquer à ce qui empêche certaines personnes de profiter des bienfaits de la vie avec un animal de compagnie.
Défis et idées reçues
De nombreux facteurs peuvent empêcher les gens d’adopter un animal de compagnie. Parmi ceux-ci, citons le manque de logements appropriés et de ressources financières pour la nourriture et les soins vétérinaires. Une enquête canadienne a montré que les nouveaux immigrants et les jeunes de 18 à 34 ans sont les groupes les plus touchés par ces facteurs, et que les personnes âgées connaissent souvent des problèmes de logement et des difficultés financières.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Les propriétaires d’animaux peuvent éprouver un sentiment de détresse lorsqu’ils ne sont pas en mesure de payer les services de toilettage, la nourriture ou les soins de leur animal, dont la qualité de vie risque alors d’être réduite. Dans un tel cas, on constate que le bien-être des propriétaires et de leur bête peut être compromis.
De plus, des recherches ont montré que les personnes qui gagnent plus d’argent possèdent davantage d’animaux compagnie. En ce qui concerne les facteurs économiques, il est inquiétant d’entendre dire que certaines personnes ne devraient pas avoir d’animaux. La Michelson Found Animals Foundation met en lumière plusieurs idées reçues, généralement associées aux finances, concernant la vie avec des animaux domestiques.
Certaines personnes pensent que si on vit dans un appartement plutôt que dans une maison dotée d’une cour et d’un espace vert, on ne devrait avoir que des chiens de petite taille. Cette croyance ne tient pas compte du niveau d’énergie de l’animal, car certains petits chiens sont beaucoup plus dynamiques que des chiens plus gros. Elle ne considère pas non plus la capacité du maître à stimuler mentalement et physiquement son animal.
D’autres estiment qu’une personne qui n’a pas les ressources financières pour répondre aux besoins d’un animal de compagnie ne devrait pas en avoir. Cette pensée ne fait que renforcer les inégalités sociales et reflète une forme de discrimination insidieuse.
Les problèmes financiers et les conditions de logement peuvent contraindre certaines personnes à se séparer de leur animal de compagnie, ce qui constitue un choix difficile sur le plan émotionnel. Une de nos recherches menées, menées avec Rebecca Raby, chercheuse sur l’enfance et la jeunesse, et des étudiants de l’université Brock, montrent que les enfants sans foyer ont souvent des sentiments d’intimité affective envers leurs animaux de compagnie en même temps que des sentiments de perte et de deuil. Dans le cadre de cette recherche, des enfants sans foyer ont raconté des histoires où ils avaient perdu un animal, que ce soit à la suite d’une séparation ou d’un décès.
D’autres études indiquent que la plupart des personnes en situation d’itinérance sont des propriétaires d’animaux responsables, que leurs bêtes sont souvent en bonne santé et profitent de la compagnie humaine. Le lien émotionnel est réciproque et mutuellement bénéfique.
Plusieurs études soulignent la nécessité d’améliorer l’accès aux soins vétérinaires gratuits ou peu coûteux. Il est également essentiel de rendre les refuges et les logements plus accueillants pour les animaux de compagnie. Les campagnes visant à réduire les idées reçues sur l’adoption d’animaux par certains groupes constituent également une stratégie importante.
Le Community Veterinary Outreach (CVO) est un exemple de programme qui contribue à rendre l’adoption d’un animal de compagnie plus accessible. Cet organisme de bienfaisance est présent dans plusieurs provinces du Canada. Il fournit des soins de santé aux humains ainsi que des soins préventifs aux animaux de compagnie. Il organise également des programmes d’éducation sur des sujets tels que le comportement, l’alimentation et l’hygiène dentaire des animaux. L’ensemble de ces services permet de soutenir des personnes vulnérables qui possèdent des animaux.
Un autre exemple est le programme canadien de financement PetCard, qui offre des options de paiement flexibles pour des services vétérinaires.
Nous devons toutefois intensifier notre collaboration et sensibiliser la population à l’importance des animaux de compagnie pour divers groupes de personnes. Élargir ce débat permettra de concevoir des politiques plus équitables, de favoriser la justice sociale et de rapprocher les communautés.
En négligeant la pertinence de cette réflexion, nous risquons de perpétuer des points de vue discriminatoires à l’égard de l’adoption d’animaux de compagnie.
Des bienfaits pour tous
Le fait que la situation économique d’une famille ou ses possibilités de logement restreignent son accès à un animal domestique est problématique, car cela fait en sorte que certaines personnes ne peuvent profiter du bien-être que procure la compagnie d’un animal. Ces bienfaits sont ainsi limités à un groupe privilégié.
Nous pouvons aider les humains et les animaux à bâtir des liens significatifs en promouvant un accès équitable à l’adoption d’animaux. Toutes les initiatives en ce sens doivent accorder la priorité aux besoins physiques et émotionnels des animaux de compagnie, en veillant à ce que le lien avec les humains leur soit bénéfique. Le bien-être et les droits des animaux de compagnie ne doivent jamais être négligés.
Pour créer une approche équitable qui permette à diverses populations de profiter de la compagnie d’animaux domestiques, nous devons concilier les besoins des humains et des animaux en tenant compte du bien-être de tous.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Les ministres des Affaires étrangères du Rwanda et de la République démocratique du Congo (RDC) ont signé un nouvel accord de paix le 27 juin 2025 sous l’égide des États-Unis.
Cet accord vise à favoriser une paix durable, à développer les échanges économiques et à renforcer la sécurité. La RDC est l’un des plus grands pays d’Afrique, avec plus de 110 millions d’habitants. Le Rwanda compte 14 millions d’habitants.
Après trois décennies de guerre et de tensions entre les deux pays voisins depuis le génocide des Tutsis de 1994, cet accord devrait permettre de jeter les bases d’un progrès bénéfique pour les deux nations.
Pour l’administration Donald Trump, c’est l’occasion de montrer l’efficacité de sa politique étrangère « transactionnelle », axée sur les échanges et les avantages à court terme pour chaque acteur.
La plupart des détails de l’accord n’ont pas été divulgués avant sa signature. Une information a toutefois filtré: la RDC aurait renoncé à exiger le retrait des soldats rwandais de son territoire.
Depuis 2021, le gouvernement congolais, des chercheurs et l’ONU accusent le Rwanda de soutenir militairement le M23, en guerre contre le gouvernement de Kinshasa depuis 2021. Le gouvernement rwandais nie toute implication active, mais éprouve une certaine sympathie pour le groupe rebelle congolais.
En vertu de l’accord de juin 2025, chaque partie a fait des concessions et formulé des demandes qui sont peut-être plus faciles à dire qu’à faire. Les deux pays veulent également montrer à l’administration Trump leur volonté de négocier et de parvenir à un accord. Ils espèrent ainsi conclure de futurs accords avec les États-Unis, sur lesquels Trump est resté vague.
La RDC possède d’immenses richesses minérales, notamment de l’or, des diamants, du tungstène, du coltan, de l’étain et du lithium. Ces derniers minéraux sont utilisés dans les puces informatiques, les batteries et d’autres technologies.
les principaux acteurs impliqués dans la crise ont été écartés des négociations
aucune disposition n’a été prise pour garantir l’application de l’accord
les opportunités pour les entreprises américaines restent incertaines compte tenu de l’insécurité qui règne dans les régions minières.
Les racines de la crise
Après le génocide des Tutsis en 1994, d’anciens auteurs du génocide ont profité de l’immensité de la RDC pour planifier des attaques contre le Rwanda. Ils avaient l’intention de retourner au Rwanda pour achever le génocide. Les conséquences ont conduit à la première guerre du Congo (1996-1997) et à la deuxième guerre du Congo (1998-2003).
C’est au cours de cette deuxième guerre sanglante que la RDC a été démembrée par plusieurs groupes rebelles alignés sur divers pays et acteurs politiques. L’ONU accuse le Rwanda et l’Ouganda de se livrer à un commerce illégal massif de minerais. Les deux pays nient ces accusations.
Les conséquences du conflit se font encore sentir plus de 20 ans après. Malgré de multiples accords de paix et des programmes de désarmement, de démobilisation et de réintégration, on estime à 120 le nombre de groupes rebelles encore actifs au Congo.
En outre, les FDLR et d’autres acteurs extrémistes tels que Wazalendo prennent pour cible les Banyarwanda. Ce groupe ethnique, qui réside principalement dans l’est de la RDC, est historiquement lié au Rwanda. Il a été la cible d’attaques qui ont contraint des dizaines de milliers de personnes à fuir vers le Rwanda.
Ces attaques ont conduit à la résurgence du M23. Malgré ses échecs en 2013, le M23 a réalisé des avancées majeures fin 2021 en réponse aux attaques contre les Banyarwanda. Le groupe rebelle a mené une campagne militaire couronnée de succès qui lui a permis d’occuper de vastes territoires dans l’est de la RDC.
Leur succès est largement attribué aux Forces de défense rwandaises, bien que Kigali nie cette affirmation.
Les concessions mutuelles
Le dernier accord de paix tente de concilier les intérêts sécuritaires, politiques et économiques des deux nations.
Les détails de l’accord n’ont pas été rendus publics, mais certaines hypothèses peuvent être formulées à partir de son cadre général et des documents fuités.
La première hypothèse est que chaque pays s’engage à respecter la souveraineté de l’autre et à cesser tout soutien aux groupes armés. Cela inclura une coordination conjointe en matière de sécurité et une collaboration avec la mission de maintien de la paix de l’ONU déjà en place. En outre, les réfugiés congolais qui ont fui l’est de la RDC, estimés à plus de 80 000, seront autorisés à rentrer chez eux. Enfin, les deux pays mettront en place des mécanismes visant à favoriser une plus grande intégration économique.
La RDC a également signalé sa volonté d’attirer les investisseurs américains. Les vastes richesses minérales de la RDC restent largement sous-exploitées. Les investissements américains pourraient permettre de développer une exploitation minière plus sûre et plus rentable que les méthodes actuelles. Kinshasa a également accepté de lutter contre la corruption et de simplifier le système fiscal.
Si la plupart de ces mesures incitatives visent les entreprises d’extraction minière, elles concernent également les sociétés de sécurité privées. L’incapacité de l’armée congolaise à vaincre le M23 montre à quel point la situation sécuritaire est fragile. Certains en RDC estiment que cela justifie une intervention étrangère.
Cependant, les garanties sécuritaires offertes dans le cadre de cet accord restent floues. Ces incertitudes pourraient freiner sa mise en œuvre et compromettre son succès.
Les faiblesses
Plusieurs raisons expliquent pourquoi ce dernier accord a peu de chances de mener à la paix.
Premièrement, le M23 n’a pas participé aux négociations. Or, ce groupe est le principal acteur militaire dans l’est de la RDC. Étant donné qu’il s’agit du principal acteur militaire dans l’est de la RDC, son engagement en faveur du processus de paix ne peut être garanti.
Deuxièmement, d’autres forces rebelles dans différentes régions du pays se sentiront également exclues. Elles pourraient voir cet accord comme une opportunité pour obtenir davantage de concessions de la part du gouvernement congolais.
Troisièmement, il existe peu de mécanismes pour faire respecter l’accord. Depuis la deuxième guerre du Congo, de nombreux traités, accords et programmes de désarmement ont été conclus, sans grand succès. L’accord de Pretoria conclu entre le Rwanda et la RDC en 2002 n’a pas abouti à une paix durable. Le nom M23 fait référence à leur mécontentement suite l’échec de l’accord en 2009.
En 2024, le Rwanda et le Congo ont failli parvenir à un accord sous la médiation de l’Angola, après le retrait de ce dernier s’est retiré. Le processus a ensuite été repris par le Qatar, puis par les États-Unis.
Enfin, les investisseurs américains pourraient être découragés par les problèmes de sécurité, de réglementation et de corruption qui affligent la RDC. Même si le gouvernement congolais promet de s’attaquer à ces problèmes, il ne dispose pas des capacités nécessaires pour tenir ses engagements.
Jonathan Beloff a reçu un financement du Conseil de recherche en arts et sciences humaines (AH/W001217/1).
Le modèle traditionnel de la philanthropie repose sur l’idée que les fondations doivent durer éternellement, en préservant leur capital et en redistribuant chaque année une petite partie de leurs revenus. Pourtant, de plus en plus de voix s’élèvent pour remettre en question cette logique, parfois jugée lente, inefficace et déconnectée de l’urgence des besoins sociaux. Et certains philanthropes commencent à montrer l’exemple.
En mai, le milliardaire Bill Gates a annoncé qu’il comptait épuiser le fonds de dotation de la Fondation Bill & Melinda Gates d’ici 2045. Cela représentera des investissements philanthropiques de plus de 200 milliards de dollars américains ainsi que la fermeture, à terme, de l’organisation. Cette annonce rompt avec les normes de la philanthropie partout dans le monde, où les fondations sont généralement conçues pour durer indéfiniment.
Le Canada n’y fait pas exception. En s’enregistrant auprès de l’Agence du revenu du Canada (ARC), les fondations peuvent faire fructifier leurs actifs tout en générant des revenus exempts d’impôts. Même si la loi les oblige à dépenser chaque année un minimum de 5 % de leurs actifs, les rendements réalisés sur les marchés financiers égalent ou dépassent souvent ce seuil. Les fondations peuvent donc se contenter de distribuer année après année les intérêts de leurs investissements, sans jamais toucher au capital.
Ce modèle « de charité à perpétuité » se fait souvent reprocher son inefficience fiscale. Selon la fiscaliste Brigitte Alepin, il faut en moyenne 35 ans pour que les activités caritatives d’une fondation compensent les avantages fiscaux perçus par ses fondateurs.
Je suis doctorant en philosophie à l’Université Laval en cotutelle à l’Université Paris 1 Panthéon-Sorbonne, et mon collègue David Grant-Poitras est doctorant en sociologie à l’Université du Québec à Montréal. Affiliés au Réseau canadien de recherche partenariale sur la philanthropie (PhiLab), basé à l’Université du Québec à Montréal, nous étudions la philanthropie dans le cadre de nos travaux de recherche. Nous travaillons à documenter le processus de fermeture de la Ivey Foundation, qui co-finance la recherche.
Un modèle alternatif qui fait ses premiers pas au Canada
Bien que la perpétuité fasse office de norme dans le milieu philanthropique, certaines fondations remettent en question sa pertinence. À côté des fondations dites « pérennes », un nouveau modèle prend forme : les fondations à durée de vie limitée (ou sunsetting foundations en anglais). Celles-ci s’engagent délibérément à dépenser l’entièreté de leurs actifs et cesser leurs activités au terme d’une période donnée ou suivant l’atteinte d’objectifs spécifiques.
Ce modèle n’est pas nouveau : il a été mis en œuvre par des pionniers comme le Rosenwald Fund, la Aaron Diamond Foundation ou encore la John M. Olin Foundation, fermés respectivement en 1948, 1996 et 2005. Toutefois, il connaît un regain d’intérêt, particulièrement aux États-Unis, où un nombre croissant de fondations, surtout les plus jeunes, adoptent cette approche. Même si la pratique reste marginale au Canada, certaines fondations comme la Ivey Foundation, dont la fermeture est planifiée pour 2027, commencent à suivre le mouvement.
Moins de temps, plus d’impact !
Pourquoi choisir de fermer une fondation plutôt que de lui assurer une existence perpétuelle ? Pourquoi des philanthropes comme Bill Gates ne préfèrent-ils pas assurer la survie d’une institution qui immortalisera son nom ? Dans un cahier de recherche publié récemment, le Réseau canadien de recherche partenariale sur la philanthropie s’est penché sur la question.
Plusieurs raisons peuvent motiver un tel choix : décès des fondateurs, conflits familiaux, ou encore volonté de constater de son vivant les effets de sa philanthropie. Mais au-delà de ces facteurs, c’est souvent un souci d’efficacité qui pousse ces fondations à limiter leur durée de vie.
À ce sujet, la sociologue Francie Ostrower, professeure à la LBJ School of Public Affairs and College of Fine Arts de l’université du Texas à Austin, suggère que les fondations « pérennes » ont parfois tendance à faire de leur propre survie un objectif, au détriment de leur mission sociale. À l’inverse, les fondations à durée limitée se perçoivent davantage comme des « véhicules » au service des causes sociales qu’elles soutiennent. Dans cette optique, rejeter la perpétuité devient une stratégie pour maximiser l’impact social.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Programmer sa fermeture donne souvent aux fondations plus de flexibilité et de marge de manœuvre. Cela permet, par exemple, d’augmenter les dépenses annuelles bien au-delà du seuil de 5 %, et donc de soutenir davantage d’organismes ou de financer des projets ambitieux nécessitant des investissements massifs à court terme. Dans certains cas, l’abandon de la perpétuité réduit les dépenses administratives, ce qui dégage des ressources à réinvestir dans ce qui compte vraiment.
De plus, puisque la gestion des dépenses est affranchie des contraintes liées à la pérennisation du fonds de dotation, les fondations à durée de vie limitée s’adaptent plus facilement aux événements imprévus et sont plus réactives à l’évolution des besoins sur le terrain.
Ce modèle est d’autant plus attrayant pour les petites et moyennes fondations qui peuvent ainsi accroître considérablement leur influence dans leur secteur, chose difficile dans un modèle fondé sur la préservation du capital.
Ne pas juste donner plus, mais donner mieux
Notre recherche montre également que les avantages ne sont pas seulement d’ordre quantitatif ou financier, mais aussi qualitatif. Planifier sa fermeture pousse aussi à réfléchir en profondeur à l’utilisation optimale des ressources disponibles dans un laps de temps limité. D’après plusieurs témoignages, l’échéance imposée par la fermeture motive le personnel de la fondation, génère un sentiment d’urgence et instaure une meilleure discipline. Cela incite à concentrer efforts et ressources sur les projets essentiels et à éviter le gaspillage sur des activités jugées secondaires.
Paradoxalement, limiter la durée de vie d’une fondation ne signifie pas adopter une vision à court terme. Au contraire, tout indique que cela favorise une réflexion sérieuse sur la durabilité et les impacts à long terme des projets financés.
Sachant qu’elles ne seront pas là pour toujours, les fondations à durée de vie limitée sont naturellement portées à trouver des solutions pérennes aux problèmes sociaux et à renforcer les capacités des organisations qui prendront le relais une fois qu’elles auront cessé leurs activités. Bref, comme l’affirme le philanthrope américain Jack Eckerd, « si les fondations sont éternelles, elles mettront une éternité à accomplir quoi que ce soit ».
Alors que 135 milliards dorment dans les fonds de dotation des fondations canadiennes, le moment est peut-être venu de repenser le modèle dominant. En encourageant le développement de fondations à durée de vie limitée, le Canada pourrait non seulement réinjecter massivement des ressources dans la société, mais aussi revitaliser le rôle du secteur philanthropique dans la réponse aux enjeux sociaux les plus pressants.
Sacha-Emmanuel Mossu a reçu des financements du Conseil de recherches en sciences humaines (CRSH), de la Fondation Famille Choquette et du Fonds François-et-Rachel-Routhier. Il est membre du PhiLab dont le projet de recherche est co-financé par la Ivey Foundation.
David Grant-Poitras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
L’été ne fait que commencer au Canada et l’on comptabilise déjà près de 2000 feux de forêt depuis le début de l’année. Ce sont plus de 4 millions d’hectares qui sont partis en fumée, soit l’équivalent de la taille du territoire de la Suisse. À ce rythme, la saison 2025 pourrait s’avérer tout aussi catastrophique – voire pire – que celle de 2023, l’une des plus dévastatrices jamais enregistrées au pays.
Face à ces feux toujours plus difficiles à maîtriser et ne connaissant pas de frontières, la création d’une structure nationale capable de coordonner efficacement les efforts des pompiers sur le terrain est à nouveau envisagée.
En quoi cela consisterait-il exactement ? À quel prix ?
Doctorante et chargée de cours en science politique à l’Université de Montréal, mes travaux portent sur la construction sociale des problèmes publics. Je m’intéresse notamment aux effets de cadrage de la crise climatique et à leur rôle dans l’apport de changements de politique publique.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Une gestion fragmentée en perte d’efficacité
Le Canada compte environ 3 200 services d’incendie, majoritairement organisés au niveau local – municipalités, comtés ou districts. À cela s’ajoutent, dans chaque province et territoire, des agences spécialisées dans la lutte contre les feux de forêt, distinctes des services municipaux. La coordination interprovinciale en matière de feux de forêt est assurée par le Centre interservices des feux de forêt du Canada (CIFFC). Le gouvernement fédéral intervient également, notamment par l’entremise du ministère de la Sécurité publique, et détient l’autorité nécessaire pour déclarer l’état d’urgence.
L’idée d’une structure nationale dédiée à la gestion des incendies ne date pas d’hier. En 2006, l’Association canadienne des chefs de pompiers soulevait déjà la question lors de son assemblée générale annuelle. À l’époque, elle reconnaissait que les enjeux devenaient trop vastes et trop complexes pour être gérés de façon dispersée.
En décembre 2023, après une saison des feux record, l’idée a refait surface et semble plus que jamais dans l’air du temps. Cette fois, l’Association a décidé d’aller plus loin dans sa réflexion. Elle a publié un rapport destiné aux responsables politiques, dans lequel elle propose la création d’une véritable « administration nationale des incendies », afin de mieux coordonner les interventions à l’échelle du pays.
Cette pression accrue a des conséquences humaines importantes. En plus de l’épuisement, ces interventions prolongées exposent les pompiers à des fumées toxiques, augmentant ainsi les risques de maladies cardiorespiratoires. Leur santé – et parfois leur vie – est en jeu. Dans ce contexte, l’Association canadienne des chefs de pompiers constate des difficultés croissantes de recrutement et de rétention.
À cela s’ajoute un autre enjeu : tous les pompiers ne sont pas formés pour combattre les feux de forêt, dont les dynamiques diffèrent des incendies urbains.
Dans son rapport, l’Association soutient qu’une structure nationale permettrait de mieux répondre à ces défis. D’une part, elle offrirait la possibilité d’investir de façon plus stratégique, en orientant les budgets vers la formation spécialisée et l’achat d’équipement, souvent inadéquat face aux réalités du terrain. D’autre part, elle faciliterait le déploiement du personnel entre les régions et améliorerait la gestion des ressources essentielles – notamment l’eau, utilisée en grande quantité pour éteindre les incendies.
Au-delà des feux de forêt, l’Association rappelle que d’autres risques justifient la création d’une telle structure. Elle cite en exemple le transport de marchandises dangereuses, un domaine où l’uniformisation des pratiques et des capacités de réponse à l’échelle nationale s’avère également nécessaire.
Enfin, une administration nationale permettrait de mieux intégrer les pompiers à l’élaboration des politiques qui ont un impact direct sur leur travail. Cela concerne par exemple les normes de construction, la réglementation des feux d’artifice ou d’autres enjeux touchant la sécurité publique et qui affectent, de près ou de loin, la gestion des feux de forêt.
Pour étayer ses recommandations, l’Association canadienne des chefs de pompiers a mené une analyse comparative rigoureuse en s’intéressant à des modèles internationaux, notamment ceux des États-Unis et de la Nouvelle-Zélande, où des délégations se sont rendues sur place pour rencontrer les responsables d’organismes similaires.
Cette veille internationale leur a permis d’identifier les bonnes pratiques et d’anticiper les défis rencontrés ailleurs. Cela leur a permis, par exemple, d’échanger sur les budgets alloués, les compétences confiées à ces agences, leur degré d’autonomie par rapport aux gouvernements.
Sur le plan budgétaire, la création d’une administration nationale des incendies au Canada ne représenterait pas une charge insurmontable. Comme le souligne l’Association, il ne s’agirait pas de repartir de zéro, mais de s’appuyer sur les structures existantes – l’association elle-même étant déjà bien organisée – pour les transformer. Les services d’incendie disposent d’un budget annuel d’environ 5,6 milliards de dollars. Selon l’Association, un investissement supplémentaire de 2 millions de dollars par an serait suffisant pour mettre en place cette coordination nationale.
Ces dernières semaines, des représentants de l’Association ont rencontré des membres du gouvernement fédéral pour discuter de leur proposition. Mais les gouvernements des territoires, des provinces et des municipalités devront aussi être consultés. Or, les discussions intergouvernementales semblent pour l’instant dominées par la guerre commerciale avec les États-Unis.
Alizée Pillod est affiliée au Centre d’Études et de Recherches Internationales de l’UdeM (CERIUM), au Centre de recherche sur les Politiques et le Développement Social (CPDS) et au Centre pour l’Étude de la citoyenneté démocratique (CECD). Ses recherches sont subventionnées par les Fonds de Recherche du Québec (FRQ). Alizée a aussi obtenu la Bourse départementale de recrutement en politiques publiques (2021) ainsi que la Bourse d’excellence Rosdev (2023). Elle a également été la coordonnatrice pour un projet financé par Ouranos et le MELCCFP sur la communication climatique en contexte pandémique.
Au-delà du sport, le Tour de France donne aussi l’occasion de (re)découvrir nos paysages et parfois leurs bizarreries géologiques. Le Tour de France 2025 s’ouvre ainsi dans les Hauts de France. Ses coureurs traverseront notamment, au cours de ces premiers jours, la plaine flamande. C’est la partie française du « pays bas » qui borde la mer du nord du Boulonnais à la Frise. Et est depuis des millions d’années sujette aux submersions marines.
À l’est des Hauts de France, la Flandre française est limitée par les contreforts du Massif ardennais ; au sud, par les collines qui, du Cambrésis au Boulonnais, appartiennent à un bombement qui se poursuit en Angleterre. Jalonnant cette structure, un relief modeste de moins de 300 mètres de haut, dont fait partie le Blanc-Nez, a été entaillé par le trop-plein du lac qui occupait la mer du Nord pendant les périodes de grande extension glaciaire : cette entaille a formé la vallée étroite qu’est le détroit du Pas-de-Calais.
Au Nord, la Flandre intérieure (le houtland) est constituée de collines molles, formées d’alternances de sables et d’argiles, accumulées dans un bassin marin calme il y a 55 à 35 millions d’années environ. La ligne de rivage était d’abord adossée sur les collines du Boulonnais-Artois, et s’en est progressivement éloignée en migrant vers le nord, effet lointain de la formation des Alpes.
Depuis quelques millions d’années, la Flandre française est épisodiquement submergée par la mer du fait des interactions entre tectonique des plaques et climat. Le changement climatique d’origine anthropique vient renforcer le phénomène.
Un paysage issu de la dernière glaciation
Dans le passé, des torrents dévalaient les collines méridionales de la Flandre française, à l’image des oueds sahariens autour de certains massifs montagneux. De nombreuses nappes de cailloutis (reg) se sont ainsi disséminées sur toute la Flandre. Une période climatique particulière, très chaude, a figé certains de ces dépôts au niveau du rivage de l’époque, en les cimentant par des oxydes ferrugineux. Ces cailloutis transformés en cuirasses ont protégé de l’érosion ultérieure les sables qu’ils recouvraient, formant l’alignement des monts de Flandres qui a étonné géologues et curieux : le Mont Cassel (176 m) est l’un de ces témoins.
Au cours du Quaternaire (depuis 2,6 millions d’années), les glaciations ont fait varier le niveau marin de plus de 100 m, asséchant plus ou moins la Manche et la mer du Nord lors de chaque pic glaciaire. Archéologues, paléontologues et géologues ont su reconstituer à partir des terrasses fluviatiles de la Somme, 10 cycles glaciaires de 100 000 ans chacun environ. Les travaux du canal Seine-Nord-Europe vont aussi contribuer à préciser ces reconstitutions.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le paysage actuel de la plaine maritime flamande résulte du façonnement produit depuis la fin de la dernière glaciation, c’est-à-dire environ 20 000 ans. Les archéologues néerlandais, belges et français qui coordonnent leurs recherches démontrent que la montée naturelle du niveau marin s’estompe, mais que le phénomène est désormais engendré sous l’effet prépondérant du réchauffement d’origine anthropique.
Des digues à partir du XIᵉ siècle
La dernière invasion marine a été bien documentée par les géologues : à partir de la fin du IIIe siècle et jusqu’au IXe siècle, ils ont mis en évidence l’enfouissement par une tourbe puis par des dépôts marins de traces d’activités agricoles et commerciales (salines entre autres). En réponse, montrent les archéologues de l’Inrap, les humains ont construit durant les 11e et XIIe siècles des digues pour se protéger de la submersion marine occasionnelle, et ont aménagé des espaces de collecte d’eaux pluviales pour se ménager une ressource en eau douce.
Dans cet ensemble, le moulin est sans doute la structure la plus connue. On en comptait plus de 200 au début de XXᵉ siècle, qui avaient deux destinations principales : certains servaient à pomper l’eau pour l’assèchement, d’autres à moudre les céréales. Ici, le « Moulin tour » de Watten (Nord) est composé d’une base en craie et d’un sommet en rouges-barres, alternance de craie et de briques. C’est un moulin à vent classique constitué d’une tour en maçonnerie, surmontée d’une calotte orientable dans le sens du vent, supportant les ailes fixées à un axe horizontal ou légèrement incliné vers le haut et un toit en bardage. Wikimedia, Fourni par l’auteur
Jusque-là en effet, chaque propriétaire défendant son champ ne pouvait le faire qu’en renvoyant l’eau en excès chez ses voisins. Cette situation, qui engendrait des conflits, a mené dès le XIIe siècle Philippe d’Alsace, comte de Flandre, à tenter de mettre en place un système de gestion commun, ordonné et contrôlé. Mais il faut attendre le XVIIe siècle pour qu’un ingénieur hollandais, Cobergher, acquière la lagune résiduelle (Les Moëres) pour y construire un dispositif mécanique dont le principe est encore actuel. Seules la forme d’énergie et la commande des manœuvres, autorégulée aujourd’hui, ont depuis changé.
Aujourd’hui, la poldérisation – l’assèchement de marais littoraux pour en faire des terres cultivables – est de plus en plus gênée par la montée du niveau marin, par le développement de l’urbanisme et de l’industrialisation. La période de pluies soutenues, génératrices d’inondations au cours de l’hiver 2023-2024 a mis en évidence une autre limite : le processus de poldérisation a été élaboré pour drainer des terres agricoles ; à cette occasion, il a aussi été utilisé comme ouvrage d’assainissement à portée régionale pour drainer la totalité de la plaine maritime. Or ce système n’a jamais été dimensionné pour un tel objectif !
Un système de gestion désormais dépassé
Le principe de gestion est connu sous le nom de wateringues. Chaque propriétaire d’un lopin de terre est chargé de le cultiver et de l’entretenir : il rejette les eaux en excès (pluviales et ruissellements, donc douces), dans un drain (watergang) qui entoure sa parcelle et paye une redevance pour qu’elles soient collectées par un canal plus important (ringslot) qui les conduit vers des canaux classiques, gérés, eux, par Voies Navigables de France.
Formation du polder de la Flandre maritime. Le flux marin apporte des sédiments détritiques. Modifié d’après AGUR, Fourni par l’auteur Les sédiments apportés commencent à former des cordons dans la sens des courants. Modifié d’après AGUR, Fourni par l’auteur Les apports continentaux comblent l’espace derrière les cordons. À la fin du Quaternaire, la plaine maritime est une lagune protégée par un cordon dunaire qui se renouvelle sans cesse. Modifié d’après AGUR, Fourni par l’auteur Localisation des canaux (VNF) et coupe transversale (barre rouge) du polder au nord-est de Dunkerque. Modifié d’après AGUR/IIW, Fourni par l’auteur
Le principal problème est qu’aujourd’hui, à marée haute, l’écoulement de l’eau à la mer ne peut plus se faire naturellement par gravité, à cause de la montée du niveau marin. L’eau est donc momentanément stockée derrière des écluses, soit en attendant la marée basse, soit pour être reprise par des pompes qui la rejetteront au-dessus de ces écluses. L’épisode d’inondations de l’hiver 2023-2024 a démontré qu’on ne détourne pas impunément un aménagement si l’on n’a pas compris le système fonctionnel du territoire.
Dans ce contexte, il s’agit de repenser dans sa totalité l’aménagement de ce territoire, porteur d’enjeux très lourds, économiques, sociaux, environnementaux. La dépression des Moëres, en particulier, est aujourd’hui officiellement située sous le niveau de la mer : elle devrait donc être (progressivement) libérée de tout habitat et peu à peu transformée en bassin de collecte des eaux pluviales et de ruissellement. Diverses formes de valorisation économique sont à étudier. Seul problème : les négociateurs du Traité d’Utrecht (1713) ont fait passer la frontière au milieu de cette dépression… ce qui implique de traiter ce problème dans un cadre européen.
Francis Meilliez est Professeur honoraire de Géologie et directeur de la Société Géologique du Nord.
Patrick de Wever ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Une fois que les patients ont reçu la thérapie génique, les améliorations auditives ont été à la fois rapides et significatives.Nina Lishchuk/ Shutterstock
Une thérapie génique a permis pour la première fois de restaurer l’audition chez des patients atteints d’une forme de surdité liée à la mutation d’un gène indispensable au fonctionnement de certaines cellules de l’oreille interne. Cette approche pourrait être utilisée pour traiter d’autre types de surdité d’origine génétique.
Les résultats que nous avons obtenus récemment ouvrent toutefois une autre piste : nos recherches indiquent en effet que la thérapie génique peut rétablir l’audition, non seulement chez certains tout-petits, mais aussi chez de jeunes adultes atteints de surdité congénitale.
Contrairement à ce qui se passe dans le cas d’autres formes de surdité d’origine génétique, chez les individus porteurs de mutations dans le gène OTOF, les structures de l’oreille interne demeurent intactes, ce qui en fait de parfaits candidats à la thérapie génique. En effet, cette approche consiste à remplacer le gène défaillant par une version fonctionnelle : en cas de succès, les structures existantes fonctionnent à nouveau normalement, et l’audition est restaurée.
Pour transporter une copie fonctionnelle du gène OTOF au bon endroit, c’est-à-dire dans les cellules ciliées de l’oreille interne, nous avons utilisé comme vecteurs des virus modifiés. Ceux-ci peuvent être vus comme des « postiers moléculaires » : ils sont capables de « livrer » la réparation génétique précisément là où elle est requise.
Dans un premier temps, les virus modifiés se fixent à la membrane des cellules ciliées. Ils induisent ensuite leur internalisation, autrement dit leur transport dans lesdites cellules. Une fois entrés, ils poursuivent leur trajet jusqu’au noyau des cellules, où ils libèrent les instructions génétiques qui permettront la production d’otoferline au sein des cellules nerveuses auditives.
Nous avions préalablement testé ce protocole chez l’animal (primates), pour confirmer la sûreté de cette thérapie virale, avant d’entamer des études cliniques chez de jeunes enfants (âgés de cinq et huit ans). Nous avons ainsi pu constater son potentiel de restauration : les niveaux d’audition obtenus après traitement se sont parfois avérés quasi normaux.
Néanmoins, deux questions majeures restaient en suspens : quelle serait l’efficacité de cette approche chez des patients plus âgés ? Et existe-t-il une tranche d’âge optimale pour l’application du traitement ?
Pour y répondre, nous avons élargi notre essai clinique à cinq centres hospitaliers, ce qui nous a permis de recruter dix participants âgés de 1 à 24 ans, tous atteints de surdité OTOF. Chacun a reçu une injection dans l’oreille interne.
Les participants ont ensuite été étroitement suivis pendant 12 mois, grâce à des examens otologiques et des analyses de sang, afin de détecter tout problème.
Les améliorations auditives ont été estimées de deux façons : par des tests objectifs de réponse du tronc cérébral, et par évaluations comportementales. Dans le premier cas, les patients entendent des clics rapides (ou des bips) correspondant à différentes fréquences, tandis que des capteurs mesurent la réponse électrique automatique de leur cerveau à ces stimulations sonores. Dans le second cas, équipés d’un casque dans lequel des bips très faibles sont diffusés, les patients signalent chaque stimulus perçu en appuyant sur un bouton ou en levant la main, quelle que soit son intensité.
La thérapie génique met en œuvre la version synthétique d’un virus, utilisée pour délivrer un gène fonctionnel dans les cellules ciliées de l’oreille interne. Kateryna Kon/Shutterstock
Les progrès constatés ont été à la fois rapides et significatifs, en particulier chez les plus jeunes : dès le premier mois, l’amélioration auditive moyenne atteignait 62 % selon l’évaluation par tests objectifs et 78 % selon les évaluations comportementales. Deux participants ont retrouvé une perception de la voix quasi normale ; la mère d’un enfant de sept ans a rapporté que son fils a perçu des sons à peine trois jours après l’administration du traitement.
Au cours des douze mois qu’a duré l’étude, des effets indésirables faibles à modérés ont été constatés chez dix patients, le plus fréquent d’entre eux étant une diminution du nombre de globules blancs. Aucun événement indésirable grave n’a été observé, ce qui confirme que cette thérapie présente un profil de sécurité favorable.
Traitement de la surdité génétique
Il faut souligner que c’est la première fois que de tels résultats sont obtenus chez des adolescents et des adultes atteints de surdité OTOF.
Par ailleurs, ces travaux nous ont renseignés sur la fenêtre d’intervention idéale. En effet, les gains les plus importants ont été observés chez les enfants âgés de cinq à huit ans. L’audition des tout-petits et des patients plus âgés s’est aussi améliorée, mais les progrès ont été moins spectaculaires.
Ce constat, a priori contre-intuitif, suggère que la capacité du cerveau à intégrer des sons nouvellement restitués par le système auditif varie en fonction de l’âge. Les raisons expliquant cette situation restent à déterminer.
Cet essai constitue un jalon : il a permis de combler l’écart qui existait entre les expérimentations chez l’animal et les études chez l’être humain, en couvrant qui plus est une large tranche d’âges. Il reste encore des questions en suspens concernant la persistance dans le temps des améliorations constatées. Mais la thérapie génique continue à progresser, et la possibilité de l’utiliser pour guérir la surdité d’origine génétique (et non plus seulement la gérer) est en train de devenir une réalité.
Ces travaux ont porté sur la surdité liée aux mutations du gène OTOF, mais il ne s’agit là que d’un début. Notre équipe (et d’autres) développent déjà des thérapies ciblant des gènes différents, impliqués eux aussi dans la surdité, mais plus répandus. Ces cas sont bien plus complexes à traiter, cependant les résultats précliniques déjà obtenus sont prometteurs. Cela nous permet d’envisager avec confiance le fait qu’à l’avenir, la thérapie génique pourra être employée pour traiter de nombreuses autres formes de surdité d’origine génétique.
Maoli Duan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.