Blanchiment d’argent et cryptomonnaie : l’illusion de la transparence de la blockchain

Source: The Conversation – France (in French) – By Jean-Marc Figuet, Professeur d’économie, ISG Lab, Université de Bordeaux

Une adresse publique sur la blockchain se crée en quelques secondes, sans pièce d’identité, avec une clé privée connue uniquement du propriétaire des cryptoactifs. Max Acronym/Shutterstock

Une affirmation revient souvent : les criminels du monde entier utilisent les cryptomonnaies pour blanchir l’argent, en toute impunité. En effet, s’il est facile de tracer les échanges financiers via les blockchains, impossible d’identifier les personnes sans la coopération des acteurs comme Binance, Tether ou les prestataires de paiements. Car sur la blockchain, on peut tout voir sans savoir qui agit.


La promesse des blockchains publiques, comme Bitcoin ou Ethereum, est aussi simple qu’audacieuse : chaque transaction y est enregistrée, horodatée et visible par tous. À première vue, c’est un avantage décisif pour les enquêteurs financiers. À première vue seulement, car cette transparence se révèle souvent trompeuse. Si le registre décentralisé est public, les identités derrière les adresses restent inaccessibles sans intermédiaire.

Publiée en novembre 2025, l’enquête internationale The Coin Laundry (ICIJ) montre comment ce « paradoxe crypto » alimente une économie criminelle mondialisée, et comment l’identification des personnes dépend, en pratique, du bon vouloir d’intermédiaires privés, comme les plateformes (Binance) ou les guichets de conversion crypto-to-cash desks. Ces guichets sont des opérateurs, tels que Huione Guarantee ou Tether Operations Limited, souvent localisés dans des paradis fiscaux. Ces derniers convertissent des cryptoactifs en monnaie fiduciaire – euros, dollars – ou en actifs tangibles – or, immobilier – sans vérification systématique d’identité.

On peut tout voir sans savoir qui agit. Car la blockchain affiche seulement des transferts de crypto, pas des identités. Cet écart entre la traçabilité technique et la responsabilité juridique permet aux réseaux criminels de prospérer ; la transparence des flux ne garantit ni l’identification des acteurs, ni l’effectivité des contrôles.

Alors, comment concrètement ces transactions fonctionnent-elles ?

Piège de la pseudonymie

Sur une blockchain publique, l’unité de base n’est pas l’individu, mais l’adresse publique, c’est-à-dire une suite de caractères. Par exemple, 1A1zP1eP5QGefi2DMPTfTL5SLmv**** sur la blockchain Bitcoin. Cette adresse publique se crée en quelques secondes, sans pièce d’identité, en quantité illimitée. Elle est associée à une clé privée, par exemple L5oLkpXH3Z55rVgQv8gQJQ5v9X8fLpW7tQeNqW3TbKbYsZ1P**** qui elle, n’est connue que du propriétaire des cryptoactifs.

Les réseaux criminels exploitent cette pseudonymie en multipliant les adresses, en fragmentant les montants et en automatisant les transferts via des « services » variés – mixing, swaps décentralisés ou bridges. Le plus connu est le mixing, utilisé pour brouiller les traces des transactions en crypto.

Le mixing, une technique utilisée pour brouiller les traces des transactions sur une blockchain, suit un process complexe :
  • 1. Le dépôt des fonds : un utilisateur envoie ses crypto à une adresse pool gérée par un service de mixing, comme Tornado Cash.
  • 2. Le mélange des fonds : le service mélange ces crypto avec celles d’autres utilisateurs.
  • 3. La redistribution des fonds : après un délai aléatoire, le service renvoie les fonds, mais provenant d’autres adresses, vers une nouvelle adresse désignée par l’utilisateur, ce qui rend impossible le suivi des fonds originaux.

Le mixeur Tornado Cash a permis le blanchiment de plusieurs milliards de dollars en 2022 et 2023, dont certains directement liés à des cyberattaques et des ransomwares. En 2022, le groupe Lazarus, lié à la Corée du Nord, a utilisé un mixeur pour blanchir 615 millions de dollars (plus de 520 millions d’euros) volés lors du piratage du jeu Axie Infinity. Les hackers ont subtilisé des Ethereum (ETH) et les ont envoyés à Tornado Cash qui a fragmenté puis redistribué ces ETH vers des centaines d’adresses différentes, rendant le suivi impossible. Les fonds ont ensuite été convertis en monnaie fiduciaire via des guichets asiatiques ou réinvestis dans des casinos en ligne.

Relier une adresse à une identité

Les cellules de renseignements publiques comme Tracfin en France, Europol dans l’Union européenne, ou privées telles que Chainanalysis utilisée par le FBI ou Interpol peuvent identifier des schémas de blanchiment sur la blockchain. Mais relier une adresse à une identité relève de la seule volonté de l’intermédiaire.

Un exemple rapporté par l’ICIJ illustre ce piège. Entre juillet 2024 et juillet 2025, des adresses associées au groupe cambodgien Huione ont transféré au moins 408 millions de dollars (345,8 millions d’euros) en stablecoins USDT vers des comptes clients sur Binance. Ces transactions se sont poursuivies malgré le classement d’Huione en tant qu’entité majeure de blanchiment d’argent, ou primary money laundering concern, dès le 1er mai 2025, par le Financial Crimes Enforcement Network, un département du Trésor américain.

La visibilité des transactions n’est pas en cause. Ce qui l’est, c’est la difficulté à convertir cette visibilité en attribution fiable et en action rapide, comme le gel, la saisie ou les poursuites.

Les intermédiaires, le talon d’Achille de la traçabilité

Tant que les fonds en cryptomonnaie restent dans la blockchain (« on-chain »), leur traçabilité est totale. En revanche, dès que les fonds sortent de la blockchain (« off-chain ») par une conversion en monnaie légale ou l’achat d’actifs financiers… tout dépend des intermédiaires (plateformes, prestataires de paiement…). Ces derniers jouent un rôle comparable à celui de douaniers. Eux seuls peuvent relier une adresse à une identité, condition indispensable pour déclencher une action judiciaire.




À lire aussi :
Comment les trafiquants de cocaïne blanchissent l’argent des cartels


L’enquête de l’ICIJ insiste sur une réalité moins technologique qu’institutionnelle. Même lorsque des signaux d’alerte existent, la réaction des intermédiaires peut être tardive, incomplète ou absente. Leur activité demeure structurée par un modèle économique fondé sur les volumes et les frais.

Binance, la principale plateforme, a généré plus de 17 milliards de dollars (14,4 milliards d’euros) de commissions sur les transactions en 2023. Cela crée une tension durable entre la croissance des flux, génératrice de revenus, et la traque des flux illicites. Comme le secret bancaire suisse dans les années 1990, les intermédiaires crypto aujourd’hui privilégient la rentabilité à court terme au détriment de la lutte contre la criminalité financière.

La différence ? Leur modèle est encore plus difficile à réguler, car il repose sur une technologie conçue pour contourner les contrôles.

Trois obstacles se cumulent.

Complexité technique

Les fonds peuvent changer de libellé, circuler via des services de swaps qui permettent d’échanger instantanément une cryptomonnaie contre une autre, franchir des ponts entre blockchains, ou emprunter des infrastructures décentralisées. Chaque étape n’efface pas la trace, mais multiplie les embranchements, donc les hypothèses, et accroît la difficulté probatoire.

Fragmentation juridique

Les plateformes, les prestataires et les serveurs sont dispersés géographiquement. L’entraide judiciaire internationale est lente. Et certaines juridictions sont peu coopératives, notamment dans les paradis fiscaux.

Asymétries économique et temporelle

Un criminel peut créer une nouvelle adresse en quelques clics alors qu’un enquêteur doit engager des procédures multiples dont l’issue est incertaine. L’ICIJ souligne l’émergence de crypto-to-cash desks qui permettent de convertir de grosses sommes de crypto en cash, avec des contrôles variables.

Un indicateur aide à saisir l’ampleur du phénomène. Pour 2024, l’Internet Crime Complaint Center du FBI estime à 9,3 milliards de dollars (7,8 milliards d’euros) les pertes déclarées par des victimes de crimes liés aux cryptomonnaies. Au-delà du chiffre, cela dit la vitesse d’adaptation des fraudeurs et la pression sur les capacités d’enquête.

La régulation européenne en progrès

L’Union européenne a créé deux instruments majeurs pour renforcent la traçabilité aux points d’entrée et de sortie du système régulé.

Le règlement européen Markets in Crypto-Assets, dit MiCA encadre les prestataires de services sur crypto-actifs via un régime d’autorisation depuis le 30 décembre 2024. Il crée de fait des exigences de gouvernance et des obligations de conformité.




À lire aussi :
Comment les trafiquants de cocaïne blanchissent l’argent des cartels


La règle du « voyage des fonds » (règlement UE 2023/1113) impose, depuis le 30 décembre 2024, que certaines informations accompagnent les transferts afin de réduire l’opacité des flux dans les circuits régulés.

Leurs limites sont intrinsèques. Ils ne couvrent ni les échanges de pair à pair qui se réalisent sans intermédiaire (via des groupes Telegram), ni les plateformes offshore, localisées dans des paradis fiscaux, ni les portefeuilles auto-hébergés (MetaMask, Ledger…) où l’utilisateur contrôle seul ses clés.

En clair, la réglementation sécurise le pont sans combler les fossés.

La transparence ne suffit pas

Affirmer que « la blockchain est transparente » est un leurre. Cette transparence ne porte que sur les mouvements de fonds, jamais sur les acteurs et sur leur identité. La lutte contre le blanchiment se joue aux marges du système, c’est-à-dire dans la rigueur des contrôles Know Your Customer, la réactivité des plateformes, et la coopération internationale.

Trois priorités semblent aujourd’hui s’imposer :

  • harmoniser les règles pour éviter l’arbitrage entre des juridictions permissives et d’autres, strictes ;

  • doter les enquêteurs de moyens techniques et juridiques adaptés ;

  • sanctionner réellement les intermédiaires défaillants, afin de transformer la transparence en responsabilité.

Au vu de l’expérience de la coopération internationale pour lutter contre les paradis fiscaux, on peut supposer que le chemin sera, sans nul doute, périlleux pour atteindre ces priorités. Sans elles, la blockchain restera un registre ouvert où les criminels savent tourner les pages sans y laisser leur nom.

The Conversation

Jean-Marc Figuet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Blanchiment d’argent et cryptomonnaie : l’illusion de la transparence de la blockchain – https://theconversation.com/blanchiment-dargent-et-cryptomonnaie-lillusion-de-la-transparence-de-la-blockchain-273051

When AI goes haywire: the case of the skyscraper and the slide trombone

Source: The Conversation – France – By Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de Lyon

AI-generated images, in response to the prompt: “Draw me a skyscraper and a sliding trombone side-by-side so that I can appreciate their respective sizes” (left by ChatGPT, right by Gemini) CC BY

Artificial Intelligence (AI) is now part of our everyday life. It is perceived as “intelligence” and yet relies fundamentally on statistics. Its results are based on previously learned patterns in data. As soon as we move away from the subject matter it has learned, we’re faced with the fact that there isn’t much that is intelligent about it. A simple question, such as “Draw me a skyscraper and a sliding trombone side-by-side so that I can appreciate their respective sizes” will give you something like this (this image has been generated by Gemini):

This example was generated by Google’s model, Gemini, but generative AI dates back to the launch of ChatGPT in November 2022 and is in fact only three years old. The technology has changed the world and is unprecedented in its adoption rate. Currently, 800 million users rely on ChatGPT every week to complete various tasks, according to OpenAI. Note that the number of requests tanks during the school holidays. Even though it’s hard to get hold of precise figures, this goes to show how widespread AI usage has become. Around one in two students regularly uses AI.

AI: essential technology or a gimmick?

Three years is both long and short. It’s long in a field where technology is constantly changing, and short when it comes to social impacts. And while we’re only just starting to understand how to use AI, its place in society has yet to be defined – just as AI’s image in popular culture has yet to be established. We’re still wavering between extreme positions: AI is going to outsmart human beings or, on the contrary, it’s merely a useless piece of shiny technology.

Indeed, a new call to pause AI-related research has been issued amid fears of a superintelligent AI. Others promise the earth, with a recent piece calling on younger generations to drop higher education altogether, on the grounds that AI would obliterate university degrees.

AI’s learning limitations amount to a lack of common sense

Ever since generative AI became available, I have been conducting an experiment consisting of asking it to draw two very different objects and then checking out the result. The goal behind these prompts of mine has been to see how the model behaves once it departs from its learning zone. Typically, this looks like a prompt such as ‘Draw me a banana and an aircraft carrier side by side so that we can see the difference in size between the two objects’. This prompt using Mistral gives the following result:

Screenshot of a prompt and the image generated by Mistral AI.
Author provided

I have yet to find a model that produces a result that makes sense. The illustration at the start of the article perfectly captures how this type of AI works and its limitations. The fact that we are dealing with an image makes the system’s limits more tangible than if it were to generate a long text.

What is striking is the outcome’s lack of credibility. Even a 5-year-old toddler would be able to tell that it’s nonsense. It’s all the more shocking that it’s possible to have long complex conversations with the same AIs without the impression of dealing with a stupid machine. Incidentally, such AIs can pass the bar examination or interpret medical results (for example, identifying tumours on a scan) with greater precision than professionals.

Where does the mistake lie?

The first thing to note is that it’s tricky to know exactly what’s in front of us. Although AIs’ theoretical components are well known, a project such as Gemini – much like models such as ChatGPT, Grok, Mistral, Claude, etc. – is a lot more complicated than a simple Machine Learning Lifecycle (MLL) coupled with a diffusion model.

MML are AIs that have been trained on enormous amounts of text and generate a statistical representation of it. In short, the machine is trained to guess the word that will make the most sense from a statistical viewpoint, in response to other words (your prompt).

Diffusion models that are used to generate images work according to a different process. The process of diffusion is based on notions from thermodynamics: you take an image (or a soundtrack) and you add random noise (snow on a screen) until the image disappears. You then teach a neuronal network to reverse that process by presenting these images in the opposite order to the noise addition. This random aspect explains why the same prompt generates different images.

Another point to consider is that these prompts are constantly evolving, which explains why the same prompt will not produce the same results from one day to the next. Changes might be brought manually to singular cases in order to respond to user feedback, for example.

As a physician, I will thus simplify the problem and consider we’re dealing with a diffusion model. These models are trained on image-text pairs. It is therefore safe to assume that Gemini and Mistral models have been trained on dozens (or possibly hundreds) of thousands and images of skyscrapers (or aircraft carriers) on the one hand, and on a large mass of slide trombones on the other – typically, close-ups of slide trombones. It is very unlikely that these two objects are represented together in the learning material. Hence, the model doesn’t have a clue about these objects’ relative dimensions.

Models lack ‘understanding’

Such examples go to show how models have no internal representation or understanding of the world. The sentence ‘to compare their sizes’ proves that there is no understanding of what is written by machines. In fact, models have no internal representation of what “compare” means other than the texts in which the term has been used. Thus, any comparison between concepts that do not feature in the learning material will produce the same kinds of results as the illustrations given in the examples above. It will be less visible but just as ridiculous. For example, this interaction with Gemini: ‘Consider this simple question: “Was the day the United States was established a leap year or a normal year?”‘

When consulted with the prefix CoT (Chain of Thought, a recent development in LLMs whose purpose is to break down a complex question into a series of simpler sub-questions), the modern Gemini language model responded: “The United States was established in 1776. 1776 is divisible by 4, but it is not a century year (100 years), so it is a leap year. Therefore, the day the United States was established was in a normal year. ”

It is clear that the model applies the leap year rule correctly, thereby offering a good illustration of the CoT technique, but it draws the wrong conclusion in the final step. These models do not have a logical representation of the world, but only a statistical approach that constantly creates these types of glitches that may seem ‘off the mark’.

This realisation is all the more beneficial given that today, AI writes almost as many articles published on the Internet as humans. So don’t be surprised if you find yourself surprised when reading certain articles.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Frédéric Prost ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. When AI goes haywire: the case of the skyscraper and the slide trombone – https://theconversation.com/when-ai-goes-haywire-the-case-of-the-skyscraper-and-the-slide-trombone-272763

Canada is losing track of its wild salmon — just when we need that knowledge most

Source: The Conversation – Canada – By Michael Price, Adjunct professor, Department of Biology, Simon Fraser University

Every year, Pacific salmon return from the ocean to the rivers and streams where they were born. These migrations nourish ecosystems, sustain Indigenous cultures and support fisheries that people across Western Canada rely on. Yet something essential has quietly eroded: Canada’s efforts to count wild salmon.

That loss of basic information matters. It becomes especially important at a time when major industrial decisions affecting salmon watersheds are being made more quickly, and with less ecological information than in the past.

Twenty years ago, Canada adopted its Wild Salmon Policy (WSP), a landmark commitment to conserve the genetic and geographic diversity of wild Pacific salmon. At its core was a simple promise: to regularly assess the health of distinct salmon populations so declines could be detected early, and recovery action taken when needed.

Our recent analysis of publicly reported monitoring data shows that this foundation is weakening. Since the WSP was introduced, the number of spawning populations counted each year has declined by roughly one-third, driven largely by the loss of high-quality surveys.

We now lack sufficient publicly available data on nearly half of Canada’s Pacific salmon populations to assess whether they are healthy or at risk. Among those that can be assessed in British Columbia, around 70 per cent are in decline.




Read more:
Habitat loss and over-exploitation are leading to a decline in salmon populations


Why monitoring matters

Counting salmon isn’t bureaucratic box-checking. Salmon are foundational to coastal ecosystems and communities, and spawner counts are one of the simplest and most reliable ways to assess population health.

These data inform researchers and fisheries managers whether populations are stable, declining or recovering, and they underpin difficult decisions: when fisheries must be closed to prevent further harm, or when sustainable openings can support food security and livelihoods.

Without consistent monitoring, managers are forced to make decisions with limited evidence. Warning signs can be missed, and fisheries or habitat degradation may continue while populations quietly decline.

And the timing couldn’t be worse. The erosion of monitoring is occurring just as pressures on salmon are intensifying.

Climate change is warming rivers, altering ocean food webs, increasing the frequency of floods and droughts and reshaping freshwater habitats across Western Canada. In a changing environment, monitoring is the only way to distinguish natural variability from sustained declines.

At the same time, Canada is moving to accelerate industrial development. Recent federal legislation allows faster approval of projects deemed to be in the “national interest.” This push for speed is occurring while federal capacity to monitor salmon ecosystems weakens.

While expediency may be appealing, it carries real environmental risks unless matched by corresponding investment in mitigation and monitoring. When development accelerates while monitoring declines, decisions are increasingly made without a clear picture of what is being put at risk — or how impacts will be detected and addressed once projects are under way.

Data collection needed

The decline in monitoring is not simply the result of shrinking budgets or unavoidable austerity. Over the past two decades, federal investments in other salmon-related programs — such as enhancement and aquaculture development — have consistently exceeded investments in policy targeting salmon conservation.

In 2021, the federal government committed a historic $647 million to salmon conservation through the Pacific Salmon Strategy Initiative. Yet the systematic rebuilding of monitoring programs — the basic data collection needed to assess population health — was not made a central funding priority.

The challenge is likely to intensify. Recent federal budgets have committed to significant cuts to Fisheries and Oceans Canada, the department responsible for fisheries oversight and environmental monitoring. This would likely further constrain the capacity to rebuild monitoring programs.

In plain terms, Canada has not invested in the collection of information needed to know whether conservation efforts are actually working — or where action is most urgently required.

What rebuilding monitoring would look like

Reversing the decline in salmon monitoring is achievable, and relatively inexpensive compared to the costs of recovery once populations collapse.

First, the monitoring infrastructure and systems that allow governments and communities to track salmon populations must be treated as essential public infrastructure.

Second, coverage matters as much as precision. Monitoring more populations consistently, even with imperfect counts, often provides better insight than highly precise estimates at a few sites. Data gaps are far more damaging than moderate uncertainty.

Third, Indigenous-led and community-based monitoring offers a powerful opportunity to rebuild capacity. Many Indigenous nations have deep knowledge of salmon systems and strong stewardship responsibilities. Supporting monitoring partnerships, while respecting Indigenous data governance, can expand coverage, strengthen legitimacy and provide economic opportunities in local communities.




Read more:
Learning from Indigenous knowledge holders on the state and future of wild Pacific salmon


Finally, if governments choose to fast-track major projects, they must strengthen, not weaken, baseline ecological monitoring in affected watersheds. Speed should not come at the expense of understanding.

Canada has a clear framework for conserving wild salmon in the Wild Salmon Policy, but its effectiveness is undermined by low investment in basic monitoring. Without consistent and representative data, it becomes impossible to know what populations are in trouble, whether conservation efforts are working or where action is most urgently needed.

In effect, we are increasingly managing salmon in the dark — with stark consequences for ecosystems, fisheries and communities. Rebuilding broad, representative, monitoring programs is a foundational step that Canada can take to safeguard wild salmon in a time of rapid environmental and industrial change.

If we stop counting salmon, we should not be surprised when they disappear — quietly.

The Conversation

Michael Price is affiliated with SkeenaWild Conservation Trust as the Director of Science, and Adjunct Professor in the Department of Biology at Simon Fraser University.

Jonathan Moore is the principal investigator of the Salmon Watersheds Lab.

ref. Canada is losing track of its wild salmon — just when we need that knowledge most – https://theconversation.com/canada-is-losing-track-of-its-wild-salmon-just-when-we-need-that-knowledge-most-273746

Imagining alternative Canadian cultural policy through BIPOC artists’ experiences

Source: The Conversation – Canada – By Taiwo Afolabi, Full Professor/CRC in Socially Engaged Theatre; Director, C-SET, University of Regina

We need arts and cultural policy that embeds foundational principles of care, accountability and attention to reciprocal and equitable relationships. (Peqsels/RDNE Stock project)

The culture and creative sector is experiencing unprecedented strain during a period defined by intense polarization and precarity, growing economic and environmental concerns, deepening social inequities and urgent calls for justice.

During the pandemic and amid powerful global movements for racial and social justice, longstanding inequities in the arts sector were brought into sharper focus — as was artists’ continued commitment to imagining alternative futures.

But the frameworks guiding Canadian arts and culture policy are increasingly insufficient to sustain our society.

Future of Canadian cultural policy

The future of Canadian cultural policy — shaping how artists and creative practitioners engage in their work, with each other and society at large — cannot solely be premised on the economic argument for the cultural and creative sector, as was assumed by the 2017 Creative Canada Policy Framework.

Assuming the primacy of economic returns and market performance in cultural production undermines the value of non-commodified, non-economic contributions of culture.

Nor can the future of Canadian cultural policy rest on nation-building narratives of the post-Second World War era.

As playwright and director Yvette Nolan and cultural strategist Sarah Garton Stanley discussed in a 2023 session with the Centre for Socially Engaged Theatre, such narratives marginalize Indigenous Peoples and other cultural identities and perpetuate a settler-colonial vision of cultural citizenship.

Yvette Nolan and Sarah Garton Stanley discuss the imprint of the 1951 Massey Report, concerned with arts and culture, on Canada’s creative sectors.

In addition to asking how culture can serve economic interests or reinforce a cohesive national brand, we must also ask: how can cultural policy nurture trust, belonging and long-term relationality across communities, identities and experiences?

This was our concern in research we conducted between 2022 and 2024 with 18 self-employed Black, Indigenous and People of Colour (BIPOC) artists and cultural entrepreneurs across Western Canada. Collaborators in this research were playwright Yvette Nolan, as well as art historian Luba Kozak and academic researcher Fonon Nunghe.

Conversations with artists

We explored the question: In what ways might the social value-creation strategies of self-employed BIPOC artists who engage in socially transformative practices shape a more equitable Canadian cultural policy?

Through individual and group conversations, we heard how artists are leveraging their creative practices, entrepreneurial skills and leadership to generate social value in their communities.

We also heard how they are countering discrimination, fostering belonging and advancing justice through culturally grounded, socially engaged art.

We conducted this research during a pivotal period in the wake of the COVID-19 pandemic and amid powerful global movements for racial and social justice. The reflections gathered are rooted in the social, political and cultural dynamics of that time, yet they remain relevant in today’s shifting landscape.

Issues such as systemic exclusion, under-representation and the need to support BIPOC leadership in the arts continue to demand urgent attention.

Erosion of EDI

Globally, the erosion of equity-based initiatives, especially in the wake of the 2024 U.S. presidential election, has raised alarm.

The backlash against diversity, equity and inclusion (DEI) efforts across sectors, including the arts, signals a broader populist shift that threatens the fragile gains made in justice-centred work. Canadian cultural institutions are not immune to this trend.




Read more:
We need meaningful, not less, EDI and climate action in turbulent times


Organizations that foreground equity and representation increasingly find themselves under scrutiny, pressured to defend their legitimacy and impact.

Cultural policy is needed that protects equity-driven practices and embeds care, accountability and relationality as foundational principles, especially in times of political volatility.

What does this look like on the ground? Here are three insights that emerged in our conversations with artists:

1. Authentic safe spaces and responsiveness: Artists emphasized that the concept of safety must go beyond institutional declarations of “safe spaces” or symbolic gestures. True safety for BIPOC artists requires culturally responsive policies that acknowledge the emotional, spiritual and cultural dimensions of artistic practice.

This might look different for different artists and communities. Many institutions, while professing inclusivity, continue to restrict practices revealing a limited understanding of cultural protocols. Artists shared that safety must be rooted in the ability to engage in arts production and express themselves authentically, without institutional gatekeeping or pressure to conform to Western norms. This calls for a systemic rethinking of safety that centres cultural sovereignty and the right to self-determined artistic expression.

A group of Black and racialized co-workers of varying genders having a meeting.
BIPOC artists are often exptected to take on dual roles of creating their own work while also educating institutions about cultural practices and histories.
(Gender Spectrum Collection), CC BY

2. Tokenism and decolonization: Many participants described being invited into institutional spaces as symbols rather than equal collaborators. This dynamic reduces cultural presence to a token, where inclusion is more about optics than genuine engagement. BIPOC artists are often expected to take on dual roles, creating their own work while also educating institutions about cultural practices and histories.

This expectation is not only unsustainable but emotionally exhausting, eroding trust over time. As one artist explained, they are there to tell stories, not to “do the work” of decolonization for institutions. Promises of change are frequently postponed, using excuses such as budget limitations or declining audiences, which can feel dismissive and discourage long-term engagement. These experiences underscore the need to move beyond performative inclusion and toward real power-sharing in decision-making, leadership and representation.

3. Relational accountability and community-based practices: True decolonial work requires relational accountability and the commitment to building respectful, sustained relationships rooted in reciprocity. This cannot be achieved through a checklist-style inclusion efforts or standard contracts. Many artists noted the lack of cultural and relational competency within institutions and highlighted the importance of nurturing trust through shared experiences, dialogue and time.




Read more:
How theatre on the Prairies can imagine an equitable and inclusive future


Community-based artistic practice often blurs the boundaries between personal and professional life, which institutions typically fail to recognize. Care responsibilities, emotional labour and deep ties to community are integral to the creative process for many artists, especially those working in post-COVID contexts.

However, hierarchical institutions that prioritize production and efficiency often undervalue relationships. One participant reflected on feeling torn between her commitment to her urban Indigenous community and institutional pressures focused on outputs. This tension highlights the urgent need for institutional models that respect and integrate relational and community-based approaches to art processes.

Reimagining how institutions define success

What’s needed for the new era in Canada’s arts landscape is a fundamental reimagining of how cultural institutions define success and responsibility. This shift calls for cultural policy that upholds the diverse realities of those who live, create and contribute across these lands and is grounded in their experiences.

Cultural policies must explicitly encourage and require institutions to prioritize care, trust and ethical leadership in their daily practices, instead of focusing solely on outputs and compliance. Policies should centre community and accountability to relationships as core to institutional purpose.

By embedding these values into funding criteria, accountability measures, success indicators and governance frameworks, cultural policy can compel institutions to move beyond short-term, project-based transactional models.

If we are to cultivate a truly inclusive cultural landscape, we must build equity not only in visibility and representation but also in the relationships, processes and structures that sustain cultural life.

Only by embracing this approach can cultural institutions foster trust, belonging and resilience, helping to heal and connect communities across this land.

The Conversation

The researchers/authors received funding from the Social Sciences and Humanities Council (SSHRC) (Insight Development Grant) for this research.

ref. Imagining alternative Canadian cultural policy through BIPOC artists’ experiences – https://theconversation.com/imagining-alternative-canadian-cultural-policy-through-bipoc-artists-experiences-273159

Northern housing must be built as an integrated ecosystem — by the North, for the North

Source: The Conversation – Canada – By Shelagh McCartney, Professor, Urban and Regional Planning, Toronto Metropolitan University

The recently launched Build Canada Homes (BCH) initiative marks the federal government’s most ambitious effort to build affordable homes since the Second World War.

The $13 billion initiative promises a building surge to emulate Canada’s post-war national housing program by doubling the national output of housing.




Read more:
Canada is a suburban nation because of post-Second World War government policy


This effort to aggressively stimulate growth in Canadian affordable housing construction includes the creation of the BCH new national agency working as a developer, rapid construction on public land, innovative modular construction methods and partnerships with private capital to push the pace.

For many Canadians, this may seem like a decisive response to the country’s housing crisis while also promoting Canadian sovereignty during tumultuous relations with the United States and other geopolitical developments.

But for the North, the parallels between the role of housing policy now and in the post-war era should give us pause. The building boom following the Second World War established many of the chronic housing, health and economic challenges northerners face today.

Lessons from the post-war era

Amid Cold War tensions and fears of Soviet encroachment following the Second World War, Canada and the United States moved to militarize and secure the Arctic.

Both countries established weather stations, the Distant Early Warning Line, airbases and other strategic infrastructure to assert sovereignty over the region. This geopolitical anxiety also fuelled Canadian efforts to create or expand permanent northern settlements.

These efforts imposed fixed communities on Indigenous peoples who previously moved seasonally through vast territories in patterns shaped by ecological knowledge and deep relationships with the land. This was often pursued through forced or incentivized relocations, reshaping Indigenous mobility and ways of life.

This push to secure the North was accompanied by a rapid expansion of federal housing initiatives in the 1950s and ‘60s to meet national housing strategies. Southern-style houses were imported into the North, detached from northern cultures, landscapes and climates, and administered through colonial governance structures.

Construction of these homes relied on southern labour and materials, leaving communities with buildings but not the authority, tools or training needed to construct or maintain them. Rather than recognize and learn from the approaches to housing construction and sustainability that northern, Indigenous peoples had been practising for generations, the government sought to impose control and authority through northern housing.

This era laid the groundwork for the housing precarity that northerners continue to feel today. Yet BCH uses the same language and approach — framing housing issues as a crisis, advocating rapid deployment, standardized technologies, reliance on southern supply chains and a short-term time frame. This undermines northerners’ abilities to self-determine and direct their own sustainable housing systems.

A different approach required

The North of 2026 is not the North of 1950. Climate change is accelerating permafrost thaw, reshaping ecosystems and exposing structural vulnerabilities in buildings and infrastructure caused by southern construction methods.

Dependence on imported materials and southern labour is even more unsustainable. Simultaneously, Indigenous Peoples across the North have developed community-led housing strategies, design innovations and governance models that offer powerful alternatives.

A Northern Housing Ecosystem (NHE) approach re-imagines northern housing not as a one-off construction campaign but as an interconnected system involving governance, economy, design, training, maintenance and social well-being.

It aligns with Indigenous-led housing innovations already underway — from the work of the K’asho Got’ine Housing Society and Yellowknives Dene First Nation, to regional training and design initiatives across the North.

The NHE asserts that housing is tied to health, education, economic development, energy use and cultural vitality. Housing cannot be governed within silos; it must be part of a living system.

To support northern housing autonomy and sustainability, BCH must adopt principles rooted in this ecosystem approach.

Principles include promotion of a northern housing economy where housing is collective infrastructure that focuses on community well-being and a sense of home for all northerners, prioritized over a market-based logic.

This fosters housing autonomy via northern and Indigenous control over governance, design, construction, repair and maintenance — the opposite of the dependency system of the post-war era.




Read more:
Housing is health: Coronavirus highlights the dangers of the housing crisis in Canada’s North


A sustainable northern housing future

The foundational question should no longer be: How many houses can we deliver quickly? Instead, it must be: How can we build a sustainable northern housing future?

This requires structural change in housing delivery. Short-term federal funding cycles and crisis-framing create pressure to spend and build quickly. That results in prioritizing communities with more administrative capacity, risks reinforcing inequities and rushes decisions that compromise sustainability.

Without concrete efforts to right the wrongs of the past, BCH will reproduce a housing system that never adequately or sustainably served the North. While BCH represents a major federal investment, the North needs more than housing units. It needs autonomy, climate-appropriate design, skilled local labour and local business development.

A sustainable northern housing future is possible, but only if programs like BCH evolve from a fast unit-counting exercise into an ecosystem-based strategy rooted in Indigenous leadership and northern expertise. That way a northern housing system can be built that will sustain communities for generations — by the North, with the North and for the North.


Mylène Riva, Associate Professor, Department of Geography, McGill University, Canada Research Chair in Housing, Community and Health and Rebecca Schiff, professor at the University of Lethbridge, co-authored this piece.

The Conversation

Shelagh McCartney receives funding from the Social Sciences and Humanities Research Council of Canada and the Canada Mortgage and Housing Corporation.

Aimee Pugsley receives funding from the Canada Mortgage and Housing Corporation and the Social Sciences and Humanities Research Council of Canada.

Julia Christensen receives funding from the Canada Mortgage and Housing Corporation and the Social Sciences and Humanities Research Council of Canada.

ref. Northern housing must be built as an integrated ecosystem — by the North, for the North – https://theconversation.com/northern-housing-must-be-built-as-an-integrated-ecosystem-by-the-north-for-the-north-273789

When Valentine’s Day forces a relationship reckoning

Source: The Conversation – Canada – By Emily Impett, Professor of Psychology, University of Toronto

For people who have been quietly struggling with doubts about their relationship, the weeks leading up to Valentine’s Day can feel fraught. As Feb. 14 approaches, questions that were once easy to sidestep often become harder to ignore.

In a study that tracked romantic couples over a year, relationships were about 2.5 times more likely to end during the two weeks surrounding Valentine’s Day than during the fall or spring. When researchers accounted for relationship length, prior relationship history and gender, the odds of a breakup during this window were more than five times higher.

At first glance, this timing may seem strange. Why would couples break up just before a holiday devoted to love, connection and commitment?

Other findings from this study reveal that the increase in breakups appeared only among couples who were already struggling, not among those who were stable or getting stronger.

A psychological turning point

These findings suggest that Valentine’s Day functions less like a wrecking ball and more like a spotlight.

For couples who have been struggling for months, Valentine’s Day can bring those feelings into sharper focus, forcing people to confront questions they may have been postponing: Are we happy? Are we moving forward? Is this relationship something I want to celebrate?

Psychologists refer to moments like Valentine’s Day as temporal landmarks: points that divide time into a psychological before and after. They prompt people to take stock of their lives and make decisions they have been postponing. Romantic relationships are no exception.

Rather than creating doubt, these dates tend to accelerate decisions that were already unfolding, turning private uncertainty into a sense that change is overdue.

The pressure to perform

Not all temporal landmarks carry the same emotional weight, however. Valentine’s Day is an unusually ritualized and commercialized landmark. Consumer research shows that the holiday tends to evoke polarized reactions — people are far more likely to either love or loathe Valentine’s Day than to feel neutral about it.

In the weeks leading up to the holiday, advertising, store displays and social media amplify expectations about what counts as love: gifts, effort, public displays and visible commitment. Taking part in the ritual signals commitment and investment in a shared future; opting out can invite questions or disappointment.

In this sense, Valentine’s Day does not just invite reflection — it demands a performance.

This helps explain why breakups often happen before Valentine’s Day rather than after. Ending a relationship afterward can feel deceptive, especially if gifts were exchanged or plans were made. Many people would rather leave than perform romance they no longer feel, or accept gestures that imply a level of commitment they are unsure they can sustain.

That timing reflects a broader tendency to delay difficult decisions around holidays. Ending a relationship is emotionally uncomfortable at the best of times, and research shows people sometimes delay breakups to spare their partner pain. Holidays can intensify that hesitation.

In a nationally representative survey, 22 per cent of American adults said they ended relationships before Valentine’s Day because they did not want their partner to buy them gifts or spend money when they already knew the relationship was ending.

Uncertainty becomes impossible to ignore

The sense of being torn — wanting to avoid hurting a partner while also feeling unable to keep pretending — reflects a state psychologists call ambivalence.

Ambivalence is not indifference; it is the uncomfortable experience of holding competing motivations and emotions at the same time. Many people feel ambivalent long before a relationship ends, even in relationships that look stable from the outside. Research shows that this kind of internal conflict predicts lower satisfaction and greater instability over time.

Valentine’s Day intensifies ambivalence because it transforms private uncertainty into public signalling. Participating in the holiday sends a message that a relationship is intact and future-oriented. Dinner reservations, office flower deliveries and social media posts all carry symbolic weight.

Social comparison can add fuel to the fire. Valentine’s Day makes other people’s relationships unusually visible, often in idealized form. Couples appear everywhere — online and offline — celebrating love with carefully curated gestures. Decades of relationship research show that commitment is shaped not only by how satisfying a relationship is, but by how it compares to expectations and perceived alternatives.

When Valentine’s Day raises the bar for what love is supposed to look like, a relationship already marked by ambivalence can suddenly feel inadequate by contrast.

Not everyone experiences this pressure in the same way. Research shows that people who are uncomfortable with emotional closeness or public displays of romance often find Valentine’s Day especially stressful, which can amplify dissatisfaction and make withdrawal more likely.

Valentine’s Day rarely ends relationships on its own, of course. But it can make months of uncertainty suddenly very real, turning private doubts into decisions that feel urgent and unavoidable.

The Conversation

Emily Impett receives funding from the Social Sciences and Humanities Research Council of Canada.

ref. When Valentine’s Day forces a relationship reckoning – https://theconversation.com/when-valentines-day-forces-a-relationship-reckoning-274898

What to do if someone’s choking: Evidence says begin with back blows

Source: The Conversation – Canada – By Cody Dunne, Emergency Medicine Physician and PhD Candidate, University of Calgary

Eating is a social event. Whether it’s a night out with friends or an evening at home enjoying family dinner, conversation goes well with food. But what if, in the middle of laughter and big bites, someone suddenly began to choke? Would you know what to do?

Choking is a life-threatening emergency that requires immediate recognition and action to prevent rapid loss of consciousness, respiratory arrest and death. The actions of bystanders are often a major factor in the outcome of a choking incident. If the airway obstruction is not cleared before paramedics arrive, the risk of death is 42 per cent higher than if bystanders successfully remove it.

While choking can happen to anyone at any time, certain people are at higher risk, including people with neurological conditions that affect swallowing or chewing (such as dementia, stroke or Parkinson’s disease), people intoxicated by alcohol, drugs or medications or young children with small objects.

Despite choking being an emergency, until recently there has been limited high-quality evidence to guide bystanders on the most effective way to help. Techniques like abdominal thrusts (formerly known as the Heimlich maneuver), back blows and chest compressions or thrusts have existed since the mid-1900s but, until recently, recommendations were largely based on case reports rather than rigorous scientific data. This evidence gap is dangerous.

Bystander response is the primary driver of a choking person’s outcome, so ensuring people know the safest and most effective way to care for a choking person can save lives.

Back blows outperform abdominal thrusts and chest thrusts

Our research team — a collaboration of Canadian researchers, physicians and paramedics — investigated a large cohort of choking patients in the province of Alberta and looked at the effectiveness and safety of different choking techniques.

We found that back blows cleared the obstruction in 72 per cent of cases, superior to both abdominal thrusts (59 per cent) and chest thrusts (27 per cent). Survival to hospital discharge was also highest among those who initially received back blows (97.8 per cent) even after accounting for other important factors such as the patient’s age, sex and the type of obstruction.

Further, back blows caused no injuries, unlike abdominal thrusts and chest thrusts, which resulted in injury to the lungs, heart, liver, and ribs.

New American Heart Association guidelines

For the first time since 2010, the American Heart Association (AHA) updated its guidelines on how people should care for someone who is choking. Due to the AHA closely collaborating with the Heart and Stroke Foundation of Canada, these changes will impact first aid training across North America.

In the updated guidelines, our Canadian study was cited to inform this critical change, and was the only study directly comparing different choking techniques.

Previously, abdominal thrusts were recommended largely because they were reported more often in case descriptions, despite a known risk of serious injury. The updated guidelines now reflect the best available evidence.

So, how should you respond when you see a choking person?

If an adult or child can still cough, cry or speak clearly, then they are still able to clear the obstruction themselves. Get them to lean forward while encouraging them to cough forcefully.

If the person goes quiet, cannot speak or cry, or can only weakly cough, you want to start with five strong back blows first. With the person bent forward at their hips, deliver firm glancing blows between their shoulder blades using the heel of your hand up to five times.

If the obstruction does not clear, switch to abdominal thrusts. Continue alternating five back blows and five abdominal thrusts until the obstruction is cleared or the person becomes unconscious. Our study, along with others, showed that between 11 per cent and 49 per cent of choking persons will need more than one technique to successfully clear the obstruction.

Special circumstances to consider

Call 9-1-1 early. Get a bystander to call while you do back blows or place your phone on speaker if you are by yourself.

For children, kneel to their height to deliver back blows and abdominal thrusts effectively.

For infants who cannot stand, you can hold them in your arms. If the infant is still crying or coughing loudly, hold them with their head down supported by your arms. Then, if the obstruction doesn’t clear and they become quiet, you should begin with back blows followed by chest compressions, alternating until the obstruction clears.

If the person becomes unresponsive, assist them to the ground and start CPR with chest compressions. Each time you attempt to give rescue breaths, look for the object by opening the mouth and remove the object only if clearly visible.

Suction-based device

Recently, suction-based devices, such as LifeVac©, have been marketed as an alternative when other choking treatments fail, gaining attention on social media platforms like Facebook and TikTok. These devices create negative pressure in the upper airway to suction out an obstruction, in contrast to traditional techniques like back blows and abdominal thrusts that generate pressure from below.

Our research team has documented a considerable number of successful cases using these devices, with few injuries associated. Two trials in mannequins also found LifeVac© to be more effective at relieving simulation airway obstructions compared to abdominal thrusts.

While this early data is promising, major resuscitation organizations, like the AHA, have yet to make a conclusive recommendation on these devices yet – concerned that a bystander obtaining and using these devices may delay other lifesaving techniques. Still, this is an exciting field of research and larger, comparative studies will hopefully be conducted soon.

Time to get trained

People who know how to respond to choking emergencies can save a life in highly time-sensitive situations. Over the past two decades, simplified public CPR training has played a significant role in dramatically reducing deaths from cardiac arrest. Choking response has not benefited from similar public education campaigns.

Given immediate bystander response is the best chance the choking person has for survival, prioritization of mass public training in simple, evidence-based techniques such as back blows, may significantly improve choking survival.

The Conversation

Cody Dunne receives funding from the Canadian Institutes of Health Research (Grant # 202410MFE-531150-95777) and the Canadian Association of Emergency Physicians’ Junior Investigator Grant.

Andrew McRae receives funding from the Canadian Institutes of Health Research and Roche Diagnostics Canada.

Khara Sauro receives funding from the Canadian Cancer Society and CIHR.

ref. What to do if someone’s choking: Evidence says begin with back blows – https://theconversation.com/what-to-do-if-someones-choking-evidence-says-begin-with-back-blows-273903

La guerre de l’énergie a déjà commencé en Ukraine : pourquoi l’Europe a tout intérêt à développer le stockage thermique

Source: The Conversation – France (in French) – By Boris Kosoy, Directeur de l’Institut du froid, des cryotechnologies et de l’écoénergétique à l’Université nationale technologique, Université nationale technologique d’Odessa

La guerre en Ukraine rappelle la vulnérabilité des infrastructures énergétiques, qui peuvent alors se muer en cibles militaires, pourtant proscrites en tant que telles par le droit des conflits armés : terminaux gaziers, centrales nucléaires, lignes à haute tension… Toutefois, des solutions existent pour rendre notre système énergétique plus résilient, par exemple celles fondées sur le stockage de chaleur plutôt que le simple transport d’électricité ou de gaz. Ce domaine demeure malheureusement, à l’heure actuelle, un impensé des politiques de transition énergétique.

Lorsque la Russie a entrepris de frapper systématiquement les infrastructures énergétiques ukrainiennes, des millions de personnes ont été brutalement plongées dans l’obscurité au cœur de l’hiver. Des postes électriques ont explosé, des transformateurs ont brûlé, les systèmes de chauffage se sont arrêtés, laissant des communautés entières sans défense. Ces attaques allaient bien au-delà de la destruction matérielle : elles révélaient un danger longtemps ignoré en Europe, celui d’une énergie désormais militarisable.

Pendant des décennies, les débats européens sur la sécurité énergétique ont porté sur les marchés, l’approvisionnement en combustibles et la décarbonation. Or la guerre en Ukraine a mis en lumière une vulnérabilité que ni les stocks stratégiques ni les mécanismes de régulation des prix ne peuvent corriger : la fragilité physique du réseau électrique.

À mesure que les systèmes deviennent plus numériques, plus interconnectés et plus essentiels à tous les aspects de la vie quotidienne, ils sont de plus en plus exposés aux cyberattaques, mais également aux missiles, aux sabotages et aux phénomènes climatiques extrêmes.

Cette nouvelle réalité impose une question clé. Lorsque les infrastructures électriques deviennent une cible militaire stratégique, comment renforcer la résilience énergétique d’un État ?

Comment l’énergie est devenue un champ de bataille

La guerre en Ukraine illustre de manière directe comment les conflits contemporains visent les fondements mêmes du fonctionnement d’un pays. Les frappes russes ont ciblé les centrales électriques, les corridors à haute tension, les postes de transformation, avec un objectif clair : déstabiliser l’ensemble de l’appareil d’État en perturbant l’alimentation énergétique.

De grandes centrales thermiques ont été délibérément mises à l’arrêt pour isoler des régions entières. Les installations hydrauliques du Dniepr ont également été frappées, créant des risques d’inondations massives et de coupures prolongées. Même les lignes d’alimentation des centrales nucléaires – jusqu’ici considérées comme intouchables – ont été visées à plusieurs reprises.

Ces attaques s’inscrivent dans une stratégie cohérente. En faisant tomber l’électricité, on fait tomber des services essentiels : les hôpitaux basculent sur des groupes électrogènes à l’autonomie limitée, les stations de pompage – qui permettent l’approvisionnement en eau potable – cessent de fonctionner, les télécommunications s’interrompent, les processus industriels se figent…

Les villes retrouvent soudain leur forme antérieure à l’ère électrique. L’électricité devient alors un levier militaire à part entière.




À lire aussi :
Les attaques russes contre les installations énergétiques ukrainiennes sont-elles licites au regard du droit international humanitaire ?


Une Europe vulnérable face à des réseaux vieillissants

Ce scénario ne concerne pas seulement le territoire ukrainien. L’Europe possède des réseaux électriques très centralisés, hautement numérisés et déjà à des niveaux de charge élevés, avec des marges de manœuvre physiques et opérationnelles limitées.

Même en l’absence de conflit armé, ces réseaux sont exposés à une combinaison de risques : cyberattaques, actes de sabotage, phénomènes climatiques extrêmes, montée en puissance de l’électrification et dépendance accrue aux technologies numériques.

Les vulnérabilités européennes ressemblent à celles de l’Ukraine, mais leur origine est différente. En Ukraine, les vulnérabilités du système énergétique résultent à la fois d’un héritage de réseaux centralisés, d’un sous-investissement prolongé et de leur exploitation délibérée comme cibles militaires. En Europe de l’Ouest, elles proviennent principalement de choix de conception effectués en temps de paix.

Une grande partie des infrastructures européennes a été construite dans les années 1970, pendant une période où le risque géopolitique se résumait aux chocs pétroliers. Les grands actifs centralisés – centrales nucléaires françaises, terminaux GNL allemands, nœuds de transport d’électricité – ont d’abord été conçus pour être efficients, dans une logique d’optimisation économique et de fonctionnement en régime normal. Pourtant, une attaque ou un incident local peut entraîner des effets en cascade et en faire des points de défaillance majeurs.

La numérisation, tout en améliorant la gestion du réseau – par exemple grâce aux compteurs communicants qui permettent une meilleure visibilité des consommations, ou aux centres de pilotage du système électrique (ou dispatching) qui ajustent en temps réel l’équilibre entre production et demande – élargit le champ des menaces. Un simple piratage peut perturber le fonctionnement d’un poste électrique ou désorganiser la conduite du réseau, sans qu’aucune charge explosive ne soit déclenchée. Le changement climatique multiplie en outre les stress sur le réseau (par exemple, risque d’incendie ou de rupture du fait de la surchauffe), en particulier en Europe centrale et orientale.

Face à cela, l’Europe souffre de déficits structurels. L’Union européenne a développé des règles sectorielles pour le marché de l’électricité, la sécurité d’approvisionnement et, séparément, la cybersécurité. En revanche, elle ne s’est pas dotée d’un cadre transversal dédié à la résilience matérielle et opérationnelle des réseaux en situation de crise.

Elle ne dispose pas non plus d’une stratégie réellement coordonnée pour déployer des solutions de secours décentralisées (par exemple des micro-réseaux capables de fonctionner en « îlotage », des capacités locales de stockage d’énergie ou de chaleur, etc.), au-delà des réponses d’urgence comme le recours ponctuel à des groupes électrogènes. Enfin, l’Europe ne pratique que rarement des tests de résistance coordonnés (« stress tests », c’est-à-dire des exercices de crise et scénarios d’incident éprouvés de manière organisée). Faute de pilotage clair au niveau de l’UE, ce sujet demeure un impensé des politiques de transition énergétique.

Pourtant, garantir la stabilité du réseau électrique revient à garantir la continuité des industries et des services publics, de santé, mais aussi celle de la démocratie. La résilience énergétique est un élément central de la souveraineté d’un État.




À lire aussi :
Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique


Le stockage thermique, levier de résilience énergétique

Le système énergétique européen est donc en transition, exposé à des menaces hybrides et engagé dans un mouvement de décentralisation, par exemple, avec la production décentralisée d’électricité photovoltaïque. Dans ce contexte, l’Europe ne doit pas seulement renforcer la résilience de son réseau électrique, mais également diversifier ses sources d’énergie et surtout ses modes de stockage de l’énergie.

Le stockage thermique (on parle de technologies TES, pour Thermal Energy Storage) désigne les moyens permettant d’accumuler un excès de production de chaleur pour la restituer plus tard, en fonction de la demande. Or, 50 % de la consommation d’énergie finale en Europe est utilisée pour le chauffage et le refroidissement. Stocker l’énergie directement sous forme de chaleur de façon décentralisée, au plus proche des consommateurs finaux, permet de répondre à une large partie des besoins sans passer par le réseau électrique.

Ces dispositifs, particulièrement robustes, sont déjà matures au plan technologique et ne nécessitent pas de terres rares, contrairement aux batteries électriques. Les TES offrent ainsi, pour des usages thermiques, une solution complémentaire aux batteries électriques. En ce sens, elles renforcent aussi indirectement la résilience du réseau électrique. De cette façon, ils peuvent réduire les pics de demande électrique, aussi bien en fonctionnement normal qu’en situation perturbée.

Trois grandes familles de TES existent :

  • Le stockage sensible (nommé d’après la « chaleur sensible », liée à l’augmentation de la température de fluides ou de matériaux – eau, céramique ou sels fondus pour des hautes températures), mais sans changement de phase (solide/liquide ou liquide/gaz). Il s’agit d’une solution simple, durable et à coûts maîtrisés.

  • Le stockage latent (d’après la « chaleur latente », en lien avec l’énergie absorbée ou libérée lors d’un changement de phase) est fondé sur des matériaux à changement de phase. Ces derniers offrent une forte densité énergétique, pour des variations de températures moindres.

  • Le stockage thermochimique, enfin, est fondé sur des réactions réversibles permettant un stockage longue durée avec un rendement élevé et sans pertes thermiques. C’est celui qui propose la densité énergétique la plus importante.

Les solutions fondées sur le stockage sensible sont aujourd’hui largement utilisées dans l’industrie alors que le stockage latent n’en est qu’aux prémices de la commercialisation. Les applications du stockage thermochimique, enfin, n’en sont encore qu’à la preuve de concept.

Ces technologies présentent des caractéristiques intéressantes : une longue durée de vie (plus de vingt à trente ans), une bonne résistance au cyclage thermique (c’est-à-dire, l’alternance de phases de charge et de décharge), l’absence de matériaux critiques, et enfin une sécurité d’utilisation intrinsèque.

Leur conception physique relativement simple ainsi que leur compatibilité avec les réseaux de chaleur, les procédés industriels ou encore les micro-réseaux (ou smart grids), intégrant des énergies renouvelables, renforcent encore leur intérêt.

Il est urgent de développer des écosystèmes de recherche transnationaux, y compris avec l’Ukraine, qui permettront de développer de nouvelles solutions TES innovantes. Le projet franco-ukrainien Nadiya, auquel nous participons, illustre cette dynamique. Ce projet réunit l’Université nationale de technologie d’Odessa, l’Université de Pau et des Pays de l’Adour et l’Insa Lyon afin de développer des systèmes de stockage d’énergie basés sur des matériaux à changement de phase avancés.

Dans ce projet, les chercheurs ukrainiens apportent des données empiriques uniques sur le fonctionnement des infrastructures sous attaque et les besoins thermiques en situation de crise. Ces enseignements sont précieux pour l’Europe, confrontée elle aussi à un risque énergétique accru.




À lire aussi :
Le stockage massif d’électricité, brique indispensable de la flexibilité pour atteindre la neutralité carbone


De l’Ukraine à l’Europe, des solutions à développer

Du point de vue technique, le stockage thermique ne résoudra pas tout, mais sa robustesse, sa durée de vie et son indépendance vis-à-vis des matériaux critiques en font un levier important d’autonomie et de stabilité.

L’expérience ukrainienne le montre : même lorsque l’électricité revenait par intermittence, de nombreuses installations industrielles devaient interrompre leur production, faute de chaleur. Dissocier la stabilité thermique de la stabilité électrique favorise ainsi la résilience énergétique globale.

Pourtant, l’Europe peine encore à intégrer le TES dans ses stratégies nationales. Son déploiement souffre de normes incomplètes, d’un manque de projets pilotes et d’une reconnaissance insuffisante au niveau politique. C’est regrettable.

En pratique, il conviendrait de renforcer la planification régionale de la résilience et de pratiquer régulièrement des tests de résistance (« stress tests ») et de sensibiliser davantage le grand public. À une échelle institutionnelle, la coopération entre les ministères nationaux de l’énergie et de la défense mériterait d’être renforcée.

Le Vieux Continent est aujourd’hui confronté à un choix déterminant : continuer à considérer l’énergie comme une simple marchandise, ou la reconnaître comme l’un des piliers fondamentaux de sa sécurité collective, au même titre que la défense ou la santé publique.




À lire aussi :
La thermodynamique, cette science méconnue dont dépend la transition écologique


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La guerre de l’énergie a déjà commencé en Ukraine : pourquoi l’Europe a tout intérêt à développer le stockage thermique – https://theconversation.com/la-guerre-de-lenergie-a-deja-commence-en-ukraine-pourquoi-leurope-a-tout-interet-a-developper-le-stockage-thermique-274321

Contre le stress et le doomscrolling, les atouts de la lecture approfondie

Source: The Conversation – France (in French) – By JT Torres, Director of the Harte Center for Teaching and Learning, Washington and Lee University

Alors que les réseaux sociaux nous incitent à faire défiler images et textes en continu sur nos smartphones, comment ne pas perdre nos capacités de concentration ? Pratiquer la lecture approfondie peut être un bon remède qui, en plus d’aider à contrer le piège de la désinformation, offre un rempart au stress.


L’Américain moyen consulte son téléphone plus de 140 fois par jour, pour une moyenne de 4,5 heures d’utilisation quotidienne, et 57 % des personnes admettent être « accros » à leur téléphone. Les entreprises du secteur des technologies, les influenceurs et autres créateurs de contenu se disputent toute cette attention, ce qui a favorisé la montée de la désinformation.

Compte tenu de ce paysage informationnel complexe, il est plus important et nécessaire que jamais de posséder de solides compétences en lecture critique.

Malheureusement, les aptitudes en lecture restent un sujet de préoccupation majeur. Les performances en compréhension écrite déclinent. La majorité des parents de la génération Z ne lisent pas à voix haute à leurs jeunes enfants, car ils considèrent cela comme une corvée. De nombreux étudiants ne parviennent pas à aller au bout de la lecture d’un livre.




À lire aussi :
Lutter contre le « doomscrolling » : les stratégies des adolescents


Avec leur incitation infinie au scrolling et les facilités de partage de contenu qu’elles offrent, les plateformes de réseaux sociaux sont conçues pour encourager un engagement passif que les gens utilisent pour échapper à l’ennui et au stress.

En tant que chercheurs en sciences cognitives et experts des questions autour de la maîtrise de l’écrit, nous étudions le traitement de l’information par la lecture. Sur la base de nos travaux, nous pensons que la lecture approfondie peut être un moyen efficace de lutter contre la désinformation et de réduire le stress et la solitude. Il peut être difficile d’aller au-delà d’une lecture rapide, mais il existe des stratégies pour renforcer ses compétences en lecture.

La lecture approfondie contre l’anxiété du défilement sans fin

Les gens utilisent les smartphones et les réseaux sociaux pour diverses raisons, notamment pour soulager leur ennui, attirer les regards, nouer des liens et partager des informations. La quantité infinie d’informations disponibles à portée de clic peut entraîner une surcharge qui peut nuire à votre capacité à être attentif et prendre des décisions. Les recherches en sciences cognitives aident à expliquer comment le défilement, ou « scrolling », entraîne votre cerveau à penser de manière passive.

Pour maintenir l’intérêt des utilisateurs, les algorithmes des réseaux sociaux leur proposent des contenus similaires à ceux qu’ils ont déjà consultés, renforçant ainsi leurs convictions. Une exposition répétée à une information augmente sa crédibilité, en particulier si différentes sources la répètent, un effet connu sous le nom de « vérité illusoire ».

La lecture approfondie, quant à elle, désigne le processus intentionnel qui consiste à aborder l’information de manière critique, analytique et empathique. Elle implique de faire des déductions, d’établir des liens, d’adopter différents points de vue et de remettre en question les interprétations possibles.

La lecture approfondie demande des efforts. Elle peut susciter des sentiments négatifs tels que l’irritation ou la confusion, et elle peut très souvent être désagréable. La question importante est donc la suivante : pourquoi quelqu’un choisirait-il l’effort d’une lecture approfondie plutôt que de simplement faire défiler et survoler le texte ?

Encourager l’effort mental

Le défilement inconscient peut avoir des conséquences inattendues. L’utilisation des smartphones et des réseaux sociaux est associée à une augmentation de l’ennui et de la solitude. Et le doomscrolling est lié à des niveaux plus élevés d’anxiété existentielle et de misanthropie.

En revanche, l’attention et l’effort, bien qu’épuisants, peuvent renforcer votre sentiment d’utilité et vos liens sociaux. Les gens sont également motivés quand ils réalisent des tâches qui les aident à poursuivre leurs objectifs personnels, en particulier lorsque ces tâches sont reconnues par les autres. Pour ces raisons, le partage de livres peut être un outil pour promouvoir la lecture approfondie.

On peut prendre l’exemple de l’enseignant qui guide les élèves à travers des textes plus longs, comme des romans, en animant des discussions sur ces lectures afin d’en renforcer la compréhension et l’interprétation. Alors qu’on débat de cette pratique actuelle consistant à donner des extraits plutôt que des livres entiers à lire à l’école, les données suggèrent que la lecture soutenue dans un contexte social peut favoriser le plaisir de lire tout au long de la vie.

Dans une optique de création de liens, les réseaux sociaux peuvent en réalité être utilisés de manière constructive. Ainsi, BookTok est une communauté en ligne populaire qui rassemble des personnes utilisant TikTok pour discuter et recommander des livres. Les fans qui publient des analyses approfondies de K-Pop Demon Hunters et d’autres films ou séries démontrent que l’analyse approfondie a toujours sa place dans la file de posts sans fin sur les réseaux sociaux.

Ralentir pour prendre le temps de lire

Vous pouvez initier un certain nombre de démarches pour interagir de manière significative avec le flux constant d’informations auquel vous êtes confronté. Bien sûr, ce processus peut être éprouvant, et les gens disposent d’une quantité limitée d’énergie et d’attention à consacrer à cette tâche. Il est important à la fois de reconnaître ces limites et d’être attentif à la manière de les utiliser.

Le simple fait d’être conscient de la manière dont les pratiques de lecture numérique façonnent votre cerveau peut encourager de nouvelles postures et habitudes dans votre consommation d’informations. Rien que de prendre une pause peut réduire la réceptivité à la désinformation. Prendre quelques secondes de plus pour examiner de près des informations peut suffire à contrer la « vérité illusoire », ce qui signifie que ralentir délibérément, même de façon légère, peut être bénéfique.

Lire en profondeur signifie être capable de choisir et d’adapter sa vitesse, en ralentissant si nécessaire pour s’attaquer aux passages difficiles, savourer une prose saisissante, évaluer de manière critique les informations et réfléchir à la signification d’un texte. Il s’agit d’entrer en dialogue avec le texte plutôt que de simplement glaner des informations.

Être conscient de ces processus ne signifie pas que vous ne vous laisserez jamais aller à faire défiler les mauvaises nouvelles à la fin d’une longue journée. Mais cela implique de garder en tête la nécessité de savoir plus souvent se concentrer sur un texte et de s’ouvrir à différents points de vue.

Vous pouvez commencer modestement, par exemple avec des poèmes, des nouvelles ou des essais, avant de passer à des textes plus longs. Faites équipe avec un ami ou un membre de votre famille et fixez-vous comme objectif de lire un roman ou un ouvrage documentaire dans son intégralité. Atteignez cet objectif par petites étapes, par exemple en lisant un chapitre par jour et en discutant de ce que vous avez lu avec votre partenaire de lecture. La pratique de la lecture approfondie, comme la lecture de romans, peut élargir vos horizons et vous ouvrir à de nouvelles idées que vous pouvez explorer dans des conversations avec d’autres, en personne ou même sur TikTok.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Contre le stress et le doomscrolling, les atouts de la lecture approfondie – https://theconversation.com/contre-le-stress-et-le-doomscrolling-les-atouts-de-la-lecture-approfondie-274152

Des grains de sable prouvent que ce sont les humains – et non les glaciers – qui ont transporté les pierres de Stonehenge

Source: The Conversation – France in French (2) – By Anthony Clarke, Research Associate, School of Earth and Planetary Sciences, Curtin University

L’hypothèse selon laquelle les pierres utilisées ont été transportées par d’immenses glaciers qui recouvraient autrefois la Grande-Bretagne ne tient pas l’épreuve des faits. Elias Kipfer/Unsplash, CC BY

Stonehenge n’a pas été façonné par les glaciers. Grâce à l’analyse fine des grains de sable, une étude révèle que les pierres les plus lointaines ont été choisies avec soin et acheminées par nos ancêtres, ajoutant une pièce décisive à l’enquête sur les origines du monument.


Demandez comment Stonehenge a été construit et l’on vous parlera de traîneaux, de cordages, de bateaux et d’une impressionnante détermination humaine pour acheminer des pierres depuis toute la Grande-Bretagne jusqu’à la plaine de Salisbury, dans le sud-ouest de l’Angleterre. D’autres évoqueront des géants, des sorciers ou même le concours d’extraterrestres pour expliquer le transport de ces blocs, dont certains proviennent du Pays de Galles et d’Écosse.

Mais une autre hypothèse existe : et si la nature elle-même avait assuré l’essentiel du travail ? Selon cette piste, d’immenses glaciers qui recouvraient autrefois la Grande-Bretagne auraient transporté les « pierres bleues » et la « pierre d’Autel » jusqu’au sud de l’Angleterre sous forme de blocs erratiques, des roches déplacées par la glace, puis abandonnées sur la plaine de Salisbury, prêtes à être utilisées par les bâtisseurs de Stonehenge.

Cette hypothèse, connue sous le nom de théorie du transport glaciaire, revient régulièrement dans des documentaires et des discussions en ligne. Mais elle n’avait encore jamais été mise à l’épreuve à l’aide des techniques géologiques modernes.

Notre nouvelle étude, publiée le 21 janvier dans Communications Earth and Environment, apporte pour la première fois des preuves claires montrant que des matériaux glaciaires n’ont jamais atteint cette région. Elle démontre ainsi que les pierres ne sont pas arrivées par un transport naturel lié aux glaces.

Si des travaux antérieurs avaient déjà jeté le doute sur la théorie du transport glaciaire, notre étude va plus loin en mobilisant des techniques de pointe d’empreinte minéralogique pour retracer l’origine réelle des pierres.

Une empreinte minéralogique sans équivoque

Les vastes calottes glaciaires laissent derrière elles un paysage chaotique, fait d’amas de roches, de substrats striés et de formes de relief sculptées. Or, aux abords de Stonehenge, ces indices caractéristiques sont soit absents, soit ambigus. Et comme l’extension méridionale exacte des calottes glaciaires demeure incertaine, l’hypothèse d’un transport glaciaire reste sujette à controverse.

Dès lors, en l’absence de traces massives et évidentes, peut-on chercher des indices plus discrets, à une échelle bien plus fine ?

Si des glaciers avaient acheminé les pierres depuis le Pays de Galles ou l’Écosse, ils auraient aussi disséminé en chemin des millions de grains minéraux microscopiques, comme le zircon et l’apatite, issus de ces régions.

Lors de leur formation, ces deux minéraux piègent de faibles quantités d’uranium radioactif, qui se transforme progressivement en plomb à un rythme connu. En mesurant les proportions respectives de ces éléments grâce à une méthode appelée datation uranium-plomb (U–Pb), il est possible de déterminer l’âge de chaque grain de zircon ou d’apatite.

Comme les roches de Grande-Bretagne présentent des âges très différents d’une région sur l’autre, l’âge d’un minéral peut renseigner sur son origine. Autrement dit, si des glaciers avaient transporté des pierres jusqu’à Stonehenge, les cours d’eau de la plaine de Salisbury – qui collectent des zircons et des apatites sur un vaste territoire – devraient encore conserver une empreinte minéralogique nette de ce trajet.

À la recherche d’indices minuscules

Pour le vérifier, nous sommes allés sur le terrain et avons prélevé du sable dans les rivières qui entourent Stonehenge. Et les résultats étaient riches d’enseignements.

Malgré l’analyse de plus de sept cents grains de zircon et d’apatite, nous n’en avons trouvé pratiquement aucun d’un âge minéralogique correspondant aux sources galloises des « pierres bleues » ni à l’origine écossaise de la « pierre d’Autel ».

Cependant, l’immense majorité se concentre dans une fourchette étroite, comprise entre 1,7 et 1,1 milliard d’années. De façon éclairante, les âges des zircons des rivières de Salisbury correspondent à ceux de la Formation de Thanet, une vaste nappe de sables peu cimentés qui recouvrait une grande partie du sud de l’Angleterre il y a plusieurs millions d’années, avant d’être érodée.

Cela signifie que les zircons présents aujourd’hui dans les sables fluviaux sont les vestiges de ces anciennes couches de roches sédimentaires, et non des apports récents déposés par les glaciers lors de la dernière période glaciaire, entre 26 000 et 20 000 ans avant notre ère.

L’apatite raconte une histoire différente. Tous les grains datent d’environ 60 millions d’années, à une époque où le sud de l’Angleterre était une mer subtropicale peu profonde. Cet âge ne correspond à aucune roche-source possible en Grande-Bretagne.

En réalité, l’âge des apatites reflète le métamorphisme et le soulèvement provoqués par la formation de montagnes lointaines dans les Alpes européennes, qui ont fait circuler des fluides à travers le calcaire et « réinitialisé » l’horloge uranium-plomb de l’apatite. Autrement dit, la chaleur et les transformations chimiques ont effacé la signature radioactive antérieure du minéral et remis son compteur à zéro.

Comme le zircon, l’apatite n’a pas été apportée par les glaciers : elle est locale et repose sur la plaine de Salisbury depuis des dizaines de millions d’années.

Un nouvel éclairage sur l’histoire de Stonehenge

Stonehenge se situe au carrefour du mythe, de l’ingénierie ancienne et de la géologie sur des temps profonds.

L’étude des âges des grains microscopiques dans les sables fluviaux apporte aujourd’hui une nouvelle pièce à ce puzzle. Elle fournit des preuves supplémentaires que les pierres les plus exotiques du monument n’y sont pas arrivées par hasard, mais ont été choisies et transportées délibérément.

The Conversation

Anthony Clarke a reçu des financements de l’Australian Research Council.

Chris Kirkland ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des grains de sable prouvent que ce sont les humains – et non les glaciers – qui ont transporté les pierres de Stonehenge – https://theconversation.com/des-grains-de-sable-prouvent-que-ce-sont-les-humains-et-non-les-glaciers-qui-ont-transporte-les-pierres-de-stonehenge-274203