There are few sports more exciting than playoff baseball, but behind every pitch there is also a fascinating story of physics. From gravity to spin, the science shaping the game can be just as compelling as the action on the field.
Physicists consider the flight of a baseball as an example of projectile motion. The trajectory of the ball depends on several forces: the force of gravity (pulling the ball downwards), the drag force (slowing the ball as it moves through the air), and the Magnus force (which causes the ball to curve if it spins as it travels).
Why splitters are so hard to hit
So why is the splitter so difficult to hit? Start with speed. The average speed of Gausman’s fastball is 95 miles per hour (or 42.5 meters a second). Since the distance from the pitcher’s mound to home plate is 18.4 meters, this means that it takes 430 milliseconds, or less than half a second, for Gausman’s fastball to reach the batter.
In contrast, the splitter, which travels at an average speed of 85 mph (or 38.0 m/s), takes 490 milliseconds. That 60 millisecond-difference may seem small, but it can be enough to separate a strike from a base hit.
For context, a typical swing for a major league batter takes approximately 150 milliseconds. This includes time for the batter’s eye to form a picture of the ball leaving the pitcher’s hand, for their brain to process this information and send signals to the muscles in their arms, legs and torso, and for their muscles to respond and swing the bat.
This means a batter has roughly a quarter of a second to judge the trajectory of a pitch and decide whether to swing. Considering that it takes approximately 100 milliseconds for a blink of the human eye, it’s remarkable that batters can hit any major league pitch at all.
The importance of the drop
The second secret to the splitter is the drop. All baseball pitches drop as they travel towards home plate due to the force of gravity, which causes a baseball (or any object in freefall) to accelerate downwards.
If there were no other forces acting on the ball, this would cause Gausman’s fastball to drop by about 92 centimetres on the way to home plate, and his splitter to drop by approximately 115 centimetres.
In practice, however, there is another important force that acts on the ball to oppose the effect of gravity — the Magnus force. The Magnus force arises from the rotation or spin of an object (like a baseball) as it passes through a fluid (like air).
The ball’s rotation makes air move faster over one side than the other. On the side spinning in the same direction as the airflow, air speed increases; on the opposite side, it slows down. This difference in air speed creates a pressure imbalance, generating a force that acts perpendicular to the ball’s path.
This is an example of Bernoulli’s Principle, the same phenomenon that generates lift as air passes around the wing of an airplane.
In the case of a fastball, the pitcher creates a strong backspin by pulling back with their index and middle fingers as they release the ball. This rotation results in an upwards force, which causes the ball to drop far less than it would under the effect of gravity alone. The faster the rotation, the stronger this lift force becomes.
Gausman’s signature pitch
Gausman’s fastball typically drops 25 to 30 centimetres on the way to home plate — less than one third of the drop experienced by a “dead ball” without spin.
On the splitter, he changes his grip to dramatically reduce the amount of backspin, weakening the Magnus force and allowing the ball to fall much farther, about 50 to 75 centimetres, before it hits the plate. The result is a pitch that doesn’t reach the batter when or where they expect it to be.
Kevin Gausman explains the art of the splitter. (Toronto Blue Jays)
As the Blue Jays edge closer to third World Series title — their first in 32 years — Gausman’s splitter offers an example of how physics can shape performance in elite sport. Understanding the science behind the pitch offers a new way to appreciate the game.
Patrick Clancy does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – Canada – By Brendon Larson, Professor, School of Environment, Resources and Sustainability, University of Waterloo
People in Mexico and elsewhere will soon be marking the annual Día de Muertos (Day of the Dead) on Nov. 2. Many will celebrate the day with the quintessential Mexican beverage, tequila; perhaps in the form of a slushy margarita or a shot.
Tequila comes from a single species, blue agave. Agaves are fleshy plants of arid lands that accumulate sugars over several years to power their sole blooming. To produce tequila, the leaves and flower stalk are removed, the agave hearts (called piñas) roasted, and their sugars fermented and distilled.
Tequila was intentionally branded for a global market in the late 19th century, and it’s become an industrial product. There are vast blue-gray monocultures of it across the state of Jalisco, centred around the namesake town of Tequila.
Yet, in the interest of ethical consumption, we must consider the environmental impacts of industrial tequila production. There are several issues here. In Jalisco, the region’s ecosystems are being destroyed and replaced by a uniform crop that is prone to pest outbreaks.
In addition, despite the marketing, most commercial tequilas taste alike given their uniform source, standard yeast and mechanical production, not to mention added sugars and artificial flavours.
Mezcal-making derives from a relationship between Indigenous Peoples and their landscape that goes back millennia. They learned that agave fibers have many uses, for architecture, medicines and textiles. They drank the sweet, non-alcoholic sap, known as aguamiel and realized it could be fermented.
The distillation appears to be a more recent, colonial addition to the process. The resulting spirit has vital cultural meaning, not least in festivals such as Día de Muertos, where it honours those who have died and connects people to them.
Traditional production is slow and varied. It distils the diversity of life and the people’s history into a delightful bouquet: not just smoky, as many people think, but floral, fruity, herbal, metallic and so much more.
Is mezcal sustainable?
Many consumers find the narrative of mezcal’s authenticity and sustainability appealing. Its volume is a blip relative to tequila, so surely it must be better for both people and the planet. It’s never simple to assess sustainability, though, and the rapid growth of the industry — with eight per cent more expected annually through 2030 — raises a flag.
Traditional practices have been co-opted, and the same powerful families and multinational brands that drove tequila’s rise grow the main agave used for mezcal, espadín, in large farms of clones.
The spread of commercial farming destroys habitat, specifically the tropical dry forest where many of Mexico’s restricted, native species occur. In San Juan del Río, an Indigenous Zapotec town in the state of Oaxaca, remote sensing has shown an increase in agave cover from six to 22 per cent in 26 years. In addition to soil degradation and loss, these cash crops supplant ones grown for local consumption and strain traditional governance.
From a biodiversity perspective, it’s an open question whether family-scale operations are better given the pressure to expand. Agave and the trees used for firewood for roasting and distilling are interwoven ecological hubs in this dry landscape, along with the bats who visit them for nectar. Overharvesting can lead to ecosystem strain, if not collapse.
A few studies have begun to quantify the broader impacts, reinforcing questions about sustainability. It takes two tobalá plants, which require 10-15 years to mature, to produce one bottle of mezcal. Ten kilograms of both liquid and solid waste are released. Even if firewood is used rather than fuel, its weight may match that of the hearts.
Mezcal production may bring money into communities, but the interface with global markets brings its own issues. For example, mezcal is now controlled under a Denomination of Origin (DO) certification. While this geographic indicator was ostensibly intended to protect small producers, evidence suggests they’re struggling to meet its standards (and cost) while power and profits concentrate elsewhere.
If you are celebrating this Día de Muertos with mezcal, consider buying from a collaborative that still relies on traditional practices: caring for agave and the land by leaving some flowers for the bats, replanting, reducing chemical use and recycling waste. Bear in mind that growing human consumption is at the root of unsustainability, which just adds to the reasons to moderate one’s drinking.
This article was co-authored by Diana Pinzón, a forestry engineer and co-founder of Zinacantan Mezcal and Fondo Agavero Asociación Civil.
Brendon Larson receives funding from the Social Sciences and Humanities Research Council of Canada.
Ronda L. Brulotte has received funding from the U.S. Fulbright Program.
Raymundo Martínez Jiménez does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Écoutez cet article en version audio générée par l’IA.
Sur nos routes, les interactions entre les différents usagers de la route sont souvent une source de frustration, avec en tête d’affiche celles entre automobilistes et cyclistes.
Par exemple, plusieurs automobilistes sont frustrés de voir les vélos traverser une intersection sans s’immobiliser complètement, alors qu’eux-mêmes se voient dans l’obligation de le faire.
Pour beaucoup, ce geste est perçu comme une marque d’indiscipline, voire une double mesure pour les cyclistes. En effet, les cyclistes ne semblent pas encourir de véritable risque à ralentir au passage d’un panneau d’arrêt plutôt qu’à s’y immobiliser.
En comparaison, les automobilistes risquent une amende salée pour conduite dangereuse s’ils brûlent un arrêt.
Alors, faut-il exiger des cyclistes qu’ils respectent les mêmes règles de la route que les automobilistes, ou au contraire, reconnaître que ces règles ne reflètent pas toujours la réalité du vélo en ville ?
En tant que professeur de droit à l’Université d’Ottawa spécialisé dans les questions d’urbanisme, j’ai étudié diverses approches réglementaires adoptées à travers le monde, qui présentent différents avantages et désavantages.
Cet article fait partie de notre série Nos villes d’hier à demain. Le tissu urbain connaît de multiples mutations, avec chacune ses implications culturelles, économiques, sociales et – tout particulièrement en cette année électorale – politiques. Pour éclairer ces divers enjeux, La Conversation invite les chercheuses et chercheurs à aborder l’actualité de nos villes.
L’égalité stricte entre les cyclistes et les conducteurs
Ainsi, peu importe les différences entre une voiture et un vélo, la loi les traite de façon égale. Bien sûr, cette égalité demeure souvent théorique, car l’application des règles varie selon les contextes et les comportements.
L’application uniforme des règles de la route peut sembler juste, mais peut créer une fausse égalité dans les faits.
D’une part, les risques associés aux différents moyens de transport sont incommensurables. Une voiture qui franchit un feu rouge peut causer des blessures graves, voire mortelles. Un cycliste, en revanche, peut difficilement infliger de tels dommages.
L’enjeu des pistes cyclables est au centre de la campagne électorale de Montréal. La Conversation Canada, CC BY
D’autre part, l’efficacité du vélo dépend du maintien de la vitesse. S’arrêter complètement, encore et encore, décourage l’usage du vélo, malgré ses nombreux bénéfices pour la santé, l’environnement et la fluidité du trafic.
Traiter de la même manière deux moyens de transport si différents revient donc à privilégier implicitement l’automobile, un peu comme si l’on imposait les mêmes limitations de vitesse à un piéton et à un camion.
L’arrêt Idaho
Plutôt que de traiter les vélos et les voitures comme étant égaux, certaines juridictions ont opté pour une autre voie. Un exemple notable d’un traitement différent est celui de l’État de l’Idaho.
Il est important de noter que l’arrêt Idaho ne cherche pas à légaliser le chaos sur les routes. En effet, les cyclistes doivent quand même céder la priorité aux voitures qui les précèdent au panneau d’arrêt, ainsi qu’en tout temps aux piétons, et ne peuvent s’engager dans l’intersection que lorsqu’elle est libérée.
L’arrêt Idaho a trois avantages principaux.
Premièrement, la règle reconnaît que les dynamiques du vélo diffèrent fondamentalement de celles de la voiture, et ainsi, que ceux-ci ne peuvent pas être traités de façon équivalente.
Deuxièmement, l’arrêt Idaho permet de décharger les tribunaux et les policiers de contraventions.
Troisièmement, l’efficacité du vélo dépend de la conservation de l’élan. S’arrêter complètement, encore et encore, décourage l’usage du vélo, malgré ses nombreux bénéfices pour la santé, l’environnement et la fluidité du trafic.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Les effets de la réforme
Face à ces deux approches très différentes quant au Code de la route des vélos, on peut se demander laquelle est la plus appropriée.
D’ailleurs, la majorité des usagers de la route, automobilistes comme cyclistes, ne respectent souvent pas les arrêts de façon stricte. Selon une étude menée par la Société de l’assurance automobile du Québec (SAAQ), seulement 35 % des automobilistes font leurs arrêts correctement. Encore selon la SAAQ, seulement 27 % des cyclistes déclarent faire un arrêt complet aux panneaux d’arrêt obligatoires.
Bref, l’adoption de l’arrêt Idaho ne créerait pas le chaos, mais viendrait encadrer une pratique déjà commune, et ce, sans compromettre la sécurité publique, contrairement à certaines inquiétudes. Les cyclistes, qui s’arrêtent rarement complètement en l’absence de circulation, ralentissent toutefois avant de traverser, conscients de leur vulnérabilité.
Un changement de culture
Par ailleurs, l’arrêt Idaho au Québec invite à une réflexion plus large.
Depuis des décennies, nos lois et nos infrastructures routières sont conçues principalement pour les voitures. Plusieurs automobilistes considèrent encore que les cyclistes sont dangereux et adoptent des comportements délinquants.
L’adoption de l’arrêt Idaho ne donne pas un passe-droit aux cyclistes, mais reconnaît leurs réalités, et légitimise le vélo comme mode de transport, avec un code routier adapté à ses risques et à ses bénéfices. Cette réforme, modeste mais symbolique, pourrait s’inscrire dans un ensemble plus vaste de changements qui offriraient aux citoyens une véritable liberté et sécurité pour se déplacer.
Steve Lorteau a reçu des financements du Conseil de recherches en sciences humaines, l’Association du Barreau canadien et les Instituts de recherche en santé du Canada.
The new congressional districts in Texas, and the ones proposed for California, are pervasive upheavals of the relationship between voters and those they elect. Douglas Rissing/iStock/Getty Images Plus
After the U.S. census is conducted every 10 years, each state must redraw its congressional districts to account for any loss or gain of congressional seats and to maintain an equal population in each district.
But in 2025, breaking from standard practice, President Donald Trump has asked Republican states to redraw their districts mid-decade to provide a greater Republican advantage in the upcoming 2026 midterm elections.
As other states join the fray, this battle for control of the U.S. House of Representatives has escalated to what the media has called a “Redistricting War.” In this war, the control of the House may be determined more by how each party is able to redistrict states they control and less by how citizens vote.
The media and politicians focus on which party is winning or losing seats. But are the citizens winning or losing in this conflict?
Changing a resident’s congressional district will sever any existing relationship or understanding of who their current representative is and how to seek help or share policy concerns. This forces residents to navigate unfamiliar political terrain as they figure out their new district, who is running, and what the candidates stand for. This added complexity discourages residents from voting.
Districts being contorted for political purposes makes it more difficult for constituents to know who their representatives are and lowers voter participation in elections. Circlon Tech/Getty Images
Staggering scale of changes
Just how big are the changes already enacted in Texas and proposed in California?
The University of Richmond Spatial Analysis Laboratory, which co-author Kyle Redican directs, has analyzed the impact of the mid-decade redistricting changes. The number of redistricting casualties – residents reassigned to a new congressional district – caused by these mid-decade changes in Texas and California is nearly 20 million. That’s about 6% of the overall U.S. population.
The scale of the changes is staggering: 10.4 million Texas residents, about 36% of the state’s population, and 9.2 million California residents, about 23% of the state’s population, will find themselves in new, unfamiliar congressional districts.
Only one district in Texas, of 38 total districts, and eight districts in California, of 52 total districts, remain untouched, making this a pervasive upheaval, not a surgical adjustment.
Most dramatically, nine districts in California and eight districts in Texas will have more than 50% new residents, fundamentally changing the overall composition of those districts.
The 41st District in California will have 100% new residents, while the 9th District in Texas will have 97% new residents, essentially becoming entirely different constituencies.
Making a change of this size mid-decade, as opposed to once every decade, will be highly disruptive and represent a major tear in the fabric of representative democracy.
Lawmakers picking their voters
So who exactly is being moved? The demographic patterns reveal the calculated nature of these partisan manipulations.
In Texas, Black and Hispanic residents are disproportionately shuffled into new districts compared to white residents.
Minorities constitute 67.1% of Texans who have been moved into a new district, while minorities constitute only 56.4% of Texans who get to remain in their same district. By moving more minorities out of a district and into another reliably Republican district, partisan mapmakers are able to reduce the likely Democratic voter share in that district and swing it to be a Republican-leaning district.
California follows the opposite playbook: White residents are disproportionately moved.
There, 41.2% of those moved into a new district are white, while only 32.7% of those who get to remain in their same district are white. In this case, California is moving likely Republican voters into another reliably Democratic district, which reduces the Republican voter share in the original district and swings it to be a Democratic-leaning district.
In either case, legislators are making deliberate decisions about which residents to move to achieve a political goal.
Yet fundamental to a representative democracy is a simple principle: The people choose their representatives. It’s not that representatives choose their constituents. The founders envisioned the House of Representatives as the people’s house, representing and accountable to the voters.
In the current mid-decade redistricting, the legislators are handpicking their constituencies.
Mocking the fundamental idea
Does the redistricting battle ever end?
If mid-decade redistricting becomes an accepted way to win elections, each time a party wins control of a state legislature and governorship they will have the incentive to redistrict. Each of these future redistrictings will continue to negatively affect citizens’ participation in the representative process and mock the fundamental idea that citizens should choose their representatives.
It’s entirely possible that redistricting could happen every two years – though that is an extreme outcome of this competition.
Texas and California have fired the opening shots in the redistricting arms race. Other states – Missouri, North Carolina and Virginia – are joining the fight, each time diminishing the public trust in our democratic process.
Today, it’s 20 million Americans caught in the crossfire. Tomorrow, it could be 100 million as this conflict spreads from state to state. With tit-for-tat redistricting offsetting gains in seats, who is really winning?
For sure, we know who is losing – the people and representative democracy.
Spatial Analysis Lab intern Ryan Poulsen worked on the block data processing for this story.
The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – Canada – By Nandini Asavari Bharadwaj, Ph.D. Candidate, Learning Sciences Program, Department of Educational & Counselling Psychology, McGill University
A “transformation” is upon us. After a multi-year procession of educational technology products that once promised to shake things up, now it’s AI’s turn.
Prominent AI companies with large language model (LLM) chatbots have “education-focused” products, like ChatGPT Education, Claude for Education and Gemini in Google for Education.
Current conversations on AI in education focus on notions it will upend teaching and learning systems in schools, teacher lesson planning and grading or individualized learning (for example, via personalized student tutoring with chatbots). However, when or whether AI will transform education remains an open question.
In the meantime, it is vital to think about how student engagement with chatbots should make us examine some fundamental assumptions about human learning.
Learning is a social affair
How students view their teachers and their own ability to contemplate thinking (known as metacognition) are tremendously important for learning. These factors need to be considered when we think about learning with chatbots.
The popularity of the Rate My Professors website in Canada, United States and the United Kingdom is a testament to the significance of what students think about teachers.
With AI’s foray into education, students’ conceptions of their AI tutors, teachers and graders will also matter for multiple reasons.
First, learning is a thoroughly social affair. From how a child learns through imitating and modelling others to engaging with or being influenced by peers in the classroom, social interactions matter to how we learn.
With use of chatbots increasing to more than 300 million monthly users, conversational interactions with LLMs also represent a new para-social interaction space for people worldwide.
To develop this idea further, beyond other students or teachers as interaction partners, what we think about learning tools has an influence on how we learn.
Perceived affordances can dictate how we use tools, from utensils to computers. If a learner perceives a chatbot to be adept at generating ideas, then it could influence how they use it (for example, for brainstorming versus editing).
New ‘social entity’
AI systems, at a minimum, represent the entrance of a new social entity in educational environments, as they have in the social environment. People’s conceptions of AI can be understood under the larger umbrella of a theory of artificial minds, referring to how humans infer the internal states of AI to predict actions and understand behaviour. This theory extends the notion of theory of mind to non-human AI systems.
A person’s theory of artificial minds could develop based on biological maturation and exposure to the technology, and could vary considerably between different individuals.
3 aspects to consider
It’s important to consider how student conceptions of AI may impact trust of information received from AI systems; personalized learning from AI; and the role that AI may have in a child’s social life:
1. Trust: In human learning, the judgments we make about knowledge and learning go a long way in acceptance of ideas inherent in learning material.
From recent studies in children’s interactions with conversational AI systems, we see that children’s trust in information from AI varies across factors like age and type of information. A learner’s theory of artificial minds would likely affect willingness to trust the information received from AI.
2. Personalized learning: Intelligent tutoring systems (ITS) research has shown excellent results for how traditional ITS — without chatbot engagement — can scaffold learners while also helping students identify gaps in learning for self-correction. New chatbot-based ITS, such as KhanMigo from Khan Academy, are being marketed as providing personalized guidance and new ways to engage with content.
A learner’s theory of artificial minds could affect the quality of interactions between them and their AI chatbot tutor and how much they accept their learning support.
3. Social relationships: The artificial friend (the “AF”) in Kazuo Ishiguro’s Klara and the Sun is a poignant literary example of the impact an artificial entity can have on a growing child’s sense of self and relationship to the world.
Social relationships with AI involve a serious renegotiation of the social contract regarding our expectations and understanding of each other. Here, relationships with children need special attention, foremost whether we want children to develop social relationships with AI in the first place.
Where do we go from here?
Many discussions about AI literacy are now unfolding, involving, for example, understanding how AI functions, its limitations and ethical issues. Throughout these conversations, it’s essential for educators to recognize that students possess an intuitive sense of how AI functions (or a theory of artificial minds). Students’ intuitive sense of AI shapes how they perceive its educational affordances, even without formal learning.
Instruction must account for students’ cognitive development, existing experiences and evolving social contexts.
The “rate my AI teacher” future is coming. It will require a focus on students’ conceptions of AI to ensure effective, ethical and meaningful integration of AI into future educational environments.
Nandini Asavari Bharadwaj receives funding from Social Sciences and Humanities Research Council of Canada.
Adam Kenneth Dubé receives research funding from Mitacs, Canadian Foundation for Innovation, and the Social Science and Humanities Research Council of Canada. He is the education leadership team member for the McGill Collaborative for AI and Society.
À l’Université de l’Alberta, par exemple, il n’y a plus de vice‑provost à l’équité, à la diversité et à l’inclusion. L’établissement dispose désormais d’un bureau de « l’accès, de la communauté et de l’appartenance ».
Si la langue évolue naturellement, ce changement ressemble davantage à un repli déguisé qu’à un véritable progrès, car il manque l’engagement délibéré nécessaire à l’équité.
Les efforts actuels de rebranding relèvent davantage de l’apaisement que du progrès. Ce sont des gestes réactifs, dictés par des pressions externes, plutôt que des réponses aux besoins et aux demandes des communautés les plus concernées.
Dans le monde des affaires, la tendance est frappante. Les mentions d’« EDI » dans les dépôts réglementaires des sociétés du S&P 500 ont chuté de 70 % depuis 2022, remplacées par des termes plus consensuels comme « appartenance » et « culture inclusive ».
Ce changement permet aux organisations d’échapper à leurs responsabilités, de masquer les inégalités et de remplacer les cadres d’équité mesurables par des platitudes vagues.
Pourquoi est-ce important ?
En adoucissant les termes utilisés, les organisations s’assurent un moyen socialement acceptable de se soustraire à la difficile mission qu’est l’équité. Comme si elles avaient « dépassé » l’équité, alors qu’elles n’ont jamais fait le travail nécessaire. C’est en quelque sorte une illusion.
Supprimer l’équité du langage organisationnel a des conséquences tangibles. Tout d’abord, cela compromet l’imputabilité. Les cadres d’équité efficaces créent des objectifs mesurables et vérifiables. Des termes tels que « appartenance » sont plus difficiles à définir et plus faciles à abandonner. Ils permettent aux organisations de prétendre s’engager en faveur de l’inclusion sans avoir à fournir les efforts nécessaires à un réel changement systémique.
Enfin, les organisations elles‑mêmes s’exposent à des risques. Les reculs en matière d’EDI nuisent au moral, à la rétention, à l’innovation et à la performance, et peuvent même accroître le risque juridique.
Un sondage de 2025 du Meltzer Center for Diversity, Inclusion, and Belonging (NYU) révèle que 80 % des dirigeants estiment que la réduction des efforts en équité augmente les risques réputationnels et juridiques. Il fait aussi état d’un large consensus selon lequel les initiatives d’EDI améliorent la performance financière des entreprises.
Mais la méritocratie suppose l’égalité des chances et occulte le fait que le « mérite » est une construction sociale qui dépend du contexte. Elle ignore que des barrières inégales – comme l’accès à l’éducation et aux réseaux – influencent la réussite individuelle, et ce outre les réalisations de la personne.
Par exemple, dans une étude réalisée auprès de 445 participants ayant une expérience en gestion, les chercheurs ont demandé aux participants de prendre des décisions concernant les primes, les promotions et les licenciements d’employés fictifs. Lorsque la culture d’une organisation mettait l’accent sur la méritocratie, les hommes recevaient des primes plus élevées que les femmes ayant les mêmes qualifications.
À l’inverse, lorsque la culture d’entreprise mettait plutôt l’accent sur le pouvoir discrétionnaire des dirigeants, le biais s’inversait en faveur des femmes. Cela s’explique vraisemblablement par le fait que l’énoncé signalait un biais de genre potentiel, déclenchant une sur‑correction.
Dans un troisième scénario, où ni la méritocratie ni la discrétion managériale n’étaient mises de l’avant, il n’y avait pas de différence significative dans les primes accordées.
Bien que le dernier scénario semble prometteur, la plupart des environnements de travail privilégient la méritocratie, consciemment ou non. La rémunération basée sur le mérite ou la performance demeure la norme dans la plupart des organisations, ce qui signifie que le premier scénario est le plus fréquent.
Sans transparence, le discours sur « qui mérite » une promotion/un bonus a tendance à renforcer les inégalités. Le népotisme, les avantages liés aux réseaux et la visibilité sélective comblent souvent le vide lorsque les cadres d’équité sont abandonnés. Les réseaux et la visibilité comptent, mais ils ne doivent pas être confondus avec le mérite.
Alors que certaines institutions reculent sur leurs engagements en matière d’EDI, d’autres au Canada et en Europe maintiennent le cap en intégrant l’équité à leur stratégie, à leur leadership et à leurs cadres de performance.
Pour faire progresser l’équité dans le contexte actuel, il faut à la fois une stratégie et une mobilisation continue. Voici par où les organisations peuvent commencer :
Établir et intégrer des objectifs explicites et mesurables en matière d’équité, alignés sur la stratégie de leur entreprise.
Améliorer la transparence des données en collectant et en partageant publiquement des informations désagrégées sur le recrutement, la promotion, l’équité salariale, le taux de rotation du personnel et l’expérience des employés.
Donner un véritable pouvoir décisionnel aux voix issues de la diversité dans l’élaboration des politiques et des initiatives. Les groupes‑ressources d’employés constituent un excellent point de départ.
Tenir les leaders imputables en les formant à promouvoir l’équité et en liant leurs incitatifs à des résultats concrets en matière de diversité, d’équité et d’inclusion.
Communiquez de manière transparente et authentique sur les impacts de l’EDI en partageant des témoignages et des indicateurs qui montrent comment les efforts en matière d’équité ont amélioré les performances de l’organisation.
Ces solutions fonctionnent déjà. Dans ma pratique de consultant, j’ai accompagné des organisations qui progressent en bâtissant la confiance, en dynamisant leurs équipes et en stimulant l’innovation. Au final, elles sont plus performantes et plus résilientes.
L’argument économique pour l’équité, la diversité et l’inclusion est bien établi : L’EDI stimule la performance, soutient la croissance et constitue un impératif de leadership. Dans le climat politique actuel, il est crucial de rester concentré sur les résultats plutôt que de se laisser entraîner par un discours qui présente l’équité comme inutile ou clivante.
La voie à suivre
Rebaptiser « l’équité » en « appartenance » ne fait pas avancer la justice, surtout en l’absence d’une définition partagée de ce que signifie réellement « appartenance ». Cela nie poliment la nécessité de démanteler de véritables barrières systémiques. Pour les personnes qui font face à ces barrières, cela sonne comme une promesse creuse.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Personne ne choisit sa race, son sexe, son milieu socio-économique, son orientation sexuelle, ni de vivre avec un handicap ou les séquelles durables du service militaire (par exemple, un trouble de stress post-traumatique). En revanche, les institutions peuvent choisir de s’attaquer aux inégalités liées à ces expériences et de démanteler les obstacles auxquels les individus sont confrontés.
Ce moment invite également à une réflexion honnête au sein même du secteur de l’EDI. Certaines initiatives ont dépassé les limites ou perdu de vue leur objectif, ce qui a contribué au contrecoup actuel. Reconnaître ouvertement ces faux pas fait partie du travail de reconstruction de la crédibilité de l’EDI.
Pour progresser, il est nécessaire de réduire la polarisation, d’ouvrir le dialogue, et de mieux coordonner les actions afin que chaque personne ait une chance équitable de s’épanouir et de réussir.
Simon Blanchette ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – (in Spanish) – By Raúl Rivas González, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología., Universidad de Salamanca
El elemento visual más icónico de la festividad de Halloween es, sin duda, la Jack O’Lantern, una calabaza vaciada y tallada con apariencia de rostro, a menudo de aspecto grotesco o sonriente, que sirve de linterna. En el interior hueco de la calabaza se coloca una fuente de luz, tradicionalmente una vela, cuyo parpadeo proyecta sombras fantasmales y da vida a la mueca tallada, creando una atmósfera inconfundible de misterio y celebración.
La especie de calabaza más utilizada para Halloween –contracción de la expresión inglesa All Hallows’ Eve, que significa “víspera de Todos los Santos”– es la Cucurbita pepo; por ejemplo, las variedades Connecticut field o Jack O’Lantern. Debido a su color, forma redondeada y corteza resistente, resulta ideal para tallar. Pero ojo, porque no siempre se utilizó una calabaza: al principio se tallaban otras hortalizas. Concretamente, nabos.
Jack, el Tacaño
La leyenda más famosa asociada con el origen de la tradición de las hortalizas talladas de Halloween nos lleva a la Irlanda del siglo XVIII y está vinculada a una figura del folclore irlandés conocida como Jack el Tacaño, aunque también recibe los nombres de Jack el Herrero, Jack el Borracho o Jack el Excéntrico.
Jack engañó al diablo dos veces. Primero le convenció para que se transformara en una moneda con la que pagar una última bebida antes de llevárselo al infierno, y después lo dejó atrapado en la copa de un árbol. Para conseguir la libertad, el diablo tuvo que prometer a Jack que jamás volvería a reclamar su alma.
Sin embargo, cuando Jack murió, no pudo entrar en el cielo debido a su vida pecaminosa. El diablo cumplió el trato y nuestro hombre quedó condenado a vagar por la Tierra en la oscuridad eterna, sin poder descansar ni en el cielo ni en el infierno. El maligno, a modo de burla, le arrojó una brasa encendida del averno para que iluminara su camino. Jack puso la brasa dentro de un nabo hueco, que usó a modo de linterna. Y así quedó convertido en Jack O’Lantern (Jack, el de la linterna).
Samhain, la festividad gaélica
La celebración de Halloween tiene raíces arcaicas vinculadas, en gran parte, al festival celta conocido como Samhain, que marcaba el final de la temporada de cosechas y el comienzo del año nuevo celta. En el siglo XVIII, mucha gente de Irlanda celebraba el Samhain, la festividad gaélica, con sus rituales de ir de casa en casa en busca de comida y bebida. De ahí la tradición del “truco o trato”.
Como en la Irlanda preindustrial reinaba la oscuridad, muchos tallaban nabos, patatas y otras hortalizas de raíz y les añadían carbón o velas para crear faroles improvisados que sirvieran de guía a los asistentes. En ocasiones, incluso tallaban rostros en ellas.
Además, existía la creencia antigua que, en la noche de Halloween, la frontera entre el mundo de los vivos y el de los muertos se debilitaba, permitiendo a los espíritus buenos y malos regresar. Por esta razón, esa noche las linternas vegetales eran colocadas en las ventanas o entradas de las casas para ahuyentar a esos espíritus, incluido el de Jack O’Lantern. Con el tiempo, los lugareños comenzaron a tallar caras terroríficas en los nabos para ahuyentar a los espíritus malignos.
Un microorganismo cambió los nabos y las patatas por calabazas
La Gran Hambruna irlandesa, también conocida como “hambruna de la patata”, fue un periodo devastador de inanición, enfermedad y migraciones masivas que afectó a Irlanda entre 1845 y 1849, aunque las consecuencias se extendieron hasta 1852.
Aunque se desconocen las cifras exactas, los registros apuntan que al menos se produjeron 1 100 000 de muertes y una emigración masiva de otro millón de personas, lo que supuso un descenso poblacional de casi el 30 %. En realidad, el funesto desenlace del acontecimiento fue multifactorial: confluyeron motivos políticos, religiosos, económicos y, sobre todo, microbiológicos. En concreto, una plaga provocada por el oomiceto Phytophthora infestans, conocido como tizón tardío, destruyó la cosecha de patatas, el alimento básico para gran parte de la población irlandesa pobre. El patógeno es muy agresivo, y los vegetales y cultivos más importantes a los que afecta son la patata y el tomate.
Para desgracia de los irlandeses, el oomiceto se estableció en el suelo. Los siguientes años fueron demoledores, ya que el patógeno persistía y las patatas desaparecían o malograban. Por entonces, no existían sustancias químicas ni métodos genéticos para combatir a Phytophthora. La hambruna y las enfermedades asociadas se cebaron con los más pobres. La desnutrición facilitó la incidencia de infecciones severas como la fiebre tifoidea, la tuberculosis, la difteria o el cólera. Cientos de miles de personas no pudieron superar la debacle y perecieron.
Los irlandeses llevaron Halloween a Estados Unidos
Los más afortunados consiguieron emigrar en busca de nuevas oportunidades, aunque muchos lo hicieron en condiciones deplorables y sucumbieron durante la travesía. La colonia de emigrantes irlandeses más numerosa se estableció en Estados Unidos, un país de mayoría protestante. Sin embargo, más del 90 % de los migrantes irlandeses eran católicos, lo que supuso un impacto notable en la sociedad estadounidense.
De hecho, con los emigrantes irlandeses muchas tradiciones cruzaron el Atlántico. Cuando llegó el momento de celebrar Halloween, hubo un problema de gran magnitud: en América los nabos no eran fáciles de encontrar. Por suerte, los irlandeses inmigrantes encontraron una hortaliza nativa, mucho más grande, llamativa, abundante en otoño y fácil de vaciar y tallar: la calabaza. De inmediato, ésta sustituyó a los nabos y a cualquier otra hortaliza candidata.
Las calabazas talladas con rostros espeluznantes no tardaron en volverse esenciales en las celebraciones de Halloween. Aunque inicialmente servían para ahuyentar el espíritu de Jack y otras almas errantes, con el tiempo, la Jack O’Lantern evolucionó a un simple símbolo festivo. Hoy adorna las casas, mezclando terror y diversión durante todo el mes de octubre.
Calabazas divertidas, pero también peligrosas
Pero ojo, porque las calabazas pueden esconder un peligro. Un estudio publicado en el año 2006, analizó la rápida descomposición fúngica de las calabazas de Halloween (Cucurbita pepo) en Irlanda del Norte durante octubre de 2005. Encontraron que, tras ser talladas y exhibidas, desarrollaban un notorio deterioro microbiano. La investigación reveló la presencia de al menos cinco géneros de hongos (Penicillium, Gibberella, Mucor, Nectria y Fusarium), tres de ellos conocidos por causar infecciones en personas inmunocomprometidas, un riesgo que no había sido documentado previamente.
Por lo tanto, aunque estas hortalizas pueden seguir siendo parte de las festividades, en entornos sanitarios con pacientes vulnerables se recomienda la inspección periódica de las calabazas talladas para procurar minimizar la dispersión de esporas y realizar su descarte inmediato si se observa contaminación fúngica.
Raúl Rivas González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – in French – By François Langot, Professeur d’économie, Directeur adjoint de l’i-MIP (PSE-CEPREMAP), Le Mans Université
Pour stabiliser la dette publique de la France, l’État doit réduire son déficit. Outre la hausse des prélèvements, il doit aussi de diminuer ses dépenses. Mais avant de les réduire, il importe de savoir comment ces dépenses ont évolué ces trente dernières années.
L’analyse historique des dépenses de l’État peut être utile pour prendre aujourd’hui des décisions budgétaires. Qu’ont-elles financé ? Les salaires des agents ? Des achats de biens et services ? Des transferts ? Quels types de biens publics ont-elles permis de produire (éducation, santé, défense…) ?
Le futur budget de l’État doit tenir compte de ces évolutions passées, des éventuels déséquilibres en résultant, tout en réalisant que ces choix budgétaires auront des impacts sur la croissance et les inégalités spécifiques à la dépense considérée.
Près de 30 milliards d’économies annoncées
Le projet de loi de finances actuellement discuté pour l’année 2026 prévoit 30 milliards d’euros d’économies, ce qui représente 1,03 % du PIB. Ces économies sont obtenues avec 16,7 milliards d’euros de réduction de dépenses (0,57 point de PIB), et 13,3 milliards d’euros de hausse de la fiscalité. Le déficit public, prévu à 5,6 % en 2025 (163,5 milliards d’euros pour 2025) ne serait donc réduit que de 18,35 %. Pour atteindre l’objectif de stabiliser la dette publique, il faudra amplifier cet effort les prochaines années pour économiser approximativement 120 milliards d’euros (4 points de PIB), soit quatre fois les économies prévues dans le PLF 2026.
Ces réductions à venir des dépenses s’inscrivent dans un contexte. En moyenne, dans les années 1990, les dépenses publiques représentaient 54 % du PIB. Dans les années 2020, elles avaient augmenté de 3 points, représentant alors 57 % du PIB, soit une dépense annuelle additionnelle de 87,6 milliards d’euros, ce qui représente plus de cinq fois les économies inscrites dans le PLF pour 2026. Depuis 2017, ces dépenses ont augmenté d’un point de PIB, soit une hausse annuelle de 29,2 milliards d’euros (1,75 fois plus que les économies du PLF 2026). Étant données ces fortes hausses passées, des réductions de dépenses sont possibles sans remettre en cause le modèle social français. Mais, quelles dépenses réduire ?
Chaque poste de dépense se compose d’achats de biens et services (B & S) utilisés par l’État (au sens large, c’est-à-dire l’ensemble des administrations publiques centrales, locales et de sécurité sociale) pour produire, de salaires versés aux agents, et de transferts versés à la population. Quel poste a fortement crû depuis 1995 ?
Le tableau 1 montre qu’en 1995, 40,2 % des dépenses étaient des transferts (soit 22,05 points de PIB), 35,5 % des achats de B & S (soit 19,45 points de PIB) et 24,3 % des salaires (soit 13,33 points de PIB). En 2023, 44,1 % étaient des transferts (+ 3,06 points de PIB), 34,5 % des achats de B & S (- 0,15 point de PIB) et 21,4 % des salaires (- 1,07 points de PIB). Le budget s’est donc fortement réorienté vers les transferts. Les dépenses consacrées aux salaires ont évolué moins vite que le PIB, le poids de ces rémunérations dans les dépenses baissant fortement.
Lecture : En 1995, les transferts représentaient 22,05 points de PIB, soient 40,2 % des dépenses totales. Le chiffre entre parenthèses indique la part de cette dépense dans les dépenses totales. Δ : différence entre 2023 et 1995 en points de PIB et le chiffre entre parenthèses l’évolution de la part.
L’État a donc contenu ces achats de B & S et réduit sa masse salariale, quand bien même les effectifs croissaient de plus de 20 % (données FIPECO). Simultanément, l’emploi salarié et non salarié du secteur privé augmentait de 27 % (données Insee). Des effectifs augmentant moins que dans le privé et une part de la production de l’État dans le PIB progressant révèlent une plus forte hausse de la productivité du travail du secteur public. Mais, ceci ne s’est pas traduit par une augmentation des rémunérations du public. Au contraire, l’écart de salaire entre le public et le privé s’est fortement réduit sur la période, passant de +11,71 % en 1996 en faveur du public (données Insee (1999) pour le public et Insee (1997) pour le privé), à 5,5 % en 2023 (données Insee (2024a) pour le privé et Insee (2024b) pour le public).
Cette première décomposition montre que l’organisation de la production de l’État (achat de B & S et salaires) n’a pas dérivé, mais que les hausses des dépenses de redistribution (+ 3,06 points de PIB en trente ans) ont fortement crû. Ces hausses de transferts correspondent aux trois quarts des économies nécessaires à la stabilisation de la dette publique.
De moins en moins d’argent pour les élèves et la défense
Les dépenses de l’État se décomposent en différents services, c’est-à-dire, en différentes fonctions (l’éducation, la défense, la protection sociale…). La figure 1 montre que les dépenses des services généraux, d’éducation et de la défense ont crû moins vite que le PIB depuis 1995 (surface rouge). En effet, leurs budgets en points de PIB ont respectivement baissé de 2,14 points, 0,78 point et 0,68 point de PIB. Si la baisse du premier poste peut s’expliquer, en partie, par la rationalisation liée au recours aux technologies de l’information, et la seconde par l’arrêt de la conscription, celle de l’éducation est plus surprenante.
Elle l’est d’autant plus que Aubert et al. (2025) ont montré que 15 % de ce budget incluait (soit 0,75 point de PIB) des dépenses de retraites qu’il « faudrait » donc réallouer vers les pensions pour davantage de transparence. La croissance constante de cette contribution aux pensions dans le budget de l’éducation indique que les dépenses consacrées aux élèves sont en forte baisse, ce qui peut être mis en lien avec la dégradation des résultats des élèves de France aux tests de type Pisa. Enfin, dans le contexte géopolitique actuel, la baisse du budget de la Défense peut aussi sembler « peu stratégique ».
Lecture : En 1995, les dépenses de protection sociale représentaient 21,41 points de PIB, dont 18,14 points de PIB en transferts, 1,16 point en salaires et 2,11 points en B&S ; en 2023, elles représentaient 23,33 points de PIB dont 20,16 points, 1,12 point en salaire et 2,0 points en B&S.
De plus en plus pour la santé et la protection sociale
La surface verte de la figure 1 regroupe les fonctions qui ont vu leurs budgets croître plus vite que le PIB, de la plus faible hausse (ordre public/sécurité, avec + 0,24 point de PIB) aux plus élevées (santé, + 1,72 point de PIB, et protection sociale, + 1,92 point de PIB). Ces deux postes de dépenses représentent 65,3 % des hausses. Viennent ensuite les budgets sport/culture/culte, environnement et logement qui se partagent à égalité 24 % de la hausse totale des dépenses (donc approximativement 8 % chacun). Enfin, les budgets des affaires économiques et de l’ordre public/sécurité expliquent les 10,7 % restant de hausse des dépenses, à hauteur de 6,4 % pour le premier et 4,3 % pour le second.
Si l’on se focalise sur les plus fortes hausses, c’est-à-dire, la santé et la protection sociale, les raisons les expliquant sont différentes. Pour la protection sociale, les dépenses de fonctionnement sont quasiment stables (B&S et salaires) alors que les prestations sont en forte hausses (+ 2 points de PIB). Les dépenses de santé voient aussi les prestations offertes croître (+ 1 point de PIB), mais se caractérisent par des coûts croissants de fonctionnement : + 0,6 point pour les B&S, et + 0,12 point de PIB pour les salaires des personnels de santé, alors que les rémunérations baissent dans le public, ceux des agents de l’éducation, par exemple, passant de 4,28 à 3,47 points de PIB (-0,81 points de PIB).
Dans la protection sociale, de plus en plus pour la maladie et les retraites
La protection sociale, premier poste de dépense (23,33 % du PIB), regroupe différentes sous-fonctions représentées dans la figure 2. À l’exception des sous-fonctions maladie/invalidité (+ 0,07 point de PIB), exclusion sociale (+ 0,43 point du PIB) et pensions (+ 2,41 points de PIB), les budgets de toutes les sous-fonctions de la protection sociale ont vu leur part baisser (surface en rouge). Les réformes des retraites ont donc été insuffisantes pour éviter que les pensions soient la dépense en plus forte hausse.
Enfin, si on ajoute aux dépenses de santé la partie des dépenses de protection sociale liée à la maladie et à l’invalidité (voir la figure 2), alors ces dépenses globales de santé ont crû de 1,79 point de PIB entre 1995 et 2023.
Quels enseignements tirer ?
Ces évolutions suggèrent que les budgets à venir pourraient cibler les économies sur les dépenses de santé et les pensions, ces deux postes ayant déjà fortement crû dans le passé. Évidemment, une partie de ces hausses est liée à l’inévitable vieillissement de la population. Mais une autre vient de l’augmentation des prestations versées à chaque bénéficiaire. Par exemple, la pension de retraite moyenne est passée de 50 % du salaire moyen dans les années 1990 à 52,3 % en 2023. Le coût de la prise en charge d’un infarctus du myocarde est passé de 4,5 Smic dans les années 1990 à 5,6 Smic dans les années 2020
France 24, octobre 2025.
En revanche, un rattrapage portant sur l’éducation et la Défense semble nécessaire au vu du sous-investissement passé et des défis à venir. Les rémunérations des agents du public doivent aussi être reconsidérées. Le tableau 2 montre que le PLF 2026 propose des mesures répondant en partie a ce rééquilibrage en réduisant les dépenses de protection sociale et en particulier les pensions. Enfin, le PLF 2026 prévoit une hausse du budget de la défense, alors que la réduction de 8,6 milliards d’euros des budgets des fonctions hors défense et ordre public épargne l’éducation.
Au-delà de ces arguments de rééquilibrage, les choix budgétaires doivent aussi reposer sur une évaluation d’impact sur l’activité (croissance et emploi). Les analyses de Langot et al. (2024) indiquent que les baisses de transferts indexés sur les gains passés (comme les retraites) peuvent avoir un effet positif sur la croissance, facilitant alors la stabilisation de la dette publique, au contraire des hausses des prélèvements.
Privilégier la production des biens publics aux dépens des transferts se justifie aussi au regard des enjeux géopolitiques et climatiques, et permet également de réduire les inégalités (voir André et al. (2023)).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Les _stablecoins_ apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États, notamment ceux de la zone euro.Funtap/Shutterstock
Présentés comme des ponts entre la finance traditionnelle et l’univers des cryptoactifs, les « stablecoins » (jetons indexés) prétendent révolutionner la monnaie et la finance. Pourtant, ils portent en germe une double menace : la fragilisation de l’ordre monétaire, fondé sur la confiance, et de l’ordre financier, en créant de nouveaux canaux de risque.
Les « stablecoins » sont des « jetons qui ont pour objectif de pallier la forte volatilité des cryptoactifs traditionnels grâce à l’indexation de leur valeur sur celle d’une devise ou d’un panier de devises (dollar, euro, yen) dans un rapport de 1 : 1, ou encore sur une matière première (or, pétrole) » ainsi que nous l’expliquons dans notre ouvrage avec Nadia Antonin. Pour chaque unité de stablecoin émise, la société émettrice conserve en réserve une valeur équivalente, sous forme de monnaie fiduciaire ou d’actifs tangibles servant de garantie.
On peut distinguer trois types de stablecoins en fonction du type d’ancrage :
Les stablecoins centralisés, où l’ancrage est assuré par un fonds de réserve stocké en dehors de la chaîne de blocs (off chain).
Les stablecoins décentralisés garantis par d’autres cryptoactifs, où le collatéral est stocké sur la chaîne de blocs (on chain).
Les stablecoins décentralisés algorithmiques.
Fin octobre 2025, la capitalisation de marché des stablecoins atteint 312 milliards de dollars (plus de 269 milliards d’euros), dont 95 % pour les stablecoins centralisés. Nous nous concentrons sur ces derniers.
Genius Act vs MiCA
Concernant la composition des réserves, les réglementations diffèrent selon les pays. La loi Genius, adoptée par le Congrès des États-Unis en juillet 2025, dispose que chaque stablecoins de paiement doit être garanti à 100 % par des actifs liquides, principalement des dollars américains, des bons du Trésor ou des dépôts bancaires. Il prévoit également des rapports mensuels détaillés et un audit annuel obligatoire pour les grands émetteurs.
Dans l’Union européenne (UE), le règlement MiCA impose des conditions beaucoup plus strictes. Il exige que les actifs soient entièrement garantis par des réserves conservées dans des banques européennes et soumis à des audits indépendants au moins deux fois par an.
Stabilité du système monétaire fragilisée
Crypto-actifs. Une menace pour l’ordre monétaire et financier, par Céline et Nadia Antonin. Economica, Fourni par l’auteur
Bien que plus « stables » en apparence que d’autres cryptoactifs, les stablecoins échouent à satisfaire les trois principes qui, selon la littérature monétaire institutionnelle, définissent la stabilité d’un système monétaire : l’unicité, l’élasticité et l’intégrité.
Historiquement, le principe d’unicité garantit que toutes les formes de monnaie – billets, dépôts, réserves… – sont convertibles à parité, assurant ainsi une unité de compte stable. Les stablecoins, émis par des acteurs privés et non adossés à la monnaie centrale, mettent fin à cette parité : leur valeur peut s’écarter de celle de la monnaie légale, introduisant un risque de fragmentation de l’unité monétaire.
Le principe d’élasticité renvoie à la capacité du système monétaire à ajuster l’offre de liquidités aux besoins de l’économie réelle. Contrairement aux banques commerciales, qui créent de la monnaie par le crédit sous la supervision de la banque centrale, les émetteurs de stablecoins ne font que transformer des dépôts collatéralisés : ils ne peuvent ajuster la liquidité aux besoins de l’économie.
Le principe d’intégrité suppose un cadre institutionnel garantissant la sécurité, la transparence et la légalité des opérations monétaires. Les stablecoins échappent à la supervision prudentielle, exposant le système à des risques de blanchiment, de fraude et de perte de confiance.
La question des réserves
L’existence et la qualité des réserves sont fragiles. Il faut garder à l’esprit que les actifs mis en réserve ne sont pas équivalents à la monnaie banque centrale : ils sont exposés aux risques de marché, de liquidité et de contrepartie.
Aux États-Unis, les émetteurs (comme Tether ou Circle) publient des attestations périodiques, mais ne produisent pas d’audit en temps réel. Rappelons qu’en 2021, Tether s’était vu infliger une amende de 41 millions de dollars (plus de 35 millions d’euros) par la Commodity Futures Trading Commission des États-Unis, pour avoir fait de fausses déclarations sur la composition de ses réserves. Les réserves sont souvent fragmentées entre plusieurs juridictions et déposées dans des institutions non réglementées.
Le modèle économique des émetteurs de stablecoins repose sur la rémunération de leurs réserves. Il va de soi qu’ils n’ont aucun intérêt à détenir des actifs sûrs et à faible rendement. Imaginons que survienne une annonce qui sèmerait le doute sur la qualité des réserves. En l’absence d’accès aux facilités de la banque centrale ou à une assurance-dépôts, une perte de confiance se traduirait mécaniquement par une panique et un risque de perte d’ancrage.
Cette fragilité mine l’une des fonctions essentielles de la monnaie : la réserve de valeur.
Instrument de dollarisation et de colonisation monétaire
Les stablecoins apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États. En 2025, 99,0 % des stablecoins sont adossés au dollar en termes de capitalisation de marché. En diffusant des stablecoins adossés au dollar dans les économies émergentes ou faiblement bancarisées, les stablecoins favorisent une dollarisation numérique qui érode la souveraineté monétaire des banques centrales.
Pour l’UE, le risque est celui d’une colonisation monétaire numérique : des systèmes de paiement, d’épargne et de règlement opérés par des acteurs privés extra-européens. Les stablecoins conduisent également à une privatisation du seigneuriage – la perception de revenus liés à l’émission de monnaie, normalement perçus par la Banque centrale européenne (BCE). Les émetteurs de stablecoins captent la rémunération des actifs de réserve sans redistribuer ce rendement aux porteurs. Ce modèle détourne la fonction monétaire : la liquidité publique devient une source de profit privé, sans contribution à la création de crédit ou à l’investissement productif.
Risque de crise financière systémique
L’interconnexion entre stablecoins et finance traditionnelle accroît le risque systémique. En cas de perte de confiance, un mouvement de panique pourrait pousser de nombreux détenteurs à échanger leurs stablecoins, mettant en péril la capacité des émetteurs à rembourser. Or, les détenteurs ne sont pas protégés en cas de faillite, ce qui renforce le risque de crise systémique.
Le marché des stablecoins est très lié au marché de la dette souveraine états-unienne. La demande supplémentaire de stablecoins a directement contribué à l’augmentation des émissions de bons du Trésor à court terme (T-bills) aux États-Unis et à la baisse de leur rendement. La liquidation forcée de dizaines de milliards de T-bills perturberait le marché états-unien de la dette à court terme.
Risque de crédit et de fraude
Les stablecoins accroissent le risque de crédit, car comme les autres cryptoactifs, ils offrent un accès facilité à la finance décentralisée. Or, les possibilités d’effets de levier – autrement dit d’amplification des gains et des pertes – sont plus forts dans la finance décentralisée que dans la finance traditionnelle.
Mentionnons le risque de fraude : selon le Groupe d’action financière (Gafi), les stablecoins représentent désormais la majeure partie des activités illicites sur la chaîne de blocs, soit environ 51 milliards de dollars (44 milliards d’euros) en 2024.
Les stablecoins fragilisent la souveraineté des États, introduisent une fragmentation monétaire et ouvrent la voie à de nouvelles vulnérabilités financières. Pour l’Europe, l’alternative réside dans le développement d’une monnaie numérique de banque centrale, où l’innovation se conjugue avec la souveraineté. La vraie innovation ne réside pas dans la privatisation de la monnaie, mais dans l’appropriation par les autorités monétaires des outils numériques.
Cette contribution est publiée en partenariat avec les Journées de l’économie, cycle de conférences-débats qui se tiendront du 4 au 6 novembre 2025, au Lyon (Rhône). Retrouvez ici le programme complet de l’édition 2025, « Vieux démons et nouveaux mondes ».
Céline Antonin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Un détail de l’affiche des _Griffes de la nuit_ (_A Nightmare on Elm Street_, 1984), signée de Joseph Peak.Allociné
Apparu dans les années 1970, le « slasher » est une catégorie de film d’horreur répondant à une typologie très stricte et particulièrement codifiée. Si le réalisateur Wes Craven n’est pas à proprement parler à l’origine du genre, il y a contribué de façon significative au travers de plusieurs films dont les plus marquants sont sans conteste « les Griffes de la nuit » (1984), où apparaît la figure de Freddy Krueger, et « Scream » (1996) qui lancera la vague des « neo-slashers ».
Le slasher se définit par un certain nombre de figures imposées tant dans le type de personnages mis en scène que par l’histoire qu’il raconte. C’est toujours le récit d’un groupe d’adolescents ayant commis une faute, ou dont les parents ont commis une faute. Ils sont poursuivis par un tueur, systématiquement masqué et qui les tuera avec une arme blanche, toujours la même. Les victimes s’enchaînent alors dans une série de meurtres violents liés à des transgressions adolescentes (consommation de drogues, alcool, relation sexuelle, etc.).
L’héroïne du film, toujours une femme, qui elle n’a commis aucune transgression, affronte le tueur dans un dernier face à face dont elle sortira victorieuse. C’est l’iconique « final girl ». Le tueur, vaincu, laisse généralement entendre qu’il pourrait revenir par une ultime déclaration, un effet de surprise, voir une déclaration humoristique… À titre d’exemple la scène de fin de la Fiancée de Chucky (1998), quatrième volet de la saga, où la poupée tueuse déclare d’un air dépité à celle qui la menace d’une arme : « Vas-y tue moi, je reviens toujours… C’est juste que c’est chiant de mourir. »
Aux origines d’un sous-genre du film d’horreur
Le premier film à porter tous les codes du slasher est Halloween, la nuit des masques (1978), de John Carpenter. La célèbre scène de la douche dans Psychose (1960) en est peut-être la matrice : tous les codes du slasher y sont déjà réunis (une victime féminine poignardée à répétition par un ennemi sans visage). L’autre branche historique du slasher est celle du giallo italien et notamment le célèbre film la Baie sanglante (1971), de Mario Bava, qui porte déjà certains codes, comme les morts violentes et la sexualité.
Si Wes Craven ne rejoint formellement le genre qu’en 1984, son tout premier film, que certains qualifie de « proto-slasher », la Dernière Maison sur la gauche (1972) – lui même un remake du méconnu Jungfrukällan (la Source), d’Ingmar Bergman (1960) – avait posé certains éléments du genre parmi lesquels la violence exacerbée, le rapport entre meurtre et transgression sexuelle, et l’idée d’une héroïne féminine plus forte que ses agresseurs.
En 1984, Wes Craven sort les Griffes de la nuit. Si ce film respecte scrupuleusement tous les codes du genre, on peut voir aussi comment il les tord pour mieux les affirmer. Ainsi le tueur incarné par Freddy Krueger utilise une arme improbable, puisqu’il s’est fabriqué un gant en métal garni de lames de rasoir. Il ne porte pas non plus de masque, mais il a le visage gravement brûlé. La sexualité est présente chez toutes les victimes mais aussi dans le discours de Freddy, et dans son passé de tueur pédophile. C’est d’ailleurs la vengeance des habitants du quartier qui constitue la transgression originelle que les enfants doivent expier.
Il y a quelque chose de pourri au royaume du « slasher »
Dans Scream (1996) et dans les Griffes de la nuit, on retrouve l’idée d’un secret porté par les parents dont les conséquences retombent sur les enfants. Derrière le pavillon idéal d’Elm Street se cachent des meurtriers qui ont brûlé vif un homme et le dissimulent à leurs enfants, même après les premiers meurtres dans le quartier. Dans Scream, c’est plus prosaïquement les mœurs légères d’une mère de famille assassinée et le déni de sa fille vis-à-vis de ces transgressions qui font apparaître le tueur.
On voit qu’il y a dans ces deux cas l’idée d’une société des apparences qui serait en réalité pourrie, et on retrouve la critique du mode de vie américain déjà visible chez Stephen King, par exemple. Derrière un puritanisme d’apparence, se cachent les crimes que l’on dissimule à nos enfants.
Cette thématique récurrente dans le cinéma américain (dans un registre comique, il s’agit d’ailleurs du pitch de Retour vers le futur où un adolescent élevé par une mère stricte se retrouve renvoyé dans le passé pour découvrir qu’elle-même fut une adolescente très libérée) est un point structurant dans les films d’horreur américains et encore plus dans le slasher.
Cette interprétation politique du slasher se voie complétée par une autre interprétation plus universelle et psychanalytique. Par delà la question de l’hypocrisie parentale, c’est celle du refoulement du sexuel dans les sociétés issues des trois monothéismes qui est en jeu. Si la question de la sexualité, en tant qu’elle transforme le corps, peut être perçue universellement comme un sujet d’angoisse, elle ne devient une question morale que quand elle est associée à la notion d’interdit.
Le tueur masqué et sans visage est plus facilement reconnu à son arme qu’à sa tête. Or, l’arme blanche qu’il porte et qui le caractérise n’est-elle pas justement une métaphore phallique ? Le tueur sans visage est alors une allégorie du sexuel, masculin et intrusif, s’opposant à la figure de la jeune femme vertueuse. L’angoisse du spectateur devant l’antagoniste se conçoit alors comme la matérialisation d’une angoisse adolescente, celle de l’entrée dans la sexualité.
Un genre féministe ou conservateur ?
Entre la figure forte de la « final girl » et les transgressions sexuelles à l’origine des meurtres se pose la question récurrente du message porté par les slashers. Ambivalent par nature, il est difficile de dire du slasher s’il est féministe ou conservateur. En nous plaçant régulièrement derrière le masque du tueur, nous nous retrouvons dans la position de celui qui punit, prenant de fait le parti d’une morale conservatrice. Mais, d’un autre côté, on y découvre que la société présentée aux autres personnages comme vertueuse est le plus souvent pourrie par le secret et par le mensonge.
L’héroïne adolescente du film se voit alors prise entre deux mondes d’adultes aussi peu enviables l’un que l’autre et nous rappelle une autre figure culte du cinéma adolescent, dans un tout autre genre, celle de Pauline à la plage (1983), d’Éric Rohmer, où les tartufferies des adultes les décrédibilisent et font comprendre à Pauline qu’elle devra trouver son propre chemin loin des modèles et des figures imposées. Une « final girl » à la française pour ainsi dire…
Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.