Les cyclistes ont peut-être raison de brûler arrêts et feux rouges. Voici pourquoi

Source: The Conversation – in French – By Steve Lorteau, Long-Term Appointment Law Professor, L’Université d’Ottawa/University of Ottawa

Écoutez cet article en version audio générée par l’IA.

Sur nos routes, les interactions entre les différents usagers de la route sont souvent une source de frustration, avec en tête d’affiche celles entre automobilistes et cyclistes.

Par exemple, plusieurs automobilistes sont frustrés de voir les vélos traverser une intersection sans s’immobiliser complètement, alors qu’eux-mêmes se voient dans l’obligation de le faire.

Pour beaucoup, ce geste est perçu comme une marque d’indiscipline, voire une double mesure pour les cyclistes. En effet, les cyclistes ne semblent pas encourir de véritable risque à ralentir au passage d’un panneau d’arrêt plutôt qu’à s’y immobiliser.

En comparaison, les automobilistes risquent une amende salée pour conduite dangereuse s’ils brûlent un arrêt.

Alors, faut-il exiger des cyclistes qu’ils respectent les mêmes règles de la route que les automobilistes, ou au contraire, reconnaître que ces règles ne reflètent pas toujours la réalité du vélo en ville ?

En tant que professeur de droit à l’Université d’Ottawa spécialisé dans les questions d’urbanisme, j’ai étudié diverses approches réglementaires adoptées à travers le monde, qui présentent différents avantages et désavantages.


Cet article fait partie de notre série Nos villes d’hier à demain. Le tissu urbain connaît de multiples mutations, avec chacune ses implications culturelles, économiques, sociales et – tout particulièrement en cette année électorale – politiques. Pour éclairer ces divers enjeux, La Conversation invite les chercheuses et chercheurs à aborder l’actualité de nos villes.

L’égalité stricte entre les cyclistes et les conducteurs

Au Québec, comme dans d’autres juridictions, les codes de la route s’imposent à tous les usagers, qu’ils soient automobilistes ou cyclistes.

Par exemple, tous les usagers doivent faire un arrêt complet aux arrêts et aux feux rouges. Lorsqu’ils contreviennent à ces règles, les cyclistes « sont assujetti(s) aux mêmes obligations que le conducteur d’un véhicule », selon les mots de la Cour suprême du Canada.

Ainsi, peu importe les différences entre une voiture et un vélo, la loi les traite de façon égale. Bien sûr, cette égalité demeure souvent théorique, car l’application des règles varie selon les contextes et les comportements.




À lire aussi :
À Montréal, même en doublant les pistes cyclables, les voitures conserveraient 90 % de la chaussée


Une égalité trompeuse

L’application uniforme des règles de la route peut sembler juste, mais peut créer une fausse égalité dans les faits.

D’une part, les risques associés aux différents moyens de transport sont incommensurables. Une voiture qui franchit un feu rouge peut causer des blessures graves, voire mortelles. Un cycliste, en revanche, peut difficilement infliger de tels dommages.

Une pancarte électorale borde une piste cyclable
L’enjeu des pistes cyclables est au centre de la campagne électorale de Montréal.
La Conversation Canada, CC BY

D’autre part, l’efficacité du vélo dépend du maintien de la vitesse. S’arrêter complètement, encore et encore, décourage l’usage du vélo, malgré ses nombreux bénéfices pour la santé, l’environnement et la fluidité du trafic.

Traiter de la même manière deux moyens de transport si différents revient donc à privilégier implicitement l’automobile, un peu comme si l’on imposait les mêmes limitations de vitesse à un piéton et à un camion.

L’arrêt Idaho

Plutôt que de traiter les vélos et les voitures comme étant égaux, certaines juridictions ont opté pour une autre voie. Un exemple notable d’un traitement différent est celui de l’État de l’Idaho.

En Idaho, depuis 1982, les cyclistes peuvent traiter un panneau d’arrêt comme un cédez-le-passage et un feu rouge comme un panneau d’arrêt. Plusieurs États américains (comme l’Arkansas, le Colorado et l’Oregon) et pays, comme la France et la Belgique, ont adopté des règlements semblables. Au Canada et au Québec, des discussions sont en cours pour adopter un tel règlement.




À lire aussi :
Moins de cyclistes… ou répartis autrement ? Le Réseau Express Vélo (REV) à l’épreuve des données


Il est important de noter que l’arrêt Idaho ne cherche pas à légaliser le chaos sur les routes. En effet, les cyclistes doivent quand même céder la priorité aux voitures qui les précèdent au panneau d’arrêt, ainsi qu’en tout temps aux piétons, et ne peuvent s’engager dans l’intersection que lorsqu’elle est libérée.

L’arrêt Idaho a trois avantages principaux.

Premièrement, la règle reconnaît que les dynamiques du vélo diffèrent fondamentalement de celles de la voiture, et ainsi, que ceux-ci ne peuvent pas être traités de façon équivalente.

Deuxièmement, l’arrêt Idaho permet de décharger les tribunaux et les policiers de contraventions.

Troisièmement, l’efficacité du vélo dépend de la conservation de l’élan. S’arrêter complètement, encore et encore, décourage l’usage du vélo, malgré ses nombreux bénéfices pour la santé, l’environnement et la fluidité du trafic.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les effets de la réforme

Face à ces deux approches très différentes quant au Code de la route des vélos, on peut se demander laquelle est la plus appropriée.

Plusieurs études empiriques indiquent que l’adoption de l’arrêt Idaho n’entraîne pas d’augmentation des collisions routières.

Certaines études suggèrent même une diminution modeste des collisions avec l’Arrêt Idaho. En effet, les cyclistes libèrent plus rapidement les intersections, ce qui réduit leur exposition aux voitures. De plus, les automobilistes deviennent plus attentifs aux mouvements des cyclistes.

D’ailleurs, la majorité des usagers de la route, automobilistes comme cyclistes, ne respectent souvent pas les arrêts de façon stricte. Selon une étude menée par la Société de l’assurance automobile du Québec (SAAQ), seulement 35 % des automobilistes font leurs arrêts correctement. Encore selon la SAAQ, seulement 27 % des cyclistes déclarent faire un arrêt complet aux panneaux d’arrêt obligatoires.

Bref, l’adoption de l’arrêt Idaho ne créerait pas le chaos, mais viendrait encadrer une pratique déjà commune, et ce, sans compromettre la sécurité publique, contrairement à certaines inquiétudes. Les cyclistes, qui s’arrêtent rarement complètement en l’absence de circulation, ralentissent toutefois avant de traverser, conscients de leur vulnérabilité.

Un changement de culture

Par ailleurs, l’arrêt Idaho au Québec invite à une réflexion plus large.

Depuis des décennies, nos lois et nos infrastructures routières sont conçues principalement pour les voitures. Plusieurs automobilistes considèrent encore que les cyclistes sont dangereux et adoptent des comportements délinquants.




À lire aussi :
À Montréal, même en doublant les pistes cyclables, les voitures conserveraient 90 % de la chaussée


Pourtant, il est important de se souvenir que les voitures représentent le principal danger structurel sur nos routes, et que les cyclistes sont en réalité vulnérables. Ce danger structurel s’est d’ailleurs accru avec la croissance des véhicules utilitaires sport (VUS) et camions, ce qui augmente les risques pour les piétons et des cyclistes.

L’adoption de l’arrêt Idaho ne donne pas un passe-droit aux cyclistes, mais reconnaît leurs réalités, et légitimise le vélo comme mode de transport, avec un code routier adapté à ses risques et à ses bénéfices. Cette réforme, modeste mais symbolique, pourrait s’inscrire dans un ensemble plus vaste de changements qui offriraient aux citoyens une véritable liberté et sécurité pour se déplacer.

La Conversation Canada

Steve Lorteau a reçu des financements du Conseil de recherches en sciences humaines, l’Association du Barreau canadien et les Instituts de recherche en santé du Canada.

ref. Les cyclistes ont peut-être raison de brûler arrêts et feux rouges. Voici pourquoi – https://theconversation.com/les-cyclistes-ont-peut-etre-raison-de-bruler-arrets-et-feux-rouges-voici-pourquoi-265049

Voters lose when maps get redrawn before every election instead of once a decade − a trend started in Texas, moving to California and likely spreading across the country

Source: The Conversation – USA – By David Patterson Soule, Lecturer of Economics, University of Richmond

The new congressional districts in Texas, and the ones proposed for California, are pervasive upheavals of the relationship between voters and those they elect. Douglas Rissing/iStock/Getty Images Plus

After the U.S. census is conducted every 10 years, each state must redraw its congressional districts to account for any loss or gain of congressional seats and to maintain an equal population in each district.

But in 2025, breaking from standard practice, President Donald Trump has asked Republican states to redraw their districts mid-decade to provide a greater Republican advantage in the upcoming 2026 midterm elections.

Not to be outdone, the Democrats have responded by starting a redistricting effort in California to offset the Republican gains in Texas. Californians will decide whether to approve those changes in a ballot measure on Nov. 4, 2025.

As other states join the fray, this battle for control of the U.S. House of Representatives has escalated to what the media has called a “Redistricting War.” In this war, the control of the House may be determined more by how each party is able to redistrict states they control and less by how citizens vote.

The media and politicians focus on which party is winning or losing seats. But are the citizens winning or losing in this conflict?

Studies have shown that districts contorted for political purposes make it more difficult for constituents to know who their representatives are, reduces representative-citizen interactions and lowers voter participation in elections.

Changing a resident’s congressional district will sever any existing relationship or understanding of who their current representative is and how to seek help or share policy concerns. This forces residents to navigate unfamiliar political terrain as they figure out their new district, who is running, and what the candidates stand for. This added complexity discourages residents from voting.

More importantly, it diminishes their faith in the democratic process.

Two people with question mark bubbles over their heads.
Districts being contorted for political purposes makes it more difficult for constituents to know who their representatives are and lowers voter participation in elections.
Circlon Tech/Getty Images

Staggering scale of changes

Just how big are the changes already enacted in Texas and proposed in California?

The University of Richmond Spatial Analysis Laboratory, which co-author Kyle Redican directs, has analyzed the impact of the mid-decade redistricting changes. The number of redistricting casualties – residents reassigned to a new congressional district – caused by these mid-decade changes in Texas and California is nearly 20 million. That’s about 6% of the overall U.S. population.

The scale of the changes is staggering: 10.4 million Texas residents, about 36% of the state’s population, and 9.2 million California residents, about 23% of the state’s population, will find themselves in new, unfamiliar congressional districts.

Only one district in Texas, of 38 total districts, and eight districts in California, of 52 total districts, remain untouched, making this a pervasive upheaval, not a surgical adjustment.

Most dramatically, nine districts in California and eight districts in Texas will have more than 50% new residents, fundamentally changing the overall composition of those districts.

The 41st District in California will have 100% new residents, while the 9th District in Texas will have 97% new residents, essentially becoming entirely different constituencies.

Making a change of this size mid-decade, as opposed to once every decade, will be highly disruptive and represent a major tear in the fabric of representative democracy.

Lawmakers picking their voters

So who exactly is being moved? The demographic patterns reveal the calculated nature of these partisan manipulations.

In Texas, Black and Hispanic residents are disproportionately shuffled into new districts compared to white residents.

Minorities constitute 67.1% of Texans who have been moved into a new district, while minorities constitute only 56.4% of Texans who get to remain in their same district. By moving more minorities out of a district and into another reliably Republican district, partisan mapmakers are able to reduce the likely Democratic voter share in that district and swing it to be a Republican-leaning district.

California follows the opposite playbook: White residents are disproportionately moved.

There, 41.2% of those moved into a new district are white, while only 32.7% of those who get to remain in their same district are white. In this case, California is moving likely Republican voters into another reliably Democratic district, which reduces the Republican voter share in the original district and swings it to be a Democratic-leaning district.

In either case, legislators are making deliberate decisions about which residents to move to achieve a political goal.

Yet fundamental to a representative democracy is a simple principle: The people choose their representatives. It’s not that representatives choose their constituents. The founders envisioned the House of Representatives as the people’s house, representing and accountable to the voters.

In the current mid-decade redistricting, the legislators are handpicking their constituencies.

Mocking the fundamental idea

Does the redistricting battle ever end?

If mid-decade redistricting becomes an accepted way to win elections, each time a party wins control of a state legislature and governorship they will have the incentive to redistrict. Each of these future redistrictings will continue to negatively affect citizens’ participation in the representative process and mock the fundamental idea that citizens should choose their representatives.

It’s entirely possible that redistricting could happen every two years – though that is an extreme outcome of this competition.

Texas and California have fired the opening shots in the redistricting arms race. Other states – Missouri, North Carolina and Virginia – are joining the fight, each time diminishing the public trust in our democratic process.

Today, it’s 20 million Americans caught in the crossfire. Tomorrow, it could be 100 million as this conflict spreads from state to state. With tit-for-tat redistricting offsetting gains in seats, who is really winning?

For sure, we know who is losing – the people and representative democracy.

Spatial Analysis Lab intern Ryan Poulsen worked on the block data processing for this story.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Voters lose when maps get redrawn before every election instead of once a decade − a trend started in Texas, moving to California and likely spreading across the country – https://theconversation.com/voters-lose-when-maps-get-redrawn-before-every-election-instead-of-once-a-decade-a-trend-started-in-texas-moving-to-california-and-likely-spreading-across-the-country-268181

Rate my AI teacher? Students’ perceptions of chatbots will influence how they learn with AI

Source: The Conversation – Canada – By Nandini Asavari Bharadwaj, Ph.D. Candidate, Learning Sciences Program, Department of Educational & Counselling Psychology, McGill University

A “transformation” is upon us. After a multi-year procession of educational technology products that once promised to shake things up, now it’s AI’s turn.

Global organizations like the Organization for Economic Co-operation and Development, as well as government bodies, present AI to the public as “transformative.”

Prominent AI companies with large language model (LLM) chatbots have “education-focused” products, like ChatGPT Education, Claude for Education and Gemini in Google for Education.

AI products facilitate exciting new ways to search, present and engage with knowledge and have sparked widespread interest and enthusiasm in the technology for young learners. However, there are crucial areas of concern regarding AI use such as data privacy, transparency and accuracy.

Current conversations on AI in education focus on notions it will upend teaching and learning systems in schools, teacher lesson planning and grading or individualized learning (for example, via personalized student tutoring with chatbots). However, when or whether AI will transform education remains an open question.

In the meantime, it is vital to think about how student engagement with chatbots should make us examine some fundamental assumptions about human learning.

Learning is a social affair

How students view their teachers and their own ability to contemplate thinking (known as metacognition) are tremendously important for learning. These factors need to be considered when we think about learning with chatbots.

The popularity of the Rate My Professors website in Canada, United States and the United Kingdom is a testament to the significance of what students think about teachers.

With AI’s foray into education, students’ conceptions of their AI tutors, teachers and graders will also matter for multiple reasons.

First, learning is a thoroughly social affair. From how a child learns through imitating and modelling others to engaging with or being influenced by peers in the classroom, social interactions matter to how we learn.




Read more:
I got an AI to impersonate me and teach me my own course – here’s what I learned about the future of education


With use of chatbots increasing to more than 300 million monthly users, conversational interactions with LLMs also represent a new para-social interaction space for people worldwide.

What we think of interaction partners

Second, theory-of-mind frameworks suggest that what we think of others influences how we interact with them. How children interpret, process or respond to social signals influences their learning.

To develop this idea further, beyond other students or teachers as interaction partners, what we think about learning tools has an influence on how we learn.

Our sense of tools and their affordances — the quality or property of a tool that “defines its possible uses or makes clear how it can or should be used” — can have consequences for how we use the tool.

Perceived affordances can dictate how we use tools, from utensils to computers. If a learner perceives a chatbot to be adept at generating ideas, then it could influence how they use it (for example, for brainstorming versus editing).

New ‘social entity’

AI systems, at a minimum, represent the entrance of a new social entity in educational environments, as they have in the social environment. People’s conceptions of AI can be understood under the larger umbrella of a theory of artificial minds, referring to how humans infer the internal states of AI to predict actions and understand behaviour. This theory extends the notion of theory of mind to non-human AI systems.

A person’s theory of artificial minds could develop based on biological maturation and exposure to the technology, and could vary considerably between different individuals.

3 aspects to consider

It’s important to consider how student conceptions of AI may impact trust of information received from AI systems; personalized learning from AI; and the role that AI may have in a child’s social life:

1. Trust: In human learning, the judgments we make about knowledge and learning go a long way in acceptance of ideas inherent in learning material.

From recent studies in children’s interactions with conversational AI systems, we see that children’s trust in information from AI varies across factors like age and type of information. A learner’s theory of artificial minds would likely affect willingness to trust the information received from AI.

2. Personalized learning: Intelligent tutoring systems (ITS) research has shown excellent results for how traditional ITS — without chatbot engagement — can scaffold learners while also helping students identify gaps in learning for self-correction. New chatbot-based ITS, such as KhanMigo from Khan Academy, are being marketed as providing personalized guidance and new ways to engage with content.

A learner’s theory of artificial minds could affect the quality of interactions between them and their AI chatbot tutor and how much they accept their learning support.




Read more:
Why we should be skeptical of the hasty global push to test 15-year-olds’ AI literacy in 2029


3. Social relationships: The artificial friend (the “AF”) in Kazuo Ishiguro’s Klara and the Sun is a poignant literary example of the impact an artificial entity can have on a growing child’s sense of self and relationship to the world.

We can already see the detrimental effects of introducing children to AI social chatbots with the tragic suicide of a child who was allegedly engaged in emotional and sexual chat conversations with a Character.AI chatbot.

Social relationships with AI involve a serious renegotiation of the social contract regarding our expectations and understanding of each other. Here, relationships with children need special attention, foremost whether we want children to develop social relationships with AI in the first place.

Where do we go from here?

Many discussions about AI literacy are now unfolding, involving, for example, understanding how AI functions, its limitations and ethical issues. Throughout these conversations, it’s essential for educators to recognize that students possess an intuitive sense of how AI functions (or a theory of artificial minds). Students’ intuitive sense of AI shapes how they perceive its educational affordances, even without formal learning.

Instruction must account for students’ cognitive development, existing experiences and evolving social contexts.

The “rate my AI teacher” future is coming. It will require a focus on students’ conceptions of AI to ensure effective, ethical and meaningful integration of AI into future educational environments.

The Conversation

Nandini Asavari Bharadwaj receives funding from Social Sciences and Humanities Research Council of Canada.

Adam Kenneth Dubé receives research funding from Mitacs, Canadian Foundation for Innovation, and the Social Science and Humanities Research Council of Canada. He is the education leadership team member for the McGill Collaborative for AI and Society.

ref. Rate my AI teacher? Students’ perceptions of chatbots will influence how they learn with AI – https://theconversation.com/rate-my-ai-teacher-students-perceptions-of-chatbots-will-influence-how-they-learn-with-ai-265163

Quand « équité » devient « appartenance » : un recul déguisé de l’EDI

Source: The Conversation – in French – By Simon Blanchette, Lecturer, Desautels Faculty of Management, McGill University

Depuis 2024, la contestation des initiatives en matière de diversité, d’équité et d’inclusion (EDI) a pris de l’ampleur en Amérique du Nord. Cette année, ce recul prend une nouvelle forme : le remplacement du mot « équité » au profit de termes plus abstraits, comme « appartenance » ou « communauté ».

À l’Université de l’Alberta, par exemple, il n’y a plus de vice‑provost à l’équité, à la diversité et à l’inclusion. L’établissement dispose désormais d’un bureau de « l’accès, de la communauté et de l’appartenance ».

De même, la société Alberta Investment Management Corporation (AIMCo) a éliminé son poste de direction consacré à l’EDI lors d’une restructuration. Un porte‑parole a soutenu que « le départ de la personne responsable du programme officiel d’EDI n’a en rien diminué l’engagement ferme d’AIMCo envers ces principes ». Permettez-moi d’en douter.

Un virage similaire est en cours à l’Université de Lethbridge, qui a créé en décembre un bureau de « l’accessibilité, de l’appartenance et de la communauté. »

Si la langue évolue naturellement, ce changement ressemble davantage à un repli déguisé qu’à un véritable progrès, car il manque l’engagement délibéré nécessaire à l’équité.

Un repli déguisé en progrès

Les appels à rebaptiser les démarches d’EDI existent depuis des années et sont légitimes, y compris au sein du milieu lui‑même. Mais les changements actuels vers l’« appartenance » manquent souvent de véritable engagement communautaire et de la participation des parties concernées.

Les efforts actuels de rebranding relèvent davantage de l’apaisement que du progrès. Ce sont des gestes réactifs, dictés par des pressions externes, plutôt que des réponses aux besoins et aux demandes des communautés les plus concernées.

Autrefois reconnu comme essentiel pour s’attaquer à la discrimination systémique, le terme « équité » est devenu aujourd’hui un paratonnerre politique.

Certaines institutions subissent désormais des pressions politiques, d’actionnaires ou de donateurs qui présentent les initiatives d’EDI comme clivantes ou idéologiquement extrêmes, les poussant à s’en distancier.

Dans le monde des affaires, la tendance est frappante. Les mentions d’« EDI » dans les dépôts réglementaires des sociétés du S&P 500 ont chuté de 70 % depuis 2022, remplacées par des termes plus consensuels comme « appartenance » et « culture inclusive ».

Ce changement permet aux organisations d’échapper à leurs responsabilités, de masquer les inégalités et de remplacer les cadres d’équité mesurables par des platitudes vagues.

Pourquoi est-ce important ?

En adoucissant les termes utilisés, les organisations s’assurent un moyen socialement acceptable de se soustraire à la difficile mission qu’est l’équité. Comme si elles avaient « dépassé » l’équité, alors qu’elles n’ont jamais fait le travail nécessaire. C’est en quelque sorte une illusion.

Supprimer l’équité du langage organisationnel a des conséquences tangibles. Tout d’abord, cela compromet l’imputabilité. Les cadres d’équité efficaces créent des objectifs mesurables et vérifiables. Des termes tels que « appartenance » sont plus difficiles à définir et plus faciles à abandonner. Ils permettent aux organisations de prétendre s’engager en faveur de l’inclusion sans avoir à fournir les efforts nécessaires à un réel changement systémique.

Ensuite, cela risque de laisser des gens de côté. L’équité se concentre sur ceux qui font face à de vrais obstacles structurels : femmes, personnes noires et racisées, Autochtones, communautés 2ELGBTQI+ et personnes en situation de handicap. Si ce terme disparaît, ces groupes risquent de perdre toute visibilité dans les politiques, le financement et la reddition de comptes.

Enfin, les organisations elles‑mêmes s’exposent à des risques. Les reculs en matière d’EDI nuisent au moral, à la rétention, à l’innovation et à la performance, et peuvent même accroître le risque juridique.

Un sondage de 2025 du Meltzer Center for Diversity, Inclusion, and Belonging (NYU) révèle que 80 % des dirigeants estiment que la réduction des efforts en équité augmente les risques réputationnels et juridiques. Il fait aussi état d’un large consensus selon lequel les initiatives d’EDI améliorent la performance financière des entreprises.

Le mythe de la méritocratie

Une justification fréquente pour abandonner le mot « équité » est le souhait de revenir à la « méritocratie ». La méritocratie repose sur l’idée que les individus devraient être récompensés selon leur talent et leurs efforts.

Mais la méritocratie suppose l’égalité des chances et occulte le fait que le « mérite » est une construction sociale qui dépend du contexte. Elle ignore que des barrières inégales – comme l’accès à l’éducation et aux réseaux – influencent la réussite individuelle, et ce outre les réalisations de la personne.

La méritocratie suppose également que la diversité est privilégiée au détriment des qualifications, ce qui n’est pas le cas. Nous pouvons, et devons, nous concentrer à la fois sur les compétences et sur l’inclusion.

Les travaux du professeur Emilio J. Castilla, du Massachusetts Institute of Technology (MIT), ont montré que les organisations se réclamant de la méritocratie renforcent souvent les biais – c’est ce qu’on appelle le « paradoxe de la méritocratie ».

Par exemple, dans une étude réalisée auprès de 445 participants ayant une expérience en gestion, les chercheurs ont demandé aux participants de prendre des décisions concernant les primes, les promotions et les licenciements d’employés fictifs. Lorsque la culture d’une organisation mettait l’accent sur la méritocratie, les hommes recevaient des primes plus élevées que les femmes ayant les mêmes qualifications.

À l’inverse, lorsque la culture d’entreprise mettait plutôt l’accent sur le pouvoir discrétionnaire des dirigeants, le biais s’inversait en faveur des femmes. Cela s’explique vraisemblablement par le fait que l’énoncé signalait un biais de genre potentiel, déclenchant une sur‑correction.

Dans un troisième scénario, où ni la méritocratie ni la discrétion managériale n’étaient mises de l’avant, il n’y avait pas de différence significative dans les primes accordées.

Bien que le dernier scénario semble prometteur, la plupart des environnements de travail privilégient la méritocratie, consciemment ou non. La rémunération basée sur le mérite ou la performance demeure la norme dans la plupart des organisations, ce qui signifie que le premier scénario est le plus fréquent.

Sans transparence, le discours sur « qui mérite » une promotion/un bonus a tendance à renforcer les inégalités. Le népotisme, les avantages liés aux réseaux et la visibilité sélective comblent souvent le vide lorsque les cadres d’équité sont abandonnés. Les réseaux et la visibilité comptent, mais ils ne doivent pas être confondus avec le mérite.

Ironiquement, les critiques les plus virulents des initiatives en matière d’équité demeurent muets lorsque ce sont les privilèges hérités ou les relations privilégiées qui déterminent qui accède à des postes de direction.

Que peuvent faire les organisations ?

Alors que certaines institutions reculent sur leurs engagements en matière d’EDI, d’autres au Canada et en Europe maintiennent le cap en intégrant l’équité à leur stratégie, à leur leadership et à leurs cadres de performance.

Pour faire progresser l’équité dans le contexte actuel, il faut à la fois une stratégie et une mobilisation continue. Voici par où les organisations peuvent commencer :

  1. Établir et intégrer des objectifs explicites et mesurables en matière d’équité, alignés sur la stratégie de leur entreprise.

  2. Améliorer la transparence des données en collectant et en partageant publiquement des informations désagrégées sur le recrutement, la promotion, l’équité salariale, le taux de rotation du personnel et l’expérience des employés.

  3. Donner un véritable pouvoir décisionnel aux voix issues de la diversité dans l’élaboration des politiques et des initiatives. Les groupes‑ressources d’employés constituent un excellent point de départ.

  4. Tenir les leaders imputables en les formant à promouvoir l’équité et en liant leurs incitatifs à des résultats concrets en matière de diversité, d’équité et d’inclusion.

  5. Communiquez de manière transparente et authentique sur les impacts de l’EDI en partageant des témoignages et des indicateurs qui montrent comment les efforts en matière d’équité ont amélioré les performances de l’organisation.

Ces solutions fonctionnent déjà. Dans ma pratique de consultant, j’ai accompagné des organisations qui progressent en bâtissant la confiance, en dynamisant leurs équipes et en stimulant l’innovation. Au final, elles sont plus performantes et plus résilientes.

L’argument économique pour l’équité, la diversité et l’inclusion est bien établi : L’EDI stimule la performance, soutient la croissance et constitue un impératif de leadership. Dans le climat politique actuel, il est crucial de rester concentré sur les résultats plutôt que de se laisser entraîner par un discours qui présente l’équité comme inutile ou clivante.

La voie à suivre

Rebaptiser « l’équité » en « appartenance » ne fait pas avancer la justice, surtout en l’absence d’une définition partagée de ce que signifie réellement « appartenance ». Cela nie poliment la nécessité de démanteler de véritables barrières systémiques. Pour les personnes qui font face à ces barrières, cela sonne comme une promesse creuse.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Personne ne choisit sa race, son sexe, son milieu socio-économique, son orientation sexuelle, ni de vivre avec un handicap ou les séquelles durables du service militaire (par exemple, un trouble de stress post-traumatique). En revanche, les institutions peuvent choisir de s’attaquer aux inégalités liées à ces expériences et de démanteler les obstacles auxquels les individus sont confrontés.

Ce moment invite également à une réflexion honnête au sein même du secteur de l’EDI. Certaines initiatives ont dépassé les limites ou perdu de vue leur objectif, ce qui a contribué au contrecoup actuel. Reconnaître ouvertement ces faux pas fait partie du travail de reconstruction de la crédibilité de l’EDI.

L’essence de l’équité consiste à assurer la dignité et une chance réelle et égale de réussir. Abandonner le travail en faveur de l’équité – ou l’édulcorer au point de le rendre insignifiant – ne peut pas être une solution.

Pour progresser, il est nécessaire de réduire la polarisation, d’ouvrir le dialogue, et de mieux coordonner les actions afin que chaque personne ait une chance équitable de s’épanouir et de réussir.

La Conversation Canada

Simon Blanchette ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand « équité » devient « appartenance » : un recul déguisé de l’EDI – https://theconversation.com/quand-equite-devient-appartenance-un-recul-deguise-de-ledi-263480

Un microbio dio origen a la tradición de tallar calabazas en Halloween

Source: The Conversation – (in Spanish) – By Raúl Rivas González, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología., Universidad de Salamanca

Bogdan Sonjachnyj/Shutterstock

El elemento visual más icónico de la festividad de Halloween es, sin duda, la Jack O’Lantern, una calabaza vaciada y tallada con apariencia de rostro, a menudo de aspecto grotesco o sonriente, que sirve de linterna. En el interior hueco de la calabaza se coloca una fuente de luz, tradicionalmente una vela, cuyo parpadeo proyecta sombras fantasmales y da vida a la mueca tallada, creando una atmósfera inconfundible de misterio y celebración.

La especie de calabaza más utilizada para Halloween –contracción de la expresión inglesa All Hallows’ Eve, que significa “víspera de Todos los Santos”– es la Cucurbita pepo; por ejemplo, las variedades Connecticut field o Jack O’Lantern. Debido a su color, forma redondeada y corteza resistente, resulta ideal para tallar. Pero ojo, porque no siempre se utilizó una calabaza: al principio se tallaban otras hortalizas. Concretamente, nabos.

Jack, el Tacaño

La leyenda más famosa asociada con el origen de la tradición de las hortalizas talladas de Halloween nos lleva a la Irlanda del siglo XVIII y está vinculada a una figura del folclore irlandés conocida como Jack el Tacaño, aunque también recibe los nombres de Jack el Herrero, Jack el Borracho o Jack el Excéntrico.

Jack engañó al diablo dos veces. Primero le convenció para que se transformara en una moneda con la que pagar una última bebida antes de llevárselo al infierno, y después lo dejó atrapado en la copa de un árbol. Para conseguir la libertad, el diablo tuvo que prometer a Jack que jamás volvería a reclamar su alma.

Sin embargo, cuando Jack murió, no pudo entrar en el cielo debido a su vida pecaminosa. El diablo cumplió el trato y nuestro hombre quedó condenado a vagar por la Tierra en la oscuridad eterna, sin poder descansar ni en el cielo ni en el infierno. El maligno, a modo de burla, le arrojó una brasa encendida del averno para que iluminara su camino. Jack puso la brasa dentro de un nabo hueco, que usó a modo de linterna. Y así quedó convertido en Jack O’Lantern (Jack, el de la linterna).

Samhain, la festividad gaélica

La celebración de Halloween tiene raíces arcaicas vinculadas, en gran parte, al festival celta conocido como Samhain, que marcaba el final de la temporada de cosechas y el comienzo del año nuevo celta. En el siglo XVIII, mucha gente de Irlanda celebraba el Samhain, la festividad gaélica, con sus rituales de ir de casa en casa en busca de comida y bebida. De ahí la tradición del “truco o trato”.

Como en la Irlanda preindustrial reinaba la oscuridad, muchos tallaban nabos, patatas y otras hortalizas de raíz y les añadían carbón o velas para crear faroles improvisados que sirvieran de guía a los asistentes. En ocasiones, incluso tallaban rostros en ellas.

Además, existía la creencia antigua que, en la noche de Halloween, la frontera entre el mundo de los vivos y el de los muertos se debilitaba, permitiendo a los espíritus buenos y malos regresar. Por esta razón, esa noche las linternas vegetales eran colocadas en las ventanas o entradas de las casas para ahuyentar a esos espíritus, incluido el de Jack O’Lantern. Con el tiempo, los lugareños comenzaron a tallar caras terroríficas en los nabos para ahuyentar a los espíritus malignos.

Un microorganismo cambió los nabos y las patatas por calabazas

La Gran Hambruna irlandesa, también conocida como “hambruna de la patata”, fue un periodo devastador de inanición, enfermedad y migraciones masivas que afectó a Irlanda entre 1845 y 1849, aunque las consecuencias se extendieron hasta 1852.

Aunque se desconocen las cifras exactas, los registros apuntan que al menos se produjeron 1 100 000 de muertes y una emigración masiva de otro millón de personas, lo que supuso un descenso poblacional de casi el 30 %. En realidad, el funesto desenlace del acontecimiento fue multifactorial: confluyeron motivos políticos, religiosos, económicos y, sobre todo, microbiológicos. En concreto, una plaga provocada por el oomiceto Phytophthora infestans, conocido como tizón tardío, destruyó la cosecha de patatas, el alimento básico para gran parte de la población irlandesa pobre. El patógeno es muy agresivo, y los vegetales y cultivos más importantes a los que afecta son la patata y el tomate.

Para desgracia de los irlandeses, el oomiceto se estableció en el suelo. Los siguientes años fueron demoledores, ya que el patógeno persistía y las patatas desaparecían o malograban. Por entonces, no existían sustancias químicas ni métodos genéticos para combatir a Phytophthora. La hambruna y las enfermedades asociadas se cebaron con los más pobres. La desnutrición facilitó la incidencia de infecciones severas como la fiebre tifoidea, la tuberculosis, la difteria o el cólera. Cientos de miles de personas no pudieron superar la debacle y perecieron.

Los irlandeses llevaron Halloween a Estados Unidos

Los más afortunados consiguieron emigrar en busca de nuevas oportunidades, aunque muchos lo hicieron en condiciones deplorables y sucumbieron durante la travesía. La colonia de emigrantes irlandeses más numerosa se estableció en Estados Unidos, un país de mayoría protestante. Sin embargo, más del 90 % de los migrantes irlandeses eran católicos, lo que supuso un impacto notable en la sociedad estadounidense.

De hecho, con los emigrantes irlandeses muchas tradiciones cruzaron el Atlántico. Cuando llegó el momento de celebrar Halloween, hubo un problema de gran magnitud: en América los nabos no eran fáciles de encontrar. Por suerte, los irlandeses inmigrantes encontraron una hortaliza nativa, mucho más grande, llamativa, abundante en otoño y fácil de vaciar y tallar: la calabaza. De inmediato, ésta sustituyó a los nabos y a cualquier otra hortaliza candidata.

Las calabazas talladas con rostros espeluznantes no tardaron en volverse esenciales en las celebraciones de Halloween. Aunque inicialmente servían para ahuyentar el espíritu de Jack y otras almas errantes, con el tiempo, la Jack O’Lantern evolucionó a un simple símbolo festivo. Hoy adorna las casas, mezclando terror y diversión durante todo el mes de octubre.

Calabazas divertidas, pero también peligrosas

Pero ojo, porque las calabazas pueden esconder un peligro. Un estudio publicado en el año 2006, analizó la rápida descomposición fúngica de las calabazas de Halloween (Cucurbita pepo) en Irlanda del Norte durante octubre de 2005. Encontraron que, tras ser talladas y exhibidas, desarrollaban un notorio deterioro microbiano. La investigación reveló la presencia de al menos cinco géneros de hongos (Penicillium, Gibberella, Mucor, Nectria y Fusarium), tres de ellos conocidos por causar infecciones en personas inmunocomprometidas, un riesgo que no había sido documentado previamente.

Por lo tanto, aunque estas hortalizas pueden seguir siendo parte de las festividades, en entornos sanitarios con pacientes vulnerables se recomienda la inspección periódica de las calabazas talladas para procurar minimizar la dispersión de esporas y realizar su descarte inmediato si se observa contaminación fúngica.

The Conversation

Raúl Rivas González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Un microbio dio origen a la tradición de tallar calabazas en Halloween – https://theconversation.com/un-microbio-dio-origen-a-la-tradicion-de-tallar-calabazas-en-halloween-268602

De Chirac à Macron, comment ont évolué les dépenses de l’État

Source: The Conversation – in French – By François Langot, Professeur d’économie, Directeur adjoint de l’i-MIP (PSE-CEPREMAP), Le Mans Université

Pour stabiliser la dette publique de la France, l’État doit réduire son déficit. Outre la hausse des prélèvements, il doit aussi de diminuer ses dépenses. Mais avant de les réduire, il importe de savoir comment ces dépenses ont évolué ces trente dernières années.


L’analyse historique des dépenses de l’État peut être utile pour prendre aujourd’hui des décisions budgétaires. Qu’ont-elles financé ? Les salaires des agents ? Des achats de biens et services ? Des transferts ? Quels types de biens publics ont-elles permis de produire (éducation, santé, défense…) ?

Le futur budget de l’État doit tenir compte de ces évolutions passées, des éventuels déséquilibres en résultant, tout en réalisant que ces choix budgétaires auront des impacts sur la croissance et les inégalités spécifiques à la dépense considérée.

Près de 30 milliards d’économies annoncées

Le projet de loi de finances actuellement discuté pour l’année 2026 prévoit 30 milliards d’euros d’économies, ce qui représente 1,03 % du PIB. Ces économies sont obtenues avec 16,7 milliards d’euros de réduction de dépenses (0,57 point de PIB), et 13,3 milliards d’euros de hausse de la fiscalité. Le déficit public, prévu à 5,6 % en 2025 (163,5 milliards d’euros pour 2025) ne serait donc réduit que de 18,35 %. Pour atteindre l’objectif de stabiliser la dette publique, il faudra amplifier cet effort les prochaines années pour économiser approximativement 120 milliards d’euros (4 points de PIB), soit quatre fois les économies prévues dans le PLF 2026.

Ces réductions à venir des dépenses s’inscrivent dans un contexte. En moyenne, dans les années 1990, les dépenses publiques représentaient 54 % du PIB. Dans les années 2020, elles avaient augmenté de 3 points, représentant alors 57 % du PIB, soit une dépense annuelle additionnelle de 87,6 milliards d’euros, ce qui représente plus de cinq fois les économies inscrites dans le PLF pour 2026. Depuis 2017, ces dépenses ont augmenté d’un point de PIB, soit une hausse annuelle de 29,2 milliards d’euros (1,75 fois plus que les économies du PLF 2026). Étant données ces fortes hausses passées, des réductions de dépenses sont possibles sans remettre en cause le modèle social français. Mais, quelles dépenses réduire ?




À lire aussi :
L’endettement de l’État sous Chirac, Sarkozy, Hollande, Macron… ce que nous apprend l’histoire récente


De plus en plus de transferts sociaux

Chaque poste de dépense se compose d’achats de biens et services (B & S) utilisés par l’État (au sens large, c’est-à-dire l’ensemble des administrations publiques centrales, locales et de sécurité sociale) pour produire, de salaires versés aux agents, et de transferts versés à la population. Quel poste a fortement crû depuis 1995 ?

Le tableau 1 montre qu’en 1995, 40,2 % des dépenses étaient des transferts (soit 22,05 points de PIB), 35,5 % des achats de B & S (soit 19,45 points de PIB) et 24,3 % des salaires (soit 13,33 points de PIB). En 2023, 44,1 % étaient des transferts (+ 3,06 points de PIB), 34,5 % des achats de B & S (- 0,15 point de PIB) et 21,4 % des salaires (- 1,07 points de PIB). Le budget s’est donc fortement réorienté vers les transferts. Les dépenses consacrées aux salaires ont évolué moins vite que le PIB, le poids de ces rémunérations dans les dépenses baissant fortement.

Lecture : En 1995, les transferts représentaient 22,05 points de PIB, soient 40,2 % des dépenses totales. Le chiffre entre parenthèses indique la part de cette dépense dans les dépenses totales. Δ : différence entre 2023 et 1995 en points de PIB et le chiffre entre parenthèses l’évolution de la part.

L’État a donc contenu ces achats de B & S et réduit sa masse salariale, quand bien même les effectifs croissaient de plus de 20 % (données FIPECO). Simultanément, l’emploi salarié et non salarié du secteur privé augmentait de 27 % (données Insee). Des effectifs augmentant moins que dans le privé et une part de la production de l’État dans le PIB progressant révèlent une plus forte hausse de la productivité du travail du secteur public. Mais, ceci ne s’est pas traduit par une augmentation des rémunérations du public. Au contraire, l’écart de salaire entre le public et le privé s’est fortement réduit sur la période, passant de +11,71 % en 1996 en faveur du public (données Insee (1999) pour le public et Insee (1997) pour le privé), à 5,5 % en 2023 (données Insee (2024a) pour le privé et Insee (2024b) pour le public).

Cette première décomposition montre que l’organisation de la production de l’État (achat de B & S et salaires) n’a pas dérivé, mais que les hausses des dépenses de redistribution (+ 3,06 points de PIB en trente ans) ont fortement crû. Ces hausses de transferts correspondent aux trois quarts des économies nécessaires à la stabilisation de la dette publique.

De moins en moins d’argent pour les élèves et la défense

Les dépenses de l’État se décomposent en différents services, c’est-à-dire, en différentes fonctions (l’éducation, la défense, la protection sociale…). La figure 1 montre que les dépenses des services généraux, d’éducation et de la défense ont crû moins vite que le PIB depuis 1995 (surface rouge). En effet, leurs budgets en points de PIB ont respectivement baissé de 2,14 points, 0,78 point et 0,68 point de PIB. Si la baisse du premier poste peut s’expliquer, en partie, par la rationalisation liée au recours aux technologies de l’information, et la seconde par l’arrêt de la conscription, celle de l’éducation est plus surprenante.

Elle l’est d’autant plus que Aubert et al. (2025) ont montré que 15 % de ce budget incluait (soit 0,75 point de PIB) des dépenses de retraites qu’il « faudrait » donc réallouer vers les pensions pour davantage de transparence. La croissance constante de cette contribution aux pensions dans le budget de l’éducation indique que les dépenses consacrées aux élèves sont en forte baisse, ce qui peut être mis en lien avec la dégradation des résultats des élèves de France aux tests de type Pisa. Enfin, dans le contexte géopolitique actuel, la baisse du budget de la Défense peut aussi sembler « peu stratégique ».

Lecture : En 1995, les dépenses de protection sociale représentaient 21,41 points de PIB, dont 18,14 points de PIB en transferts, 1,16 point en salaires et 2,11 points en B&S ; en 2023, elles représentaient 23,33 points de PIB dont 20,16 points, 1,12 point en salaire et 2,0 points en B&S.

De plus en plus pour la santé et la protection sociale

La surface verte de la figure 1 regroupe les fonctions qui ont vu leurs budgets croître plus vite que le PIB, de la plus faible hausse (ordre public/sécurité, avec + 0,24 point de PIB) aux plus élevées (santé, + 1,72 point de PIB, et protection sociale, + 1,92 point de PIB). Ces deux postes de dépenses représentent 65,3 % des hausses. Viennent ensuite les budgets sport/culture/culte, environnement et logement qui se partagent à égalité 24 % de la hausse totale des dépenses (donc approximativement 8 % chacun). Enfin, les budgets des affaires économiques et de l’ordre public/sécurité expliquent les 10,7 % restant de hausse des dépenses, à hauteur de 6,4 % pour le premier et 4,3 % pour le second.

Si l’on se focalise sur les plus fortes hausses, c’est-à-dire, la santé et la protection sociale, les raisons les expliquant sont différentes. Pour la protection sociale, les dépenses de fonctionnement sont quasiment stables (B&S et salaires) alors que les prestations sont en forte hausses (+ 2 points de PIB). Les dépenses de santé voient aussi les prestations offertes croître (+ 1 point de PIB), mais se caractérisent par des coûts croissants de fonctionnement : + 0,6 point pour les B&S, et + 0,12 point de PIB pour les salaires des personnels de santé, alors que les rémunérations baissent dans le public, ceux des agents de l’éducation, par exemple, passant de 4,28 à 3,47 points de PIB (-0,81 points de PIB).

Dans la protection sociale, de plus en plus pour la maladie et les retraites

La protection sociale, premier poste de dépense (23,33 % du PIB), regroupe différentes sous-fonctions représentées dans la figure 2. À l’exception des sous-fonctions maladie/invalidité (+ 0,07 point de PIB), exclusion sociale (+ 0,43 point du PIB) et pensions (+ 2,41 points de PIB), les budgets de toutes les sous-fonctions de la protection sociale ont vu leur part baisser (surface en rouge). Les réformes des retraites ont donc été insuffisantes pour éviter que les pensions soient la dépense en plus forte hausse.

Enfin, si on ajoute aux dépenses de santé la partie des dépenses de protection sociale liée à la maladie et à l’invalidité (voir la figure 2), alors ces dépenses globales de santé ont crû de 1,79 point de PIB entre 1995 et 2023.

Quels enseignements tirer ?

Ces évolutions suggèrent que les budgets à venir pourraient cibler les économies sur les dépenses de santé et les pensions, ces deux postes ayant déjà fortement crû dans le passé. Évidemment, une partie de ces hausses est liée à l’inévitable vieillissement de la population. Mais une autre vient de l’augmentation des prestations versées à chaque bénéficiaire. Par exemple, la pension de retraite moyenne est passée de 50 % du salaire moyen dans les années 1990 à 52,3 % en 2023. Le coût de la prise en charge d’un infarctus du myocarde est passé de 4,5 Smic dans les années 1990 à 5,6 Smic dans les années 2020

France 24, octobre 2025.

En revanche, un rattrapage portant sur l’éducation et la Défense semble nécessaire au vu du sous-investissement passé et des défis à venir. Les rémunérations des agents du public doivent aussi être reconsidérées. Le tableau 2 montre que le PLF 2026 propose des mesures répondant en partie a ce rééquilibrage en réduisant les dépenses de protection sociale et en particulier les pensions. Enfin, le PLF 2026 prévoit une hausse du budget de la défense, alors que la réduction de 8,6 milliards d’euros des budgets des fonctions hors défense et ordre public épargne l’éducation.

Au-delà de ces arguments de rééquilibrage, les choix budgétaires doivent aussi reposer sur une évaluation d’impact sur l’activité (croissance et emploi). Les analyses de Langot et al. (2024) indiquent que les baisses de transferts indexés sur les gains passés (comme les retraites) peuvent avoir un effet positif sur la croissance, facilitant alors la stabilisation de la dette publique, au contraire des hausses des prélèvements.

Privilégier la production des biens publics aux dépens des transferts se justifie aussi au regard des enjeux géopolitiques et climatiques, et permet également de réduire les inégalités (voir André et al. (2023)).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. De Chirac à Macron, comment ont évolué les dépenses de l’État – https://theconversation.com/de-chirac-a-macron-comment-ont-evolue-les-depenses-de-letat-268520

Stabilité affichée, risques cachés : le paradoxe des « stablecoins »

Source: The Conversation – France (in French) – By Céline Antonin, Chercheur à Sciences Po (OFCE) et chercheur associé au Collège de France, Sciences Po

Les _stablecoins_ apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États, notamment ceux de la zone euro. Funtap/Shutterstock

Présentés comme des ponts entre la finance traditionnelle et l’univers des cryptoactifs, les « stablecoins » (jetons indexés) prétendent révolutionner la monnaie et la finance. Pourtant, ils portent en germe une double menace : la fragilisation de l’ordre monétaire, fondé sur la confiance, et de l’ordre financier, en créant de nouveaux canaux de risque.


Les « stablecoins » sont des « jetons qui ont pour objectif de pallier la forte volatilité des cryptoactifs traditionnels grâce à l’indexation de leur valeur sur celle d’une devise ou d’un panier de devises (dollar, euro, yen) dans un rapport de 1 : 1, ou encore sur une matière première (or, pétrole) » ainsi que nous l’expliquons dans notre ouvrage avec Nadia Antonin. Pour chaque unité de stablecoin émise, la société émettrice conserve en réserve une valeur équivalente, sous forme de monnaie fiduciaire ou d’actifs tangibles servant de garantie.

On peut distinguer trois types de stablecoins en fonction du type d’ancrage :

  • Les stablecoins centralisés, où l’ancrage est assuré par un fonds de réserve stocké en dehors de la chaîne de blocs (off chain).

  • Les stablecoins décentralisés garantis par d’autres cryptoactifs, où le collatéral est stocké sur la chaîne de blocs (on chain).

  • Les stablecoins décentralisés algorithmiques.

Fin octobre 2025, la capitalisation de marché des stablecoins atteint 312 milliards de dollars (plus de 269 milliards d’euros), dont 95 % pour les stablecoins centralisés. Nous nous concentrons sur ces derniers.

Genius Act vs MiCA

Concernant la composition des réserves, les réglementations diffèrent selon les pays. La loi Genius, adoptée par le Congrès des États-Unis en juillet 2025, dispose que chaque stablecoins de paiement doit être garanti à 100 % par des actifs liquides, principalement des dollars américains, des bons du Trésor ou des dépôts bancaires. Il prévoit également des rapports mensuels détaillés et un audit annuel obligatoire pour les grands émetteurs.

Dans l’Union européenne (UE), le règlement MiCA impose des conditions beaucoup plus strictes. Il exige que les actifs soient entièrement garantis par des réserves conservées dans des banques européennes et soumis à des audits indépendants au moins deux fois par an.

Stabilité du système monétaire fragilisée

Crypto-actifs. Une menace pour l’ordre monétaire et financier, par Céline et Nadia Antonin.
Economica, Fourni par l’auteur

Bien que plus « stables » en apparence que d’autres cryptoactifs, les stablecoins échouent à satisfaire les trois principes qui, selon la littérature monétaire institutionnelle, définissent la stabilité d’un système monétaire : l’unicité, l’élasticité et l’intégrité.

Historiquement, le principe d’unicité garantit que toutes les formes de monnaie
– billets, dépôts, réserves… – sont convertibles à parité, assurant ainsi une unité de compte stable. Les stablecoins, émis par des acteurs privés et non adossés à la monnaie centrale, mettent fin à cette parité : leur valeur peut s’écarter de celle de la monnaie légale, introduisant un risque de fragmentation de l’unité monétaire.

Le principe d’élasticité renvoie à la capacité du système monétaire à ajuster l’offre de liquidités aux besoins de l’économie réelle. Contrairement aux banques commerciales, qui créent de la monnaie par le crédit sous la supervision de la banque centrale, les émetteurs de stablecoins ne font que transformer des dépôts collatéralisés : ils ne peuvent ajuster la liquidité aux besoins de l’économie.

Le principe d’intégrité suppose un cadre institutionnel garantissant la sécurité, la transparence et la légalité des opérations monétaires. Les stablecoins échappent à la supervision prudentielle, exposant le système à des risques de blanchiment, de fraude et de perte de confiance.

La question des réserves

L’existence et la qualité des réserves sont fragiles. Il faut garder à l’esprit que les actifs mis en réserve ne sont pas équivalents à la monnaie banque centrale : ils sont exposés aux risques de marché, de liquidité et de contrepartie.

Aux États-Unis, les émetteurs (comme Tether ou Circle) publient des attestations périodiques, mais ne produisent pas d’audit en temps réel. Rappelons qu’en 2021, Tether s’était vu infliger une amende de 41 millions de dollars (plus de 35 millions d’euros) par la Commodity Futures Trading Commission des États-Unis, pour avoir fait de fausses déclarations sur la composition de ses réserves. Les réserves sont souvent fragmentées entre plusieurs juridictions et déposées dans des institutions non réglementées.




À lire aussi :
Où placer les stablecoins parmi les cryptoactifs ?


Le modèle économique des émetteurs de stablecoins repose sur la rémunération de leurs réserves. Il va de soi qu’ils n’ont aucun intérêt à détenir des actifs sûrs et à faible rendement. Imaginons que survienne une annonce qui sèmerait le doute sur la qualité des réserves. En l’absence d’accès aux facilités de la banque centrale ou à une assurance-dépôts, une perte de confiance se traduirait mécaniquement par une panique et un risque de perte d’ancrage.

Cette fragilité mine l’une des fonctions essentielles de la monnaie : la réserve de valeur.

Instrument de dollarisation et de colonisation monétaire

Les stablecoins apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États. En 2025, 99,0 % des stablecoins sont adossés au dollar en termes de capitalisation de marché. En diffusant des stablecoins adossés au dollar dans les économies émergentes ou faiblement bancarisées, les stablecoins favorisent une dollarisation numérique qui érode la souveraineté monétaire des banques centrales.

Pour l’UE, le risque est celui d’une colonisation monétaire numérique : des systèmes de paiement, d’épargne et de règlement opérés par des acteurs privés extra-européens. Les stablecoins conduisent également à une privatisation du seigneuriage – la perception de revenus liés à l’émission de monnaie, normalement perçus par la Banque centrale européenne (BCE). Les émetteurs de stablecoins captent la rémunération des actifs de réserve sans redistribuer ce rendement aux porteurs. Ce modèle détourne la fonction monétaire : la liquidité publique devient une source de profit privé, sans contribution à la création de crédit ou à l’investissement productif.

Risque de crise financière systémique

L’interconnexion entre stablecoins et finance traditionnelle accroît le risque systémique. En cas de perte de confiance, un mouvement de panique pourrait pousser de nombreux détenteurs à échanger leurs stablecoins, mettant en péril la capacité des émetteurs à rembourser. Or, les détenteurs ne sont pas protégés en cas de faillite, ce qui renforce le risque de crise systémique.

Le marché des stablecoins est très lié au marché de la dette souveraine états-unienne. La demande supplémentaire de stablecoins a directement contribué à l’augmentation des émissions de bons du Trésor à court terme (T-bills) aux États-Unis et à la baisse de leur rendement. La liquidation forcée de dizaines de milliards de T-bills perturberait le marché états-unien de la dette à court terme.

Risque de crédit et de fraude

Les stablecoins accroissent le risque de crédit, car comme les autres cryptoactifs, ils offrent un accès facilité à la finance décentralisée. Or, les possibilités d’effets de levier – autrement dit d’amplification des gains et des pertes – sont plus forts dans la finance décentralisée que dans la finance traditionnelle.

Mentionnons le risque de fraude : selon le Groupe d’action financière (Gafi), les stablecoins représentent désormais la majeure partie des activités illicites sur la chaîne de blocs, soit environ 51 milliards de dollars (44 milliards d’euros) en 2024.

Les stablecoins fragilisent la souveraineté des États, introduisent une fragmentation monétaire et ouvrent la voie à de nouvelles vulnérabilités financières. Pour l’Europe, l’alternative réside dans le développement d’une monnaie numérique de banque centrale, où l’innovation se conjugue avec la souveraineté. La vraie innovation ne réside pas dans la privatisation de la monnaie, mais dans l’appropriation par les autorités monétaires des outils numériques.


Cette contribution est publiée en partenariat avec les Journées de l’économie, cycle de conférences-débats qui se tiendront du 4 au 6 novembre 2025, au Lyon (Rhône). Retrouvez ici le programme complet de l’édition 2025, « Vieux démons et nouveaux mondes ».

The Conversation

Céline Antonin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Stabilité affichée, risques cachés : le paradoxe des « stablecoins » – https://theconversation.com/stabilite-affichee-risques-caches-le-paradoxe-des-stablecoins-267675

Cinéma : le « slasher » chez Wes Craven, ou le retour du refoulé

Source: The Conversation – France (in French) – By Maxime Parola, Doctorant en Art, Université Côte d’Azur

Un détail de l’affiche des _Griffes de la nuit_ (_A Nightmare on Elm Street_, 1984), signée de Joseph Peak. Allociné

Apparu dans les années 1970, le « slasher » est une catégorie de film d’horreur répondant à une typologie très stricte et particulièrement codifiée. Si le réalisateur Wes Craven n’est pas à proprement parler à l’origine du genre, il y a contribué de façon significative au travers de plusieurs films dont les plus marquants sont sans conteste « les Griffes de la nuit » (1984), où apparaît la figure de Freddy Krueger, et « Scream » (1996) qui lancera la vague des « neo-slashers ».


Le slasher se définit par un certain nombre de figures imposées tant dans le type de personnages mis en scène que par l’histoire qu’il raconte. C’est toujours le récit d’un groupe d’adolescents ayant commis une faute, ou dont les parents ont commis une faute. Ils sont poursuivis par un tueur, systématiquement masqué et qui les tuera avec une arme blanche, toujours la même. Les victimes s’enchaînent alors dans une série de meurtres violents liés à des transgressions adolescentes (consommation de drogues, alcool, relation sexuelle, etc.).

L’héroïne du film, toujours une femme, qui elle n’a commis aucune transgression, affronte le tueur dans un dernier face à face dont elle sortira victorieuse. C’est l’iconique « final girl ». Le tueur, vaincu, laisse généralement entendre qu’il pourrait revenir par une ultime déclaration, un effet de surprise, voir une déclaration humoristique… À titre d’exemple la scène de fin de la Fiancée de Chucky (1998), quatrième volet de la saga, où la poupée tueuse déclare d’un air dépité à celle qui la menace d’une arme : « Vas-y tue moi, je reviens toujours… C’est juste que c’est chiant de mourir. »

Aux origines d’un sous-genre du film d’horreur

Le premier film à porter tous les codes du slasher est Halloween, la nuit des masques (1978), de John Carpenter. La célèbre scène de la douche dans Psychose (1960) en est peut-être la matrice : tous les codes du slasher y sont déjà réunis (une victime féminine poignardée à répétition par un ennemi sans visage). L’autre branche historique du slasher est celle du giallo italien et notamment le célèbre film la Baie sanglante (1971), de Mario Bava, qui porte déjà certains codes, comme les morts violentes et la sexualité.

Si Wes Craven ne rejoint formellement le genre qu’en 1984, son tout premier film, que certains qualifie de « proto-slasher », la Dernière Maison sur la gauche (1972) – lui même un remake du méconnu Jungfrukällan (la Source), d’Ingmar Bergman (1960) – avait posé certains éléments du genre parmi lesquels la violence exacerbée, le rapport entre meurtre et transgression sexuelle, et l’idée d’une héroïne féminine plus forte que ses agresseurs.

En 1984, Wes Craven sort les Griffes de la nuit. Si ce film respecte scrupuleusement tous les codes du genre, on peut voir aussi comment il les tord pour mieux les affirmer. Ainsi le tueur incarné par Freddy Krueger utilise une arme improbable, puisqu’il s’est fabriqué un gant en métal garni de lames de rasoir. Il ne porte pas non plus de masque, mais il a le visage gravement brûlé. La sexualité est présente chez toutes les victimes mais aussi dans le discours de Freddy, et dans son passé de tueur pédophile. C’est d’ailleurs la vengeance des habitants du quartier qui constitue la transgression originelle que les enfants doivent expier.

Il y a quelque chose de pourri au royaume du « slasher »

Dans Scream (1996) et dans les Griffes de la nuit, on retrouve l’idée d’un secret porté par les parents dont les conséquences retombent sur les enfants. Derrière le pavillon idéal d’Elm Street se cachent des meurtriers qui ont brûlé vif un homme et le dissimulent à leurs enfants, même après les premiers meurtres dans le quartier. Dans Scream, c’est plus prosaïquement les mœurs légères d’une mère de famille assassinée et le déni de sa fille vis-à-vis de ces transgressions qui font apparaître le tueur.

On voit qu’il y a dans ces deux cas l’idée d’une société des apparences qui serait en réalité pourrie, et on retrouve la critique du mode de vie américain déjà visible chez Stephen King, par exemple. Derrière un puritanisme d’apparence, se cachent les crimes que l’on dissimule à nos enfants.

Cette thématique récurrente dans le cinéma américain (dans un registre comique, il s’agit d’ailleurs du pitch de Retour vers le futur où un adolescent élevé par une mère stricte se retrouve renvoyé dans le passé pour découvrir qu’elle-même fut une adolescente très libérée) est un point structurant dans les films d’horreur américains et encore plus dans le slasher.

Cette interprétation politique du slasher se voie complétée par une autre interprétation plus universelle et psychanalytique. Par delà la question de l’hypocrisie parentale, c’est celle du refoulement du sexuel dans les sociétés issues des trois monothéismes qui est en jeu. Si la question de la sexualité, en tant qu’elle transforme le corps, peut être perçue universellement comme un sujet d’angoisse, elle ne devient une question morale que quand elle est associée à la notion d’interdit.

Le tueur masqué et sans visage est plus facilement reconnu à son arme qu’à sa tête. Or, l’arme blanche qu’il porte et qui le caractérise n’est-elle pas justement une métaphore phallique ? Le tueur sans visage est alors une allégorie du sexuel, masculin et intrusif, s’opposant à la figure de la jeune femme vertueuse. L’angoisse du spectateur devant l’antagoniste se conçoit alors comme la matérialisation d’une angoisse adolescente, celle de l’entrée dans la sexualité.

Un genre féministe ou conservateur ?

Entre la figure forte de la « final girl » et les transgressions sexuelles à l’origine des meurtres se pose la question récurrente du message porté par les slashers. Ambivalent par nature, il est difficile de dire du slasher s’il est féministe ou conservateur. En nous plaçant régulièrement derrière le masque du tueur, nous nous retrouvons dans la position de celui qui punit, prenant de fait le parti d’une morale conservatrice. Mais, d’un autre côté, on y découvre que la société présentée aux autres personnages comme vertueuse est le plus souvent pourrie par le secret et par le mensonge.

L’héroïne adolescente du film se voit alors prise entre deux mondes d’adultes aussi peu enviables l’un que l’autre et nous rappelle une autre figure culte du cinéma adolescent, dans un tout autre genre, celle de Pauline à la plage (1983), d’Éric Rohmer, où les tartufferies des adultes les décrédibilisent et font comprendre à Pauline qu’elle devra trouver son propre chemin loin des modèles et des figures imposées. Une « final girl » à la française pour ainsi dire…

The Conversation

Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Cinéma : le « slasher » chez Wes Craven, ou le retour du refoulé – https://theconversation.com/cinema-le-slasher-chez-wes-craven-ou-le-retour-du-refoule-268519

Le cinéma d’horreur, miroir de nos angoisses contemporaines

Source: The Conversation – France (in French) – By Jean-Baptiste Carobolante, Professeur d’histoire et théorie de l’art, ESA / École Supérieure d’Art / Dunkerque – Tourcoing

Dakota Fanning dans _Vicious_ (2025), de Bryan Bertino. Allociné

Alors que nous traversons une époque de plus en plus troublée, un constat s’impose : le cinéma d’horreur, lui, se porte à merveille. Ce succès n’a rien d’anodin : il reflète la manière dont les inquiétudes sociétales, toujours plus prégnantes, trouvent dans l’horreur un terrain d’expression privilégié, un miroir révélateur de nos angoisses collectives.


Ces dernières années ont vu émerger nombre de films et de séries rencontrant un véritable engouement, tandis que certains réalisateurs – comme Jordan Peele, Ari Aster ou Jennifer Kent – sont devenus des auteurs plébiscités, voire des figures incontournables du genre.

Les racines du cinéma d’horreur actuel se trouvent dans les productions hollywoodiennes des années 1970. À ce sujet, le critique Jean-Baptiste Thoret relevait que le cinéma de l’époque fut déterminé par la généralisation de la télévision dans les foyers, et de son nouveau registre d’images. Les horreurs du monde extérieur étaient ainsi présentées tous les soirs dans les salons familiaux.

La guerre du Vietnam, les émeutes réprimées de manière sanglante – notamment les sept « émeutes de Watts » aux États-Unis en août 1965 –, les faits divers lugubres s’introduisaient dans le quotidien de tous les Américains, puis de tous les Occidentaux. Le cinéma de possession, l’Exorciste (William Friedkin, 1973), mais aussi les slashers et leurs tueurs barbares arpentant les paisibles zones pavillonnaires (la Dernière Maison sur la gauche, Wes Craven, 1972) en sont des exemples probants : les peurs de la destruction du soi intime et de l’espace domestique furent liées à cette obsession pour un « mal intérieur » que diffusait, incarnait et répandait l’écran de télévision.

Mais c’est aussi, bien sûr, le cinéma de zombies (la Nuit des morts-vivants, George A. Romero, 1968) au postulat très simple : les morts viennent harceler les vivants ; ou, en termes cinématographiques, le hors-champ vient déborder dans le champ. De fait, la décennie posa des bases horrifiques qui sont toujours valides aujourd’hui.

Le cinéma d’horreur est un registre qui tourne toujours autour d’un même sujet : les frontières (d’un monde, d’un pays, d’une maison, d’un corps) sont mises à mal par une puissance insidieuse, puissante, voire surnaturelle.

Le XXIᵉ siècle et la peur des images

Notre siècle se situe de fait dans la continuité des années 1970 qui ont posé les bases du genre. Nous pouvons définir quatre grandes peurs qui traversent toutes les productions horrifiques actuelles : la question du contrôle politique, de son efficience et de ses abus ; la question de l’identité et de la différence ; celle de la violence, de l’agression, voire de la torture ; et, enfin, la peur des médias et de la technologie.

La peur politique est au cœur de nombreuses productions horrifiques. C’est notamment le cas de la saga American Nightmare (James DeMonaco, 2013–2021) qui nous présente une société américaine fondamentalement dysfonctionnelle en raison de ses orientations politiques : une nuit par an, afin de « purger » la société, toutes les lois sont suspendues. Le troisième volet, The Purge : Election Year (James DeMonaco, 2016), ne s’y trompait pas en détournant la casquette du mouvement MAGA sur son affiche promotionnelle.

Mais l’horreur des choix politiques se trouve également au cœur des films apocalyptiques et postapocalyptiques. Qu’ils mettent en scène des zombies, des épidémies ou des extra-terrestres, l’horreur provient bien souvent de l’incapacité institutionnelle à répondre au mal, puis de la violence fondamentale avec laquelle les sociétés se reconstituent ensuite. C’est notamment le cas dans la série The Walking Dead (Frank Darabont, 2010–2022), qui nous présente tout un répertoire de modes de vie collective, en majorité profondément inégalitaires, voire cruelles.

Les questions identitaires, elles, relèvent de l’horreur politique lorsque les films prennent le racisme comme sujet. On retrouve cet aspect dans Get Out (Jordan Peele, 2017), dans lequel de riches Blancs s’approprient les corps d’Afro-Américains afin de s’offrir une seconde jeunesse. Mais c’est aussi le cas, de façon plus générale, du cinéma de possession, qui est toujours un cinéma traitant de problèmes identitaires, du rapport à soi, voire de folie ou de dépression. Possédée (Ole Bornedal, 2012), Mister Babadook (Jennifer Kent, 2014), ou encore Heredité (Ari Aster, 2018) mettent tous en scène des individus combattant un démon – ou une entité maléfique – pour retrouver un sens à leur vie et une stabilité identitaire.

La peur de la violence est peut-être la réponse cinématographique la plus directe aux faits divers qui ont envahi les médias depuis plusieurs décennies. Faits divers ayant même donné naissance à des sous-genres cinématographiques autonomes. Le « torture porn » – illustré par les sagas Saw (depuis 2004), Hostel (2005–2011) et The Human Centipede (Tom Six, 2009–2016), par exemple – est un type de film dont l’objet est la représentation de tortures physiques et/ou psychologiques infligées par un maniaque (ou un groupuscule puissant) à des individus malchanceux. Le « rape and revenge » (« viol et vengeance »), quant à lui, représente, comme son nom l’indique, de jeunes femmes violentées qui prennent leur revanche sur leurs agresseurs, souvent de manière sadique. C’est le cas de films comme Revenge (Coralie Fargeat, 2017) ou la saga I Spit on Your Grave (2010–2015).

Enfin, le dernier territoire que nous mentionnons a fini, selon nous, par englober tous les autres. À notre époque, toute peur est liée à la manière dont nous nous représentons le monde, l’Autre et nous-mêmes, sous la forme d’un simulacre ou via un dispositif technologique intercesseur.

Le réel s’offre à nous à travers des filtres technologiques. Ainsi, c’est toujours à l’écran – télévision, ordinateur ou smartphone – de « rendre réel », de définir ce qui est vrai, et de nous offrir des expériences. Or, nous courons toujours le risque que ces systèmes de représentation abusent de nous et deviennent, à leur tour, oppressants. C’est le postulat même du registre horrifique du « found footage », depuis le Projet Blair Witch (Daniel Myrick et Eduardo Sánchez, 1999), en passant par les sagas Paranormal Activity (2007–2021), REC (2007–2014), ou encore Unfriended (Levan Gabriadze, 2014). Ces films, prenant l’aspect et la forme d’archive retrouvée – bien souvent domestique ou policière –, peuvent centrer leurs récits aussi bien autour de spectres, de tueurs en série ou d’extra-terrestres, car c’est le dispositif d’image lui-même, plus que le monstre, qui crée la matière horrifique.

L’inéluctabilité du mal

Deux phénomènes nouveaux semblent, toutefois, se dégager depuis quelques années. Le premier, par son absence relative dans le cinéma d’horreur, et le second, par son omniprésence.

Il s’agit tout d’abord du cataclysme écologique, que l’on retrouve de façon prégnante dans le cinéma de science-fiction, mais très peu dans les films d’horreur. Cette absence, plutôt que de témoigner d’une incapacité de représentation, relève peut-être d’un enjeu trop mondial pour être abordé par un genre finalement plus attaché à des parcours intimes, à des trajectoires d’individus confrontés à l’horreur, plutôt qu’à des horreurs sociétales.

Bien sûr, le cinéma de zombies ou d’apocalypse traite déjà en substance de cet effondrement civilisationnel, mais il faut que ce soit l’humain qui meure, et non le vivant, la nature ou l’environnement, pour que l’horreur devienne manifeste.

Quelques films, comme le long métrage français la Nuée (Just Philippot, 2020), tentent toutefois de poser la question d’une horreur humaine à partir d’une bascule environnementale. Notons également que la pandémie de Covid-19 n’a pas laissé de trace significative dans le genre horrifique. L’horreur pandémique est déjà présente au cinéma depuis les zombies de la fin des années 1960, lorsque la peur et la paranoïa suscitée par le confinement sont déjà figurées au cinéma à travers le motif de la maison hantée qui nous présente toujours des individus prisonniers d’un espace domestique devenu oppressant, voire létal.

Enfin, l’omniprésence actuelle que nous évoquions est certainement celle de l’inéluctabilité du mal. Alors que le cinéma d’horreur des décennies précédentes était encore un cinéma globalement centré sur le monstre (tueur, démon, alien, spectre, etc.), tangible et donc affrontable, notre époque contemporaine présente des antagonistes qui ne sont rien d’autre qu’une puissance abstraite de destruction.

Des films sortis cette année, comme les Maudites (El Llanto, Pedro Martin-Galero, 2024) ou Vicious (Bryan Bertino, 2025), représentent le mal comme une volonté omniprésente, omnipotente, qui dépasse et qui détruit tous les cadres de protection. La société, la famille, le réel volent en éclats ; et nous, spectatrices et spectateurs, ne pouvons que contempler la longue descente aux enfers d’individus voués au néant.

Ce motif horrifique ne nous semble pas anecdotique, tant il dit quelque chose de notre époque, de ses peurs, voire de son désespoir. Comme dans le cinéma expressionniste allemand des années 1930, une puissance a pris le contrôle de la société, et le cinéma d’horreur actuel semble se résigner à le laisser dramatiquement triompher.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Jean-Baptiste Carobolante ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le cinéma d’horreur, miroir de nos angoisses contemporaines – https://theconversation.com/le-cinema-dhorreur-miroir-de-nos-angoisses-contemporaines-268442

L’intelligence peut-elle être expliquée par la génétique et l’épigénétique ?

Source: The Conversation – France in French (2) – By Corinne Augé, Professeur en génétique moléculaire et biotechnologie, Université de Tours

Quelle est la part de l’environnement, en particulier social, de l’épigénétique et de la génétique dans les manifestations de l’intelligence (ou des intelligences) chez l’enfant et chez l’adulte ?


Le cerveau humain est un organe fascinant, complexe et remanié en permanence. Au cours du développement de l’embryon, il se développe selon un programme génétique précis. Les cellules souches se divisent, migrent et se différencient en différents types de neurones pour former les réseaux neuronaux qui sous-tendront toutes nos fonctions cognitives, émotionnelles, comportementales et motrices.

Les mécanismes épigénétiques, c’est-à-dire les mécanismes par lesquels une cellule contrôle le niveau d’activité de ses gènes, jouent ici un rôle majeur : méthylation de l’ADN, modification des histones (protéines) et ARN non codants vont soit activer soit réprimer, à la fois dans l’espace et au cours du temps, les gènes nécessaires à la formation et à la migration des neurones, puis à la formation des synapses.

Tandis que le cerveau se construit, chaque neurone reçoit ainsi un ensemble de marques épigénétiques qui déterminent son identité, son activité et sa connectivité aux autres neurones. Ce profil épigénétique, spécifique à chaque type de neurone, se met en place en fonction de signaux environnementaux : contexte hormonal, présence de facteurs morphogéniques (les protéines qui contrôlent la place et la forme des organes), activité électrique naissante. La moindre perturbation peut altérer, cette programmation fine, très sensible non seulement à l’environnement intra-utérin, mais aussi à l’alimentation, voire aux émotions de la future maman.

Des substances comme l’alcool, les drogues, certains médicaments, tout comme les carences alimentaires, peuvent avoir des conséquences durables sur le développement cognitif et émotionnel de l’enfant à naître. Pourquoi ? Parce que les neurones, contrairement à toutes les autres cellules de l’organisme, ne se renouvellent pas. Nous « fonctionnerons » toute notre vie avec les neurones fabriqués in utero.

Le cerveau adulte conserve en réalité une certaine capacité à produire de nouveaux neurones, mais celle-ci est en fait très limitée : jusqu’à 700 neurones par jour. Une goutte d’eau à côté des quelque 86 milliards de neurones qui forment notre cerveau ! Pourtant, cette goutte d’eau joue un rôle crucial. Ces nouveaux neurones vont s’intégrer dans des circuits déjà existants, notamment de l’hippocampe, une structure impliquée dans l’apprentissage et la mémoire. Ce processus participe à la plasticité cérébrale, à la capacité du cerveau à s’adapter aux expériences et à l’environnement.

Pour peu qu’on le fasse travailler, le cerveau continue donc de se construire et surtout de se modifier après la naissance, et ce, durant toute la vie de l’individu… Les mécanismes épigénétiques jouent un rôle important dans ces processus.

L’intelligence, un construit théorique multidimensionnel

Quand on évoque le fonctionnement du cerveau, la première chose qui nous vient à l’esprit est l’intelligence. Dans l’acception populaire, un cerveau performant est un cerveau intelligent. Mais qu’entend-on par là ?

Malgré plus d’un siècle de recherches, l’intelligence reste un concept difficile à définir de manière consensuelle. En 1986, les psychologues américains Sternberg et Detterman demandent à une vingtaine d’experts en psychologie et en sciences cognitives de proposer leur propre définition de l’intelligence. Résultat : aucune définition ne fait consensus, bien que des points de convergence se dessinent autour de l’idée d’adaptation, de résolution de problèmes et d’apprentissage. La tradition psychométrique (l’ensemble des tests et mesures pratiqués en psychologie), dominante au XXe siècle, a réduit l’intelligence à un facteur unique (g) mesuré par différents tests, dont celui de quotient intellectuel (QI).

Bien que ces tests aient une valeur prédictive pour certaines performances scolaires ou professionnelles, ils négligent des dimensions que sont la créativité, les compétences sociales ou émotionnelles. Face à ces limites, des modèles alternatifs ont été proposés.

Ainsi, Gardner a introduit la notion d’intelligences multiples, suggérant l’existence de formes distinctes d’intelligence (logico-mathématique, musicale, interpersonnelle), ou encore Sternberg, qui a développé une théorie triarchique, distinguant intelligences analytiques, créatives et pratiques. Enfin, Goleman a popularisé l’idée d’intelligence émotionnelle, aujourd’hui largement reconnue pour son rôle dans la réussite sociale et professionnelle.

En somme, l’intelligence est un construit théorique multidimensionnel, dont les définitions varient selon les cultures, les disciplines et les objectifs de mesure, mais elles partagent toutes l’idée d’une acquisition ou amélioration de capacités cognitives, spécifiques à chaque type d’intelligence. Les neurosciences cognitives ont aidé à mieux localiser certaines fonctions associées à l’intelligence, mais elles n’ont identifié aucun « centre de l’intelligence » unique dans le cerveau. Les capacités cognitives reposent sur des réseaux distribués, complexes et encore imparfaitement compris.

D’un point de vue scientifique, il semble utile de poser certaines questions : l’intelligence a-t-elle des bases génétiques ? Quelle est la part de l’environnement, en particulier social, de l’épigénétique, dans ses manifestations chez l’enfant et chez l’adulte ? Selon leur discipline, les chercheurs sont enclins à défendre soit une théorie environnementale (pour les sociologues) soit une théorie génétique de l’intelligence, que parfois ils opposent.

Les travaux en la matière ne sont pas neutres, puisqu’ils influencent les politiques publiques en matière d’éducation, après être passés par la moulinette des idéaux politiques de leurs instigateurs.

Que nous apprend la littérature scientifique ?

En tant que phénotype, l’intelligence est définie par les généticiens (de façon assez restrictive) comme une capacité mentale très générale qui inclut le raisonnement, la planification, la résolution de problèmes, la pensée abstraite, l’apprentissage rapide et la capacité à tirer des leçons de l’expérience. Afin d’évaluer cette capacité, on utilise le concept statistique d’intelligence générale (ou facteur g). Le facteur g représente la capacité cognitive commune à toutes les tâches mentales. Cela signifie qu’une personne performante dans un domaine cognitif (mémoire ou raisonnement) tend à l’être aussi dans d’autres. Le facteur g résume, ou mesure, cette covariation des performances.

Les études sur les jumeaux et sur les familles montrent que l’intelligence présente un taux d’héritabilité d’environ 50 %. Ce taux ne dit pas que l’intelligence est héritée à 50 %, mais que 50 % de ce qui fait varier l’intelligence est dû au génotype. Il soutient l’idée selon laquelle l’intelligence est en partie due à des effets génétiques. Un autre résultat complète ce propos, puisque le taux d’héritabilité de l’éducation passe de 29 % à 17 % lorsque les effets génétiques indirects (pour résumer, l’environnement créé par les parents) sont retirés du calcul, ou que l’on compare le taux d’héritabilité de l’éducation entre enfants adoptés et non adoptés. Cela soutient l’idée que l’environnement contribue aussi à la structure phénotypique de l’intelligence. En réalité, ces calculs devraient réconcilier sociologues et généticiens puisqu’ils disent que l’intelligence est à la fois génétique et environnementale, ce dont les généticiens que nous sommes sont absolument convaincus !

L’intelligence étant en partie déterminée par la génétique, la quête des gènes impliqués a commencé. Trois études génomiques (GWAS) ont identifié respectivement 187, 148 et 205 loci (des emplacements de gènes sur les chromosomes) potentiellement impliqués dans ce phénotype. Il est donc clair qu’il n’existe pas un gène de l’intelligence. Il existe un grand nombre de variantes génétiques indépendantes, chacune d’entre elles représentant une infime proportion de la variation de l’intelligence. Sans surprise, les variants génétiques associés aux résultats des tests d’intelligence sont des gènes liés à la neurogenèse, la différenciation des neurones et des oligodendrocytes (qui fabriquent la myéline) et surtout, la synapse.

La recherche sur les déficiences intellectuelles (DI), et la mise en évidence de gènes associés, est d’une grande aide dans cette quête génétique de compréhension de l’intelligence.

Les généticiens ont répertorié au moins 1 700 formes de déficience intellectuelle qui impliquent un gène majeur. Ces DI peuvent être associées ou non à d’autres syndromes (comme l’autisme). Or, l’épigénétique joue un rôle central dans la régulation de nombreux gènes impliqués dans la DI. Dans le syndrome de l’X fragile, le gène FMR1, qui code une protéine régulant la traduction locale d’ARNm au niveau des synapses – fonction essentielle à la communication neuronale – est éteint par hyperméthylation de son promoteur (le segment d’ADN qui contrôle l’expression du gène). Aucune mutation dans la partie codante du gène n’est observée, mais la protéine n’est plus produite. Les syndromes de Rett ou d’Angelman sont des modèles majeurs de DI épigénétiquement déterminée.

Enfin, il a été récemment montré que des ARN non codants (ne conduisant pas à la production d’une protéine) sont aussi responsables de cas de DI. Il s’agit de petits ARN impliqués dans la machinerie moléculaire qui permet la maturation des ARNm, afin qu’ils puissent, eux, être traduits en protéine. L’existence et l’importance de ces variants non codants ouvrent de nouvelles perspectives pour tous les malades dont la DI n’est pas expliquée par des mutations génétiques, soit environ 50 % des cas.

Le cerveau reste « plastique » tout au long de la vie, et les mécanismes épigénétiques sont des contributeurs forts de cette plasticité. Ils modulent l’expression des gènes impliqués dans la structuration et dans la réorganisation des circuits neuronaux.

Ainsi, nos connexions synaptiques évoluent constamment en fonction de ce que nous vivons, ressentons ou apprenons, permettant au cerveau de s’ajuster continuellement à son environnement. Cependant cette précieuse capacité d’adaptation peut être altérée. Lorsque les mécanismes épigénétiques sont déréglés (par l’âge, par le stress chronique, par l’inflammation…), la plasticité cérébrale s’affaiblit voire disparaît. Cette dégradation est impliquée dans le développement de maladies neurodégénératives (Alzheimer ou Parkinson), de troubles du neurodéveloppement (spectre autistique) et de certains cancers cérébraux. Les recherches récentes soulignent à quel point épigénétique et santé mentale sont étroitement intriquées.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Corinne Augé a reçu des financements de l’INCa et La Ligue

Stéphane Mortaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’intelligence peut-elle être expliquée par la génétique et l’épigénétique ? – https://theconversation.com/lintelligence-peut-elle-etre-expliquee-par-la-genetique-et-lepigenetique-267059