« Je suis stressé·e »… mais de quoi parlons-nous ? Du mécanisme physiologique à l’épuisement professionnel

Source: The Conversation – France in French (3) – By Nour Chiboub, Doctorant, Université Savoie Mont Blanc

Le stress fait partie du quotidien, mais savons-nous réellement ce qu’il recouvre ? Quels sont les fondements du stress et comment, lorsqu’il devient chronique au travail, conduit-il à l’épuisement professionnel ?


Le stress est devenu un mot du quotidien. Une échéance qui approche, une mauvaise nuit, un conflit au travail… Vous avez forcément entendu la phrase : « Je suis stressé·e. » Une évidence qui mérite pourtant d’être interrogée.

Dans les Confessions (Livre XI, chapitre 14), Saint-Augustin écrivait à propos du temps : « Qu’est-ce donc que le temps ? Si personne ne me le demande, je le sais ; si je veux l’expliquer à celui qui me le demande, je ne le sais plus. » Il en va de même pour le stress. Parlons-nous d’un événement, d’un état intérieur ou d’une réaction du corps ? En pratique, le terme sert souvent à désigner ces trois dimensions à la fois.

Cette utilisation polysémique donne l’impression que tout le monde parle de la même chose. Pourtant, ce n’est pas le cas. Cette confusion façonne notre manière de penser le stress, souvent de manière négative.

Le stress est avant tout un concept scientifique issu de la biologie et de la physiologie, qui a ensuite été étendu à la psychologie et aux sciences sociales.

Le stress : un concept scientifique

Le concept de stress s’inscrit dans l’étude de l’adaptation biologique. Au XIXᵉ siècle, Claude Bernard introduit la notion de milieu intérieur. Walter Cannon formalise ensuite le concept d’homéostasie, qui désigne la capacité de l’organisme à maintenir un équilibre interne malgré les variations de l’environnement.

Dans ce cadre, l’endocrinologue Hans Selye propose, en 1936, une conceptualisation fondatrice du stress. Dans un article publié dans la revue scientifique Nature, il définit le stress comme :

« La réponse non spécifique de l’organisme à toute demande qui lui est faite. »

À partir des années 1960, cette conception strictement biologique s’enrichit. Les travaux de Mason et Levine montrent que la réponse de stress dépend aussi de facteurs psychologiques, comme la signification émotionnelle d’une situation ou encore l’imprévu et la nouveauté.

Ces recherches ouvrent la voie au modèle transactionnel proposé par Lazarus et Folkman. Le stress apparaît lorsqu’un individu perçoit un déséquilibre entre les exigences d’une situation et les ressources dont il dispose pour y faire face. Ainsi, deux personnes confrontées à une même situation peuvent ressentir des niveaux de stress très différents.

Pourquoi le stress est indispensable à la vie

Le stress constitue un mécanisme essentiel d’adaptation. Face à une situation perçue comme menaçante, le cerveau déclenche une réponse coordonnée souvent décrite comme la réaction « de combat ou de fuite » (fight or flight).

Cette réponse mobilise rapidement le système nerveux sympathique, entraînant la libération d’adrénaline et de noradrénaline, puis l’activation de l’axe hypothalamo-hypophyso-surrénalien et la sécrétion de cortisol, hormone centrale du stress chez l’humain.

Cette réponse est loin d’être chaotique : elle repose sur une organisation temporellement coordonnée des médiateurs biologiques, un peu à l’image d’une belle symphonie. Lorsqu’elle est aiguë et transitoire, cette activation peut être bénéfique. Par exemple, elle améliore temporairement la vigilance, certaines performances cognitives et physiques et peut même renforcer certaines réponses immunitaires.

Alors, plutôt pas mal le stress finalement. Vous ne trouvez pas ?

Quand l’adaptation devient coûteuse : l’allostasie

Mais… si le stress est utile, pourquoi parle-t-on si souvent de ses effets négatifs sur la santé ?

Pour répondre à cette question, les chercheurs Sterling et Eyer ont proposé, à la fin des années 1980, le concept d’allostasie, qui désigne la capacité de l’organisme à ajuster ses systèmes biologiques afin de maintenir la stabilité face aux exigences de l’environnement.

Dans les années 1990, les neuroscientifiques McEwen et Stellar ont approfondi ce cadre théorique en introduisant le concept de charge allostatique, qui correspond à l’usure progressive des systèmes biologiques lorsque les réponses de stress sont activées de manière répétée ou prolongée et sans récupération suffisante.

Nous pouvons voir cela comme une forme de « dette » qui s’accumule lorsque l’organisme mobilise ses ressources sans avoir le temps de les reconstituer.

Le monde du travail constitue un terrain particulièrement propice à l’accumulation de cette dette. Dans cette perspective, l’épuisement professionnel ou burn out est souvent défini comme un syndrome résultant de la chronicisation (processus par lequel une douleur devient chronique, ndlr) d’une réponse de stress dans un milieu professionnel.

Cela se manifeste généralement par une grande fatigue émotionnelle, une forme de distance ou de détachement vis-à-vis de son travail et des personnes avec qui l’on travaille, ainsi qu’un sentiment de ne plus accomplir son travail de manière satisfaisante.

Agir face au stress chronique, l’exemple du travail

La recherche montre d’abord que les conditions de travail jouent un rôle central dans l’apparition de l’épuisement professionnel. Certaines caractéristiques du travail, comme une charge excessive, des demandes émotionnelles élevées ou un manque d’autonomie, sont associées à un risque accru de burn out. Le manque de soutien des collègues ou de la hiérarchie constitue également un facteur important.

Ces résultats rappellent que le burn out n’est pas un problème individuel. Il dépend largement de l’organisation du travail. Il s’agit avant tout d’une problématique sociétale. L’individu ne devrait pas porter seul la responsabilité de son propre épuisement. Cela ne signifie pas pour autant que nous sommes totalement démunis face à la chronicisation du stress.

Autrement dit, il serait réducteur d’attribuer l’épuisement uniquement à l’individu, tout comme il le serait de l’en déresponsabiliser entièrement.

Quelques pistes pour des prises en charge individuelles

Les thérapies cognitivo-comportementales (TCC) constituent un cadre scientifiquement validé pour mieux gérer le stress.

Il est possible d’identifier certaines pensées automatiques qui amplifient la réaction de stress et déforment la réalité. Par exemple, une erreur au travail peut parfois être interprétée comme la preuve d’une incompétence.

Cette conclusion transforme un événement ponctuel en jugement global sur soi. Ce qui, bien qu’économique pour le cerveau, est un raccourci souvent dénigrant envers soi. Je peux alors me « décentrer » de la situation : que dirais-je à un ou une amie dans la même situation ?

Il peut aussi être utile de distinguer les éléments sur lesquels l’individu a une marge d’action de ceux qui échappent à son contrôle. Lors d’une présentation importante, par exemple, la préparation relève de notre contrôle, alors que la réaction du public ne dépend pas de nous. L’idée est donc de concentrer son énergie sur ce qui est contrôlable pour ne pas s’épuiser.

Enfin, le soutien social constitue une ressource importante. Parler avec ses proches ou ses collègues peut aider à réguler le stress, à condition d’identifier clairement son besoin initial. Demandez-vous par exemple : dans cette situation, est-ce que je veux être écouté·e ou recevoir des conseils ? Il est important de ne pas craindre la verbalisation explicite de ses besoins.

Apprendre à mieux vivre avec le stress

Nous proposons donc de porter un autre regard sur le stress. Utilisé à tort et à travers, et parfois diabolisé, il s’agit pourtant d’un concept scientifique central pour comprendre l’adaptation.

Le stress n’est pas l’ennemi. Il constitue un mécanisme indispensable à la vie. L’enjeu n’est donc pas de l’éliminer mais d’éviter qu’il ne s’installe durablement. Il s’agit plutôt de retrouver une temporalité plus équilibrée, où les périodes d’activation s’accompagnent de véritables moments de récupération.

Nous pouvons voir le stress comme un colocataire avec lequel nous cohabitons en permanence. Lorsque les règles sont bien établies, ce colocataire peut être un allié précieux. Mais lorsqu’il décide de mettre les pieds sur la table, alors il devient toxique.

Le véritable enjeu n’est peut-être pas de chasser le stress, mais d’apprendre à mieux vivre avec lui.

The Conversation

Nour Chiboub a reçu des financements de la Fondation de France.

Gauchet Aurélie a reçu des financements de Fondation de France pour la thèse de Nour Chiboub.

ref. « Je suis stressé·e »… mais de quoi parlons-nous ? Du mécanisme physiologique à l’épuisement professionnel – https://theconversation.com/je-suis-stresse-e-mais-de-quoi-parlons-nous-du-mecanisme-physiologique-a-lepuisement-professionnel-281201

La Coupe du monde de soccer 2026 peut-elle encore contribuer à l’unité mondiale ?

Source: The Conversation – in French – By Paul R. Carr, Professeur/Professor (Université du Québec en Outaouais) & Titulaire/Chair, Chaire UNESCO en démocratie, citoyenneté mondiale et éducation transformatoire/ UNESCO Chair in Democracy, Global Citizenship and Transformative Education., Université du Québec en Outaouais (UQO)

La Coupe du monde masculine de la FIFA se déroulera en Amérique du Nord, du 11 juin au 19 juillet. Le Canada, le Mexique et les États-Unis accueilleront l’événement. Cette édition, qui réunira 48 pays, sera la plus grande jamais organisée.

Les pays hôtes de la Coupe du monde 2026 ont été désignés en 2018, et les préparatifs sont en cours depuis lors. Cependant, la politique des États-Unis a considérablement changé avec l’arrivée de Donald Trump au pouvoir en janvier 2025.

La communauté internationale est confrontée à une avalanche de mesures, de menaces et de déclarations de la part du gouvernement américain, qui ont engendré du chaos, de la confusion, de l’instabilité et une importante vulnérabilité politique, économique et socioculturelle.

Cette situation a donné lieu à des appels au boycottage de la Coupe du monde, notamment de la part de Sepp Blatter, ancien président de la FIFA.

Il est manifestement trop tard pour envisager de modifier, de transférer, de suspendre ou de remanier cet événement international qui nécessite de longs préparatifs. Les conséquences d’un changement de statut de ce tournoi seraient trop nombreuses et importantes.

Pourquoi maintenant ?

Une série d’actions récentes menées par les États-Unis soulève de sérieuses questions quant à leur capacité à accueillir la Coupe du monde de la FIFA.

Voici quelques exemples : déstabilisation d’alliés, imposition de droits de douane sans motif valable, lancement d’une offensive militaire contre l’Iran en collaboration avec Israël, attaque contre le Venezuela et capture de son président, menace d’annexer le Groenland et le Canada, suppression de l’USAID, exposant des millions de personnes à la famine, aux maladies et à la mort, ainsi que violences infligées par les agents de l’ICE (Service de l’immigration et des douanes des États-Unis), qui mettent en danger des citoyens et des résidents américains.

De plus, il est impossible de garantir un traitement juste et équitable aux personnes souhaitant se rendre aux États-Unis. La politique américaine actuelle pourrait empêcher des ressortissants de nombreux pays d’assister à l’événement.

Il existe un risque sérieux que des personnes soient arrêtées, surveillées ou persécutées. Le profilage racial est une menace réelle, en raison des pratiques de l’ICE au sein des communautés immigrantes aux États-Unis.

Beaucoup s’inquiètent également de la violence aux États-Unis, qui est nettement plus élevée que dans la plupart des pays occidentaux.

Par ailleurs, les États-Unis se sont retirés de nombreuses organisations et accords internationaux, ce qui empêche toute coopération sur les enjeux mondiaux et bloque les possibilités d’échanges nécessaires et constructifs.

Toutes ces réalités vont à l’encontre de l’esprit de solidarité qui caractérise les événements sportifs internationaux, comme la Coupe du monde, dont l’objectif est de promouvoir la paix et la compréhension interculturelle.

Historique de la FIFA

Les allégations de corruption au sein de la FIFA perdurent depuis des années. Elles sont consignées dans un acte d’accusation du département américain de la Justice ainsi que dans le rapport Garcia commandé par la FIFA.

Si la FIFA est sensible à ces critiques, et si certaines réformes ont été mises en œuvre pour rendre l’organisation plus transparente et plus crédible, de nombreux groupes continuent d’affirmer que la corruption y est endémique.

La question des droits de la personne est soulevée depuis longtemps dans le cadre d’événements de la FIFA. La Coupe du monde 2022 au Qatar a notamment suscité des inquiétudes concernant les droits des personnes LGBTQ+, et de nombreux joueurs ont porté le brassard « One Love » en signe de protestation. L’enjeu des droits des travailleurs et des migrants, victimes d’exploitation et de discrimination, a aussi fait l’objet de préoccupations.

L’empreinte carbone d’un événement d’une telle ampleur soulève également des préoccupations d’ordre environnemental. Cependant, l’argument selon lequel cet événement favorise la solidarité mondiale est tout aussi valable.

La FIFA est imprégnée de valeurs capitalistes, et cet événement promet d’énormes profits pour une poignée de personnes. La Coupe du monde 2026 devrait rapporter plus de 10 milliards de dollars à l’organisation.

On ne sait pas vraiment si les contribuables et les citoyens d’un pays hôte tirent un avantage économique de l’organisation de la Coupe du monde, d’autant plus qu’ils financent une grande partie des coûts par leurs impôts.

De même, les droits de marketing, de diffusion télévisée et de distribution constituent un secteur lucratif, mais ces revenus ne servent pas à lutter contre la pauvreté, la faim et les conditions de vie inacceptables que connaissent de nombreux citoyens.

Les boycottages sont-ils efficaces ?

L’utilité des boycottages fait l’objet d’un débat. Celui des Jeux olympiques d’été de 1980 à Moscou, à la suite de l’invasion de l’Afghanistan, et celui de 1984 à Los Angeles, mené par le bloc soviétique en représailles, n’ont pas entraîné de réel changement politique.

Certains soulignent l’ampleur des conséquences liées à la suppression de toute interaction interculturelle et diplomatique.

En revanche, le boycottage sportif de l’Afrique du Sud pendant l’apartheid, de 1964 à 1992, a bel et bien contribué à des changements importants dans le pays.

Le mouvement actuel de boycottage, de désinvestissement et de sanctions contre Israël, bien qu’il ne soit pas appuyé par les États-Unis et de nombreux autres pays, connaît un succès mitigé. Toutefois, le simple fait qu’il existe et qu’il recueille un large soutien revêt une importance politique.

Les coûts d’un boycottage

Modifier ou boycotter la Coupe à ce stade reviendrait inévitablement à pénaliser les équipes nationales et les athlètes pour des raisons politiques qui échappent à leur contrôle. Cet événement de la FIFA a le potentiel de créer un climat collaboratif, de favoriser la compréhension à l’échelle mondiale et d’avoir un effet rassembleur, en particulier pour les pays du Sud, souvent victimes d’une image négative.

Certains affirment qu’un boycottage toucherait davantage les joueurs et les supporters que la FIFA. Les répercussions économiques seraient également considérables. Or, le boycottage vise plutôt à influencer les attitudes, les comportements et les actions.

Certains ont soumis d’autres voies pour faire évoluer les choses, notamment par le biais de manifestations et d’une mobilisation citoyenne.

Parmi les autres propositions visant à susciter le changement, on peut citer les boycottages ciblés de commanditaires, d’institutions ou de secteurs spécifiques. Certains militants pourraient s’attaquer à une politique particulière, comme les mesures répressives à l’encontre des migrants aux États-Unis ou la corruption au sein de la FIFA.

Une force au service de l’intérêt public mondial ?

Les boycottages sont complexes et ont davantage été associés aux Jeux olympiques qu’à la Coupe du monde. Cependant, citoyens et militants cherchent tous à construire un monde plus juste et plus équitable.

Des manifestants brandissent des cartons rouges lors d’un événement appelant au boycottage de la Coupe du monde de la FIFA au Qatar, organisé par le collectif « Carton rouge pour le Qatar » à Paris en 2022.

En 2021, les violations des droits de la personne au Qatar suscitaient également de vives inquiétudes. Bien qu’un sondage Statista mené auprès de 4 201 personnes dans 120 pays ait révélé que la plupart des personnes interrogées estimaient que leur pays devrait boycotter la Coupe du monde 2022 au Qatar, très peu de supporters étaient prêts à le faire eux-mêmes.

Cependant, la FIFA n’est pas un parti politique. C’est une organisation sportive et commerciale. Bien qu’elle soit perçue favorablement, elle n’a pas besoin de l’approbation de la population pour faire des choix. Par ailleurs, les commanditaires risquent d’être pris pour cible et de voir leur image ternie si l’opinion publique se retourne brusquement contre l’événement.

La Coupe du monde de la FIFA sera-t-elle l’occasion pour les États-Unis d’aborder des problèmes tels que le racisme, la discrimination fondée sur le genre, les discours bellicistes visant à annexer d’autres pays, les abus de l’ICE et le dénigrement des migrants ? Ou ces questions seront-elles simplement balayées sous le tapis ?

La Coupe du monde pourrait offrir une tribune permettant d’engager un dialogue mondial fondé sur la souveraineté, les droits de la personne et les avantages mutuels. Des modalités d’accueil organisées par les trois pays hôtes pourraient favoriser la coopération transfrontalière, même si les relations sont tendues.

Le climat politique actuel aux États-Unis ne permet pas de faire de la Coupe du monde de la FIFA un événement propice à la promotion de la paix et de la solidarité. Or, le monde en a désespérément besoin.

La Conversation Canada

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La Coupe du monde de soccer 2026 peut-elle encore contribuer à l’unité mondiale ? – https://theconversation.com/la-coupe-du-monde-de-soccer-2026-peut-elle-encore-contribuer-a-lunite-mondiale-280687

Michael Rousseau et le français : les trois quarts des commentaires sur le Québec dans les médias canadiens sont négatifs, selon une étude

Source: The Conversation – in French – By Yulia Bosworth, Associate Professor of French and Linguistics, Binghamton University, State University of New York

Pourquoi un message livré dans une seule langue peut-il provoquer une telle onde de choc ? Au Canada, la langue ne relève pas seulement de la communication : elle touche à l’identité, au pouvoir et à la reconnaissance. Mais jusqu’où notre appartenance linguistique façonne-t-elle notre perception des langues, et de celles et ceux qui les parlent.


Les enjeux linguistiques dans le contexte canadien suscitent régulièrement des controverses et alimentent des discours polarisants, relayés et amplifiés par les médias.

Le message de condoléances du PDG d’Air Canada Michael Rousseau à la suite de la tragédie survenue le 23 mars à l’aéroport LaGuardia à New York, livré en anglais, a provoqué un vif tollé à travers le pays, comme en témoigne l’importante couverture médiatique.

Malgré un large consensus parmi les journalistes et commentateurs anglo-canadiens et francophones du Québec quant au caractère inapproprié du message unilingue, les opinions exprimées par les membres du grand public apparaissent plus partagées — surtout à l’égard de l’importance accordée par les francophones du Québec à la langue du message.

Pour mieux comprendre les dynamiques de ces controverses, de leur origine à leur déploiement, la sociolinguistique s’intéresse non seulement aux usages de la langue, mais aussi aux discours sur la langue, ainsi qu’à l’interprétation et à la portée de ces discours.




À lire aussi :
L’anglais progresse au Québec depuis 2001… et le français aussi !


Les représentations défavorables du Québec et du bilinguisme

Dans le cadre d’une étude en cours visant à analyser les discours médiatiques relatifs à la controverse, j’examine environ 3000 commentaires de lecteurs et lectrices publiés dans les sections de discussion d’une série d’articles du Globe and Mail jugés pertinents pour l’étude. Que peut nous apprendre une telle étude sur les attitudes et les postures du public anglophone ?

Le français, le Canada, le Québec, l’anglais, et le bilinguisme, par ordre décroissant de fréquence d’occurrences des termes, sont les cinq axes thématiques qui émergent d’un traitement automatique de l’ensemble des commentaires.

Une analyse manuelle que j’ai réalisée à partir d’un échantillon aléatoire de 500 commentaires révèle que 75 % des propos portant sur le Québec expriment une attitude négative envers la province. Ces attitudes se construisent principalement au moyen de références défavorables envers la distinction du Québec au sein du Canada ainsi que ses politiques et préoccupations linguistiques.

Tandis que la plupart des références au Canada sont également conçues négativement, le qualifiant à plusieurs reprises de « pays non sérieux », cette posture est largement élaborée à travers des références défavorables au Québec. Plus précisément, l’échec perçu du Canada est souvent attribué au fait de céder aux pressions du Québec, à la langue française et au bilinguisme officiel.

Dans certains commentaires, ce sentiment s’exprime à travers un lexique à connotation péjorative, tel que du « catering » (céder aux exigences), du « kowtowing » (se soumettre servilement) ou « pandering au Quebec » (flatter ou courtiser de manière opportuniste). Ces prises de position s’inscrivent dans un registre de ressentiment envers le Québec et ses politiques linguistiques.

Bien que 62,5 % des commentaires relatifs au message unilingue du PDG témoignent d’une posture critique, 55,7 % expriment une attitude négative envers le bilinguisme, lequel s’articule notamment autour d’un registre de la contrainte : « forcé à devenir bilingue », « bilinguisme imposé aux cadres ».

L’unilinguisme français, lui aussi qualifié de « forcé » (« l’unilinguisme forcé à l’intérieur du Québec ») est associé à de nombreuses allusions à la « police linguistique ».

La tension entre le choix linguistique individuel et la langue protégée par l’état, qui reflète deux visions divergentes de la langue, oppose les deux communautés linguistiques.




À lire aussi :
La langue inclusive : lorsque des mythes font leur entrée dans les politiques publiques


Les représentations divergentes des deux langues

Les sociolinguistes, telles que la sociolinguiste acadienne Annette Boudreau, professeure émérite de l’Université de Moncton, constatent un lien étroit entre les attitudes défavorables envers des personnes et la langue qui leur est associée, dans le contexte canadien. De plus, selon plusieurs études, la langue peut servir de vecteur socialement acceptable de stigmatisation des locuteurs.

Les attitudes négatives à l’endroit du Québec se manifestent ainsi à travers les désignations péjoratives du français québécois, telles que « la langue internationale des plaintes » et « la deuxième (non officielle moribonde) langue du Canada ».

Les représentations stéréotypées ayant pour but de remettre en question le statut du français québécois comme variété légitime de français le décrivent comme « une langue moribonde » ou « morte », voire comme « un dialecte vieux de 400 ans », qui « n’est compris qu’au Québec ».

En revanche, plusieurs commentaires présentent l’anglais comme la langue « internationale » et « dominante », et, notamment, « la langue dominante au Canada », soulignant son statut de langue de la réussite sociale (« un levier de la réussite »).


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


La langue comme miroir et moteur des attitudes

Quelles représentations et idées reçues sur la langue, naturalisées et largement incontestées au sein de chaque communauté respective, sous-tendent ces discours dévalorisants ?

Pour les francophones, le français constitue un vecteur d’appartenance et un pilier de la culture et de la cohésion sociale, auquel est associé un fort attachement affectif. Dans une telle logique, la langue est étroitement liée à l’identité, tant individuelle que collective, ainsi qu’à la culture commune. Dès lors, la dévalorisation d’une langue est susceptible d’être perçue comme une dévalorisation des personnes qui la parlent.

À l’inverse, dans le Canada anglophone, l’anglais, largement reconnu comme la langue la plus valorisée sur le marché linguistique, est davantage envisagé comme un outil de communication — émotionnellement neutre — plutôt que comme un marqueur identitaire. Dans cette logique dite instrumentale, dévaloriser une langue ne revient pas systématiquement à dévaloriser la communauté linguistique associée.

Ces logiques, ou idéologies linguistiques concurrentes, y compris dans le contexte canadien, comme le montre des travaux de la sociolinguiste à l’Université Carleton Rachelle Vessey, sont rarement explicitées. Ainsi, les locuteurs n’en sont généralement pas conscients ni sensibilisés à leur portée.

Lorsque ces idéologies divergentes se rencontrent dans un même espace social, elles peuvent entrer en conflit et générer des tensions. La prise en compte de ces logiques, et des attitudes et représentations qu’elles engendrent, peut contribuer à un meilleur éclairage — et éventuellement à une forme de conciliation — de ces incompréhensions structurelles.

La Conversation Canada

Yulia Bosworth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Michael Rousseau et le français : les trois quarts des commentaires sur le Québec dans les médias canadiens sont négatifs, selon une étude – https://theconversation.com/michael-rousseau-et-le-francais-les-trois-quarts-des-commentaires-sur-le-quebec-dans-les-medias-canadiens-sont-negatifs-selon-une-etude-280109

La manière dont les primates élèvent leurs petits peut inspirer les parents humains

Source: The Conversation – in French – By Libby Ware, PhD, Biological Anthropology, Université de Montréal

Que vous les ayez recherchés ou non, vous avez sans doute déjà croisé des créateurs de contenu sur la parentalité sur les réseaux sociaux à un moment ou à un autre au cours des deux dernières décennies.

Dans la section des commentaires, vous avez sans doute vu des parents être félicités pour leurs méthodes d’éducation. Et vous avez probablement aussi constaté de nombreux désaccords, du « mom-shaming » ou des critiques sur les styles parentaux.

La « parentalité douce » — une approche fondée sur l’empathie visant à élever des enfants confiants grâce à la compréhension et au respect — a par exemple connu un regain de popularité. Et puis, comme on pouvait s’y attendre, elle a été suivie de critiques acerbes.

Le plus souvent, l’éducation des enfants est présentée comme un choix entre des styles figés, mais les résultats de la recherche sur les primates suggèrent qu’une éducation efficace est flexible et s’adapte au contexte.

L’éducation des enfants est plus complexe que ces catégories

Selon Diana Baumrind, une psychologue clinique et du développement américaine influente, il existe trois grands styles parentaux chez l’humain : l’autoritatif, l’autoritaire et le permissif.

L’approche autoritative se caractérise par une grande chaleur parentale et une discipline stricte, l’approche autoritaire par une faible chaleur parentale et une discipline stricte, et l’approche permissive par une grande chaleur parentale et une discipline laxiste.

Les humains, cependant, sont loin d’être les seuls animaux à élever leurs petits. Les primates non humains ont des approches parentales variées, et les chercheurs se sont tournés vers nos plus proches parents pour comprendre comment les soins parentaux s’adaptent selon les environnements.




À lire aussi :
Moins de cris, moins de coups : le Québec a changé sa façon d’éduquer


Les stratégies de soins maternels chez les primates varient de permissives à protectrices, tout comme les styles parentaux humains.

Les mères primates consacrent davantage d’énergie et de temps à nourrir, à être auprès de et, de manière générale, à s’occuper de leur progéniture, de la petite enfance à l’indépendance, que ne le font les mâles. Cela reflète les rôles familiaux traditionnels selon les normes patriarcales chez les humains.

Des similitudes apparaissent également dans la manière dont les mères primates humaines et non humaines adaptent parfois leur parentalité pour mieux répondre aux besoins et à l’environnement de leur progéniture.

L’évolution favorise une parentalité réactive

Dans une étude récente menée par des psychologues et des primatologues comparant les humains et les bonobos, gibbons et siamangs en captivité, les chercheurs ont découvert que, chez toutes les espèces étudiées, les mères adaptaient leur comportement aux risques potentiels auxquels leurs petits étaient exposés.

Elles modifiaient également leur approche en fonction de l’âge, réduisant généralement les comportements protecteurs et augmentant certains comportements permissifs à mesure que les enfants grandissaient. Imaginez par exemple ce scénario : votre enfant devient adolescent et bénéficie d’un couvre-feu plus tardif (permissivité accrue) et est autorisé à passer la nuit chez des amis (protection réduite). Cela correspondrait à l’approche autoritative.




À lire aussi :
Contre toute attente, des macaques japonais handicapés survivent en adaptant leur comportement et grâce au soutien de leurs proches


Il est intéressant de noter que les soins protecteurs étaient plus importants tant chez les humains que chez les bonobos. Cette similitude peut s’expliquer par notre génétique commune (environ 99 %). La permissivité peut comporter davantage de risques, selon l’environnement.

La flexibilité des soins maternels chez les différentes espèces de primates suggère que l’éducation des enfants n’est pas aussi simple que de choisir un style ou une approche unique. S’adapter selon les axes de la permissivité et de la protection, ainsi que selon les niveaux de chaleur et d’implication, semble être la clé d’une éducation efficace avec les meilleurs résultats.

Ce qui fonctionne le mieux semble être la capacité à s’adapter en fonction du contexte. Cette flexibilité s’étend également aux autres personnes qui s’occupent des enfants, y compris les pères, dont le rôle a souvent été sous-estimé.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Ce que la recherche dit à propos des pères

Les soins paternels sont présents chez les primates, mais rares chez les autres mammifères. C’est une autre raison pour laquelle les primates non humains et les humains constituent un modèle plus comparable pour les soins parentaux que les autres animaux.

Les pères jouent un rôle important dans la survie de la progéniture chez les ouistitis, les tamarins, les titis et les singes-chouettes, ainsi que chez certains lémuriens et siamangs. Ce rôle se manifeste souvent par le toilettage, le soutien lors de confrontations et la protection contre l’infanticide.

Il est courant que les adultes, en particulier les mâles, se montrent agressifs envers les jeunes membres du groupe. Chez de nombreuses espèces, il s’agit d’une forme de socialisation visant à enseigner aux jeunes leur place au sein de la hiérarchie sociale. Ce phénomène est plus fréquent dans les hiérarchies sociales plus strictes, comme chez les chimpanzés, et peut faire évoluer le rôle des mâles vers une catégorie autoritaire.




À lire aussi :
Les macaques sauvages n’abandonnent pas leurs petits. Alors, pourquoi la mère de Punch l’a-t-elle fait ?


Il est bien établi que les styles parentaux et l’implication des parents ont une influence sur les enfants. Alors que de nombreuses études sur les mammifères se concentrent sur l’influence de la mère, une étude sur les ouistitis a révélé que pendant les 30 premières semaines de vie, la présence du père peut améliorer à la fois les chances de survie et la croissance des petits.

Ces résultats s’appliquent également aux pères ayant plusieurs petits et constituent l’une des premières preuves démontrant ce phénomène chez les ouistitis sauvages. Ces animaux forment des couples durables et sont en grande partie monogames, ce qui rend leur modèle social d’autant plus comparable au nôtre.

Ces résultats concordent avec des études chez l’homme montrant l’importance de la paternité sur la santé des enfants. Il s’agit d’un parallèle entre les soins prodigués par les primates et les styles parentaux humains qui encouragent l’implication paternelle, un aspect qui a longtemps été négligé.

L’implication des mâles dans l’éducation remet en question les idées reçues sur l’importance des pères chez les animaux non humains. Les pères jouent clairement un rôle dans la réussite de leur progéniture jusqu’à l’âge adulte.

Ainsi, si l’éducation des enfants est fondamentalement adaptative, les débats sur le style parental idéal sont peut-être moins utiles qu’on ne le pense. Cela a des implications pour la culture des conseils parentaux et la manière dont nous concevons les systèmes de soutien.

La Conversation Canada

Libby Ware ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La manière dont les primates élèvent leurs petits peut inspirer les parents humains – https://theconversation.com/la-maniere-dont-les-primates-elevent-leurs-petits-peut-inspirer-les-parents-humains-281276

Mali : pourquoi les djihadistes ferment les écoles

Source: The Conversation – in French – By Lamine Savané, PhD science politique, ATER, CEPEL (UMR 5112) CNRS, Montpellier, Post doctorant PAPA, Université de Ségou

Longtemps épargnées par les groupes djihadistes, les écoles du village de Dia à Ténenkou dans la région de Mopti, ont finalement été fermées sous la pression des groupes armés, notamment la Katibat Macina, affiliée au JNIM, principal groupe djihadiste actif dans cette région. Cette fermeture serait anecdotique si elle ne touchait que la région de Mopti. Or, la quasi-totalité des régions du Mali est touchée par cette fermeture des écoles.

En tant que chercheurs en sciences politiques et de l’éducation, nous avons récemment publié une recherche dans un ouvrage collectif sur l’école africaine face aux crises sécuritaires. Cette recherche se base sur des enquêtes menées principalement dans les régions de Ségou (cercle de Farako) et de Mopti (cercle de Ténenkou) de 2022 à 2025.

Nous voulions comprendre, entre autres questions, pourquoi l’école était une des premières institutions à laquelle les groupes djihadistes s’attaquaient chaque fois qu’ils veulouaient étendre leur influence dans une localité. Au-delà de l’école, les groupes djihadistes s’en prennent à tous les services sociaux de base qu’il s’agisse des administrations publiques, des commissariats de police ou des marchés hebdomadaires

Fragilités du système éducatif bien avant la crise

Au Mali, comme dans d’autres pays voisins, plus d’un million d’enfants ne sont pas scolarisés, pour des raisons indépendantes de la crise sécuritaire. Il demeure d’importants déséquilibres entre enfants des zones rurales et ceux du monde urbain. Leur accès à l’école étant fortement déterminé par leur localité de résidence, les enfants vivant en milieu rural sont souvent obligés de marcher plusieurs kilomètres pour atteindre l’école primaire la plus proche. Il y a aussi une disparité villes/villages en termes d’enseignants qualifiés, les villages servant de lieux d’affectation pour les débutants .

Toutes ces difficultés vont s’accentuer avec la crise sécuritaire, surtout que les zones rurales sont plus propices à l’influence des groupes djihadistes. Les chiffres globaux sur la fermeture des écoles n’ont cessé de croître sur l’ensemble du territoire malien depuis le début de la crise en 2012. Selon les données fournies par Cluster Education sur le Mali, au mois de janvier 2026, 2343 écoles sur un total de 10766 étaient non fonctionnelles, affectant 702 900 enfants non scolarisés.

Ce taux de fermeture des écoles représente 22 % des écoles au Mali. Dans la région de Ségou, 24 % des écoles ne sont pas fonctionnelles, tandis que ce taux monte à 35 % dans la région de Mopti, derrière Ménaka (52 %).

L’impact de la crise sécuritaire sur les écoles

La fermeture des écoles n’impacte pas seulement les élèves : les enseignants sont aussi concernés. Ils sont 14 058 enseignants à être au chômage technique selon la même source. Néanmoins, la menace contre les écoles est essentiellement celle des groupes djihadistes. Il s’agit principalement de zones où l’on constate un retrait de l’État (administrations, justice, forces de sécurité). L’administration n’est présente que partiellement dans ces localités sous pression des groupes djihadistes. Les populations accèdent difficilement aux services sociaux de base.

Toutes ces difficultés que l’école rencontrait vont s’accentuer avec la crise sécuritaire. En effet, les groupes djihadistes constituent les premiers acteurs de l’insécurité. Ils sont responsables de nombreuses attaques, qu’elles soient dirigées contre les Forces armées maliennes (FAMA), les autres groupes armés non étatiques, les représentants de l’État, les communautés ou la population civile qui leur résiste de manière générale. La fermeture des écoles est le principal indicateur de la présence djihadiste. Plus les écoles restent ouvertes, plus c’est la preuve que l’influence djihadiste est amoindrie.

A contrario, la fermeture des écoles est la manifestation d’une présence djihadiste accrue. L’école est une cible de prédilection des groupes djihadistes en raison de l’esprit critique qu’elle développe. Dans les zones sous influence djihadiste, les écoles sont souvent saccagées, voire brûlées en guise d’avertissement. Les enseignants qui veulent résister, en continuant à dispenser les cours sont menacés par les djihadistes.

Plusieurs enseignants ont été arrêtés avant d’être relâchés, parfois suite à des médiations. Face à ces risques réels, certains finissent par abandonner leur poste. Les mouvements djihadistes se rejoignent tous sur ce point, leur opposition à « l’école républicaine » ou « formelle ». La consigne est on ne peut plus claire : pas « d’école formelle » dans les zones sous leur influence. C’est ce que nous explique cet agent d’une ONG dans la région de Mopti. Originaire de la zone, il a pu voir l’impact de l’insécurité sur les écoles. Cette insécurité émane essentiellement des djihadistes :

S’agissant des écoles, dans plusieurs cas, elles ont été saccagées, les portes et les fenêtres ont toutes été enlevées. Les djihadistes sont partis avec tout ce qu’on peut enlever comme les tables-bancs. Il n’y a plus rien qui reste de l’école et la question d’une éventuelle réouverture n’est pas à l’ordre du jour (entretien, mai 2023, Ténenkou).

Les écoles dans leur ensemble sont attaquées par les mouvements djihadistes. À cet égard, l’étymologie du mouvement terroriste nigérian Boko Haram est illustrative. Son nom signifie littéralement en langue haoussa que le « livre » ou l’école occidentale, sous-entendu « la civilisation occidentale », est haram, c’est-à-dire interdite par la religion. Dans la phraséologie Boko Haram, le détournement des deniers publics par les élites nigérianes, la mauvaise gouvernance, l’injustice, la dépravation des moeurs, toutes les tares de la société nigériane ont une même et unique cause: l’école occidentale.

Les mouvements djihadistes reprochent aux écoles républicaines de propager l’enseignement des mécréants (occidentaux) qu’ils jugent contraires à leur vision de l’islam salafiste à l’encontre des valeurs de l’islam salafiste. Les djihadistes imposent donc que ces écoles deviennent des écoles coraniques ou que l’enseignement soit dispensé en arabe. Les populations sont plutôt encouragées à envoyer leurs enfants dans les écoles coraniques.

Déscolarisation et vulnérabilité

La conséquence de cette pression des djihadistes est la privation de plus de 702 900 enfants de leurs droits à l’éducation, compromettant ainsi leur avenir. Les enseignants de ces localités, intimidés voire menacés — plusieurs d’entre eux ayant été arrêtés avant d’être relâchés à Farako — finissent par abandonner leur poste, par peur pour leur vie. En revanche, les populations sont plutôt encouragées à envoyer leurs enfants dans les écoles coraniques. L’objectif est clair : c’est la fin de toute présence d’école dans ces zones.

Ils agressent physiquement les enseignants, récupèrent leurs biens, brûlent le matériel didactique, et dans certains cas, récupèrent les vivres destinés aux élèves. Une des conséquences directes de cette interdiction est la privation de milliers d’enfants maliens de leurs droits à l’éducation, compromettant ainsi leur avenir. De ce fait, ces enfants sans éducation peuvent constituer un large vivier de recrutement futur pour ces diverses organisations djihadistes.

Mopti et Ségou affectées

Dans les régions de Mopti et de Ségou, les écoles dans leur majorité ont commencé à être affectées à partir de 2017, avec des exceptions comme dans le cercle Ténenkou où l’on constate des fermetures depuis 2012, avec le Mouvement national de libération de l’Azawad (MNLA), un groupe indépendantiste touareg devenu aujourd’hui le Front de libération de l’Azawad (FLA). Mais beaucoup de ces écoles de Ségou et de Mopti ont fermé leurs portes en 2018. Les fermetures ont concerné d’abord la région de Mopti, bastion d’origine de la Katibat Macina. Déjà à cette époque, la plupart des écoles dans les communes rurales sont/étaient fermées.

A partir de 2019, on trouvait des écoles fonctionnelles principalement dans les chefs-lieux des cercles de la région de Mopti tels que Mopti ville, Ténenkou, Youwarou. Certains enseignants se sont donc refugiés dans les capitales régionales, à la suite de menaces de la part des groupes djihadistes.

Les chiffres sur la fermeture des écoles sont expressifs dans la région de Mopti. Sur les 829 écoles de la région, 289 sont fermées suite à la menace djihadiste, ce qui fait un taux de fermeture de 35 %. Ces fermetures affectent plus de 86700 enfants qui se retrouvent déscolarisés, et 1734 enseignants qui quittent les communes rurales.

Les stratégies observables sur le terrain

Malgré le nombre élevé d’écoles non fonctionnelles, certaines demeurent ouvertes. Deux stratégies principales apparaissent dans la pratique : la sécurisation des écoles et l’engagement communautaire. La sécurisation des écoles est ce qu’on a appelé la stratégie par le « haut », c’est-à-dire celle déployée par les autorités étatiques. Cette stratégie porte sur le déploiement des détachements militaires dans les villes pour restaurer la présence de l’État.

La présence militaire rassure le personnel scolaire et lui permet de travailler sereinement. Les villes qui se caractérisent par une forte présence militaire sont les moins affectées par les fermetures d’écoles. A Ténenkou ville et à Dioura, les écoles fonctionnent normalement en raison de la présence militaire dissuasive.

C’était le cas à Diondjori dont le blocus a été levé en novembre 2023 – et à Diafarabé avant que ces deux communes ne soient l’objet d’un blocus.

La deuxième stratégie par le « bas » porte sur l’engagement communautaire. Cette stratégie par le « bas », profite à la fois d’imaginaires populaires qui confèrent un statut spécifique à certaines localités, mais aussi, de contacts avec les groupes djihadistes.

Le village de Dia, chef-lieu de la commune de Diaka, était illustratif de cette stratégie. Sans présence des forces militaires et des groupes d’autodéfenses dozos, des dynamiques locales communautaires parvenaient à préserver le fonctionnement des écoles. Il s’agissait de la primauté de la coexistence pacifique comme mode de gouvernance de la société.

Avec la fermeture des écoles dernièrement à Dia, c’est la limite de la stratégie par le « bas » qui nous invite à analyser les groupes djihadistes à l’aune de leur matrice idéologique réfractaire à toute critique.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Mali : pourquoi les djihadistes ferment les écoles – https://theconversation.com/mali-pourquoi-les-djihadistes-ferment-les-ecoles-280023

Comment la chasse à la baleine s’est étendue du Pays basque au reste du monde… jusqu’à être interdite

Source: The Conversation – in French – By Álex Aguilar, Profesor de Biología Animal, Universitat de Barcelona

Pendant des siècles, la chasse à la baleine a fait vivre des économies entières. Jan Pieter Strijbos/Nationaal Archief

Entre prospérité économique, surexploitation et régulation tardive, près de mille ans de chasse à la baleine ont laissé une empreinte durable sur les sociétés et les littoraux.


Les archives les plus anciennes attestant l’existence d’une pêche à la baleine organisée remontent au XIe siècle au Pays basque. De là, l’activité s’est rapidement étendue aux ports du littoral cantabrique, de la Galice jusqu’au Labourd, puis à l’ensemble de l’Atlantique, atteignant des pays comme le Brésil et l’Islande.

Bien qu’elle soit aujourd’hui presque abandonnée, cette activité a longtemps constitué un secteur très rentable. À tel point que l’ampleur des captures et leur mauvaise gestion ont conduit à son interdiction afin de protéger les cétacés.

Les débuts de la chasse à la baleine

Au Pays basque, la pêche se pratiquait à partir de petites embarcations à rame, qui prenaient la mer dès qu’une baleine était repérée. Une fois le cétacé atteint, il était immobilisé à l’aide de harpons lancés à la main, puis achevé à la lance. Le corps était ensuite remorqué jusqu’à la plage pour être exploité.

Par ailleurs, les baleiniers recherchaient activement les petits, sachant que s’ils s’en emparaient, la mère les suivrait jusqu’à des eaux abritées, ce qui facilitait sa capture ultérieure.

Dans la pêche côtière traditionnelle, les baleines étaient généralement traitées sur les plages, à la force des bras, avec de simples hachettes, couteaux et crocs.
Dans la pêche côtière traditionnelle, les baleines étaient généralement traitées sur les plages, à la force des bras, avec de simples hachettes, couteaux et crocs.
Gravure extraite de l’Histoire générale des drogues, de Pierre Pomet, París 1694

Pendant des siècles, les baleines étaient principalement pêchées pour leur lard, dont on tirait l’huile, utilisée pour l’éclairage et la fabrication de savon, essentiel à l’industrie lainière.

Bien que la capture du cétacé comporte des risques — car, aussi paisible soit-il, un animal blessé se retourne toujours contre son attaquant — les bénéfices faisaient vivre des économies locales entières. À tel point qu’une cinquantaine de ports du littoral cantabrique se sont engagés dans cette activité.

Expansion de l’activité à l’échelle mondiale

À partir du XVIe siècle, les Basques ont étendu cette activité à l’Atlantique, jusqu’à atteindre l’Islande, le Groenland, Terre-Neuve et même le Brésil. Cette expansion n’est pas passée inaperçue et, dès cette époque, d’autres puissances comme la France, le Royaume-Uni et les Pays-Bas se sont lancées à leur tour dans la chasse à la baleine, faisant fortement augmenter les captures à l’échelle mondiale.

Dès la première moitié du XIXe siècle, la chasse à la baleine était pratiquée dans tous les océans du globe et sa rentabilité atteignait des niveaux exceptionnels : les taux de profit annuels se situaient généralement entre 25 % et 50 %, permettant d’amortir rapidement les investissements nécessaires à une expédition.

Le Lagoda, un trois-mâts barque américain de New Bedford (Massachusetts), a ainsi rapporté à ses armateurs, en seulement douze ans, une somme cent vingt fois supérieure à l’investissement initial, avec certains dividendes annuels atteignant 361 %.

Au XXe siècle, la modernisation s’est traduite par l’utilisation de navires en fer équipés de moteurs à vapeur et de canons tirant des harpons de 80 kilos munis de grenades explosives, ce qui a encore accru la létalité et la rentabilité de cette activité. Rentabilité qui dépassait souvent 100 % par an, avant de commencer à diminuer avec l’épuisement progressif des populations de cétacés.

Un business juteux qui n’a jamais cherché à être durable

Dans le même temps, l’expérience accumulée par des générations de baleiniers a montré que le rendement exceptionnel des baleines était limité par leur lente reproduction. Logiquement, il aurait fallu adapter les captures à la capacité de renouvellement des populations. Mais l’industrie a fait un autre choix : maximiser les profits, quitte à épuiser rapidement les ressources d’une zone avant de se déplacer ailleurs lorsque les stocks locaux s’effondraient.

Pour permettre cette stratégie, des usines baleinières démontables et transportables ont été mises au point, adaptées à une exploitation intensive et mobile.

La saga familiale norvégienne des Herlofson, qui a introduit la chasse à la baleine moderne sur les côtes espagnoles, en est un bon exemple. Le patriarche, Peter, commence ses activités en Norvège dans les années 1880. En 1896, il installe une première station en Islande, qu’il ferme cinq ans plus tard pour la transférer en 1902 sur l’île de Harris, en Écosse.

Il est ensuite remplacé par son fils Carl, qui déplace en 1921 le centre d’opérations vers le golfe de Cadix, puis en 1925 vers la Galice. En 1928, il s’installe à Terre-Neuve, avant d’opérer en Namibie à partir de 1932, pour finir sa carrière à bord d’un navire-usine en Antarctique. À eux deux, père et fils ont exploité en cinquante ans huit zones de pêche baleinière différentes — soit en moyenne une tous les six ans.

Dans une lettre, Carl exposait clairement sa stratégie : il fallait prélever rapidement « la crème » de chaque caladero (zone de pêche) — autrement dit en tirer le maximum — puis, une fois la zone épuisée, se déplacer vers la suivante.

Baleine fraîchement harponnée par un navire de la compagnie galicienne Industria Ballenera SA en 1982.
Baleine fraîchement harponnée par un navire de la compagnie galicienne Industria Ballenera SA en 1982.
Alex Aguilar

La régulation et la Commission baleinière internationale

Ces abus ont profondément transformé la perception publique. La baleine est passée du statut de créature redoutée — pensons à Moby Dick — à celui de symbole de la conservation. En 1946, la Commission baleinière internationale (CBI) a été créée afin de réguler cette activité. Dans les années 1970, la CBI avait déjà protégé de nombreuses populations et encadrait l’exploitation des autres au moyen de quotas stricts. La pêche était enfin sous contrôle.

Cependant, le passé pesait trop lourd et la pression écologiste, très active dans les années 1980, a conduit à l’adoption d’un moratoire sur la chasse commerciale entré en vigueur en 1986, initialement prévu pour durer cinq ans. La mesure a été adoptée de justesse, avec un rôle décisif de l’Espagne, dont le vote a fait basculer le résultat.

Bien que la fin du moratoire ait été envisagée pour 1991, celui-ci a été prolongé indéfiniment en raison de sa forte portée symbolique. Pour beaucoup, l’idée de relancer la chasse à la baleine restait inacceptable. Le Japon, la Norvège et l’Islande, pays aux intérêts baleiniers importants, ont contesté cette décision en faisant valoir que les populations qu’ils exploitaient étaient en bon état — un point appuyé par des études scientifiques — et ont quitté la CBI, reprenant la chasse dans le cadre de quotas nationaux. Aujourd’hui, les deux tiers des captures de baleines ont lieu en dehors de cette organisation, selon des règles fixées par chaque pays.

Une grande partie de ses revenus provenant des cotisations versées par les pays membres — elles-mêmes liées à leur activité baleinière —, la CBI a été contrainte de vendre son siège et d’espacer ses réunions. Paradoxalement, cette organisation, pionnière dans la régulation internationale d’une ressource halieutique, traverse aujourd’hui une profonde crise en raison même de son succès. L’efficacité de son action a été dépassée par l’inertie d’une perception sociale forgée à une époque où l’exploitation des baleines était peu régulée et souvent abusive.

La CBI s’est depuis réinventée en s’intéressant à des enjeux comme le tourisme d’observation des baleines ou les effets de la pollution.

Vestiges de la vigie baleinière de Mendata, dans la commune basque de Deva.
Vestiges de la vigie baleinière de Mendata, dans la commune basque de Deva.
Alex Aguilar

Près de mille ans de pêche à la baleine ont laissé sur le littoral cantabrique une empreinte profonde et bien visible. Les petits ports du nord de la péninsule Ibérique abritent musées, monuments, vestiges de vigies et d’anciennes usines, blasons ornés de motifs baleiniers, ainsi que linteaux, sépultures et pierres tombales décorés de harpons et de scènes de chasse aux cétacés. Un patrimoine historique de premier plan, qui subsiste comme le témoignage d’une activité aujourd’hui disparue.

The Conversation

Álex Aguilar a reçu des financements du Plan Nacional de Investigación no Orientada.

ref. Comment la chasse à la baleine s’est étendue du Pays basque au reste du monde… jusqu’à être interdite – https://theconversation.com/comment-la-chasse-a-la-baleine-sest-etendue-du-pays-basque-au-reste-du-monde-jusqua-etre-interdite-281450

40 ans après la catastrophe nucléaire de Tchernobyl, l’insaisissable responsabilité

Source: The Conversation – France (in French) – By Antoine Weidmann, Doctorant en histoire contemporaine, Université Bordeaux Montaigne

Le 26 avril 1986, la centrale nucléaire de Tchernobyl bascule dans l’histoire. Qui est responsable de la catastrophe, la plus grave de l’histoire du nucléaire civil ? L’examen de la chaîne de responsabilités est complexe, entre défauts techniques et organisationnels et gouvernance politique partagée entre deux ministères. La catastrophe témoigne aussi d’une culture de la sûreté nucléaire bien différente de ce qu’elle est aujourd’hui en occident.


Il y a 40 ans, à 1h23 du matin, le 26 avril 1986, le réacteur N°4 de la centrale nucléaire Vladimir Ilitch Lénine, située à Tchernobyl, en actuelle Ukraine, explose. Cet évènement représente la catastrophe nucléaire la plus grave de l’histoire nucléaire soviétique et mondiale.

L’accident se produit au cours d’un test de sécurité de l’unité n°4 de la centrale, qui s’emballe alors à plus de 100 fois sa puissance nominale, conduisant à la fusion du cœur du réacteur puis à l’explosion de celui-ci. En cause, une série de défaillances humaines et techniques. La catastrophe prend de court toutes les autorités soviétiques par son ampleur. Après avoir, dans un premier temps, minimisé la gravité de l’accident, celles-ci sont rapidement confrontées à la réalité du désastre.

À ce moment précis, il n’est pas certain que les dirigeants aient pleinement conscience de toutes les conséquences de l’accident. Mais les défauts du complexe nucléaire soviétique, tant en matière de conception que de procédures, étaient connus, en tout cas par certains dirigeants et scientifiques.

Peut-on retracer la chaîne des responsabilités ayant conduit à l’accident ? L’exercice est périlleux : la responsabilité de l’accident repose sur un concours de circonstances, permis par les failles d’un système technique et organisationnel très différent de celui qui structure aujourd’hui la sûreté nucléaire en Europe.

La technologie RBMK, instable par conception

La construction de la centrale nucléaire Lénine à Tchernobyl débute en 1970. Elle aboutit à la mise en service de quatre réacteurs entre 1978 et 1984. En 1986, année de la catastrophe, un cinquième réacteur est encore en cours de construction depuis 1981. La centrale est située dans le nord de l’Ukraine proche de Kiev et de la frontière avec la Biélorussie. Son refroidissement par eau est assuré par la rivière Pripiat, un affluent du Dniepr qui se jette dans la mer Noire.

Les réacteurs de la centrale sont de type RBMK (pour Reaktor Bolshoy Moshchnosti Kanalnyi, soit réacteur de grande puissance à tubes de force, en français) comme environ la moitié du parc nucléaire soviétique à cette période. Il s’agit d’un réacteur refroidi à l’eau et modéré au graphite.

Cette technologie, propre à l’Union soviétique, dispose d’avantages, notamment en termes de maintenance et d’approvisionnement en isotopes, puisqu’il permet de produire du plutonium, utile dans le cadre d’un programme nucléaire militaire. Mais sa conception le rend instable.

En effet, le réacteur RBMK est conçu en faisant appel à un coefficient de vide positif. Il permet de caractériser l’évolution de la réactivité dans le cœur en cas de diminution de la densité du fluide caloporteur, par exemple en cas de fuite. Le coefficient de vide décrit donc la tendance spontanée du réacteur à augmenter sa puissance (coefficient positif), à rester dans un état stable (coefficient nul), ou à diminuer spontanément sa puissance (coefficient négatif, soit l’arrêt progressif de la réaction en chaîne), ce qui est le cas des réacteurs à eau pressurisée français.

De par ce coefficient de vide positif, les réacteurs RBMK sont fondamentalement instables et doivent être régulés grâce à l’action des opérateurs. De ce fait, il existe un risque d’emballement de la réaction en chaîne, pouvant jusqu’à conduire à la fusion du combustible nucléaire, comme cela fut le cas à Tchernobyl. Les ingénieurs soviétiques se devaient donc d’être très soucieux de la stabilité du réacteur.

D’autres contraintes techniques pèsent sur les opérateurs, comme la présence de graphite à l’extrémité des barres de contrôle, qui est inflammable. Ceci augmente la réactivité dans le cœur du réacteur au début de leur insertion, ce qui peut devenir déstabilisant si un grand nombre sont insérés en même temps, comme lors d’un arrêt d’urgence.

Ce n’est pas tout : le bouton AZ5, qui permet de déclencher la procédure d’arrêt d’urgence de la centrale RBMK, met plus de vingt secondes à fonctionner, ce qui accroît encore les risques de perte de contrôle de la réaction en chaîne.

Le bouton AZ5 (il s’agit du bouton recouvert d’un boîtier en métal, en haut de la console de pilotage, au milieu de la photographie) était supposé déclencher la procédure d’arrêt d’urgence de la centrale.
Kuba Daneck, CC BY

Au sein des centrales RBMK de l’époque, il existait une consigne informelle : ne pas diminuer la puissance du réacteur sous les 700 mégawatts (MW) thermiques de manière prolongée et toujours laisser trente barres de contrôle au minimum dans le cœur du réacteur. Ces consignes ont été outrepassées à Tchernobyl.




À lire aussi :
Que sont devenus les réacteurs RBMK ?


En 1975 déjà, des incidents sur une centrale RBMK

Après la catastrophe de Tchernobyl, dans un contexte de réformes politiques, Mikhaïl Gorbatchev, veut encourager la transparence sur la situation. Le 14 mai 1986, lors d’une allocution télévisée, il prend la parole pour rendre compte de la situation sur place, signe fort d’un changement des usages politiques soviétiques.

Suite aux pressions internationales – et en particulier de l’Agence internationale de l’énergie atomique (AIEA) –, le comité central du parti communiste conduit alors, dès juillet 1986, une enquête partiellement publique afin d’identifier les causes des évènements survenus dans le réacteur N°4.

Cette enquête apporte des éléments de culpabilité, toutefois répartis entre les concepteurs, les opérateurs et les régulateurs, tout en démettant une série de responsables hiérarchiques, jusqu’à Efim Slavski, à la tête du ministère de l’ingénierie mécanique semi-lourde (Sredmash), alors partiellement en charge de l’énergie nucléaire, cette responsabilité étant partagée avec le ministre de l’énergie de l’électrification (Minenergo).

Hans Blix, directeur général de l’AIEA (à gauche), serre la main de M. V.A. Legasov, premier directeur adjoint de l’Institut de l’énergie atomique Kurchatov, à l’occasion de la conférence organisée fin août 1986.
Katholitzky, Stefan (copyright), IAEA-ARC-AV-PH-01-02-A2789-003

A la fin de l’été 1986, un sommet est organisé à Vienne par l’AIEA, où les soviétiques annoncent révéler l’intégralité de la catastrophe pour obtenir une expertise occidentale.

Les scientifiques soviétiques ont alors une consigne de transparence, à rebours de la culture du secret qui prévalait jusqu’alors. Une telle autorisation de divulguer des éléments techniques, tout en préservant l’industrie nucléaire comme élément stratégique au développement soviétique, est inédite pour l’URSS.

La délégation soviétique, dans le rapport qu’elle présente aux experts, pointe quatre facteurs déterminants qui ont conduit à la catastrophe :

Vue de la ville abandonnée de Pripiat, en 1988.
Report on the Visit of a U. S. Nuclear Safety Delegation to the Soviet Union, August 19-31, 1988
  • des procédures suboptimales,

  • leur transgression par les opérateurs,

  • des conséquences radiologiques mal prises en compte,

  • ces dernières ayant mené à une évacuation tardive de la ville de Pripiat.

À la suite de la conférence, un groupe d’experts de l’AIEA est constitué. Il livre son rapport en septembre 1986. Par la suite, le rapport présenté par la délégation soviétique est classifié, après que certains passages aient été publiés dans la Pravda. Le rapport de l’AIEA y est également publié.

À noter que la technologie des réacteurs de type RBMK avait déjà été remise en cause plus de 10 ans avant la catastrophe. En 1975 déjà, plusieurs incidents étaient survenus sur la centrale de Leningrad, qui avaient alors été étouffés par les responsables locaux de la centrale. On retrouve des problèmes liés à la conception mais aussi à la qualité de la construction et à l’organisation.

Autrement dit : la délégation soviétique présente à la conférence de Vienne, en août 1986, ne peut dissimuler sa connaissance des problèmes soulevés par l’AIEA. Si la dimension technique est essentielle, couplée à l’enchaînement improbable des évènements, les experts de l’AIEA concluent que les principales causes de l’accident sont humaines et organisationnelles, même s’ils refusent dans le même temps de considérer qu’elles relèvent seulement de l’erreur humaine.

Culture du secret, absence de redondance… une approche différente de la sûreté nucléaire

Pour comprendre la catastrophe, il faut revenir sur la vision qu’a alors le système politique soviétique de la sûreté nucléaire.

La culture du secret, héritée du programme nucléaire militaire soviétique, n’a pas permis de récolter, comme ailleurs, les fruits des retours d’expérience d’incidents nucléaires. Au contraire, elle a créé une fracture importante dans la perception du risque entre les concepteurs et les opérateurs des centrales.

Ces derniers dépendent d’ailleurs de deux ministères distincts : les concepteurs des centrales dépendent du ministère de l’ingénierie mécanique semi-lourde (Sredmash) et les opérateurs du ministère de l’énergie et de l’électrification (Minenergo).

La culture du secret concerne surtout le premier (Sredmash), qui est l’héritier du programme nucléaire militaire. La rétention d’informations y est forte vis-à-vis du Minenergo. Or, l’industrie nucléaire soviétique s’est bâtie depuis les années 1950-1960 autour de la relation ambivalente de ces deux ministères, dont les chevauchements de compétences sont nombreux.

Le principe de redondance (qui consiste à doubler, voire tripler ou quadrupler les systèmes de sûreté pour faire face aux cas de dysfonctionnement) est globalement absent des centrales nucléaires soviétiques, tandis que de l’autre côté du rideau de fer, il en est une composante majeure.

La conception soviétique de la centrale nucléaire doit enfin être vue comme un système sociotechnique. De son élaboration à sa mise en œuvre opérationnelle, elle implique des méthodes de gestion très différentes de celles qui valent en Occident. Le facteur humain y est perçu comme une redondance dans le système de sûreté nucléaire permettant de pallier, grâce à l’existence de spécialistes à tous les échelons, les potentiels manquements de chacun d’entre eux.

Dans le même temps, la latitude d’intervention et de prise de décision laissée aux opérateurs des centrales est en réalité réduite par un carcan administratif rigide et contradictoire, conduisant à une relative impuissance de ces derniers.




À lire aussi :
Three Mile Island, Tchernobyl, Fukushima : le rôle des accidents dans la gouvernance nucléaire


Les corrections apportées aux centrales RBMK

Suite à la catastrophe de 1986, des améliorations palliatives sont apportées au design des réacteurs RBMK.

D’abord pour réduire les effets du coefficient de vide, qui reste toutefois toujours positif à l’issue de ces mesures.

  • Cela passe par l’addition entre 80 et 90 barres de contrôle inamovibles, qui remplacent une partie des crayons de combustible.

  • La consigne de laisser, au minimum, 26 à 30 barres de contrôle dans le cœur est relevée entre 43 et 48 barres.

  • Enfin le remplacement progressif du combustible est décidé pour augmenter sa qualité : il passe d’un enrichissement de 2 % à 2,4 % d’uranium.

Le système d’arrêt d’urgence est également modifié, avec un système d’arrêt rapide comprenant 24 nouvelles barres de contrôle et leur reconception.

Photographie dans le bâtiment du réacteur RMBK de la centrale nucléaire de Leningrad, en 2008.
RIA Novosti, CC BY-SA

De surcroît, de nouveaux systèmes d’alerte pour déclencher plus rapidement la procédure d’arrêt d’urgence sont installés. Le système de dépressurisation de la vapeur est aussi revu pour augmenter ses capacités de réduction de pression par condensation et évacuation.

Quarante ans après cette catastrophe, la Russie demeure le seul État à faire encore fonctionner des réacteurs RBMK, mais ce ne fut pas toujours le cas. L’Ukraine a interrompu la production électrique du dernier réacteur de Tchernobyl en l’an 2000, tandis que la Lituanie a fermé son dernier réacteur RBMK de la centrale d’Ignalina en 2009, dans le cadre de son adhésion à l’Union européenne.




À lire aussi :
Plus de trois décennies après Tchernobyl, la Russie joue crânement la carte nucléaire


The Conversation

Weidmann Antoine a reçu des financements de l’Université Bordeaux Montaigne.

ref. 40 ans après la catastrophe nucléaire de Tchernobyl, l’insaisissable responsabilité – https://theconversation.com/40-ans-apres-la-catastrophe-nucleaire-de-tchernobyl-linsaisissable-responsabilite-280477

« Nudges » et « boosts » : comment s’articulent-ils ?

Source: The Conversation – France (in French) – By Pascale Tugayé, Doctorante en management public, Université Côte d’Azur

« Nudge » et « boost » peuvent être utilisés pour obtenir un comportement particulier d’une personne. Mais comment ces deux leviers se combinent-ils ? Lequel utiliser ? Dans quelles conditions ?


Le « nudge » a acquis une grande visibilité depuis que Thaler et Sunstein ont développé le concept au début de ce siècle. Sur la base des travaux dans le domaine de l’économie comportementale de Richard Thaler, prix Nobel d’économie en 2017, de nombreuses expérimentations ont permis de se pencher sur nos processus de décision.

Moins médiatisé, le « boost » appartient à un autre champ d’intervention concernant les comportements. Inspiré des travaux de Gigerenzer sur les prises de décisions rapides et basées sur des informations faites d’idées schématiques, son but est de développer davantage des compétences basiques, très techniques mais pertinentes, dans le but de faire un choix plus construit.

Comportement réel ou désirable ?

En effet, le nudge est intégré au sein de ce que Thaler et Sunstein appellent une architecture de choix. Cette dernière doit être étudiée pas à pas et revisitée dans des contextes distincts comme une cantine, une rue voire un relevé de banque, pour mettre en évidence la différence observée entre le comportement réel chez les individus et le comportement désirable.




À lire aussi :
Mégots jetés au sol : quand l’effet des nudges part en fumée…


Par « désirable », il est entendu privilégié par la collectivité (par exemple, jeter moins de mégots dans l’espace public) ou tout simplement préféré sur le long terme par un individu concerné (finaliser un rapport difficile à rédiger). En l’occurrence, chacun se doit de prendre de nombreuses décisions quotidiennement.

Deux systèmes sont traditionnellement identifiés lors de la prise de décision individuelle. Le cerveau a l’habitude de prendre la majorité de ses décisions sur la base d’un système de pensée rapide et peu réflexif. C’est le fameux « système 1 » de pensée de Kahneman sur lequel sont en partie fondées les théories du nudge et du boost. Le « système 2 » de la pensée, quant à lui, nécessite une vraie réflexion coûteuse pour l’organisme, qu’il ne met en place que pour des problèmes complexes ou nouveaux.

Le nudge est conçu pour venir inciter les individus à prendre une décision plus favorable sans coercition, c’est-à-dire sans restreindre les possibilités qui s’offrent à chacun. Profondément ancrés dans une démarche de paternalisme – les hommes ont parfois besoin d’être orientés vers des choix plus pertinents – sans renoncer à l’espace de liberté de chacun, les nudges sont vus comme des instruments peu coûteux et complémentaires de démarches plus globales.

Le cousin malveillant

Souvent ludiques, ils se veulent imperceptibles et ne doivent être qu’un coup de pouce, une incitation douce, à mieux décider au sein du système rapide de pensée. Mais les nudges peuvent être considérés par certains comme des outils inquisiteurs et manipulateurs. En réponse, Thaler et Sunstein ont développé la notion de sludge (dont la traduction pourrait être boue épaisse). Soit le « cousin malveillant » du nudge qui aurait pour objectif de rendre les actions plus difficiles à réaliser, notamment par une complexification des procédures ou un temps de réalisation excessivement long. Ainsi, le simple fait de vous faire décocher l’autorisation de recevoir des actualités commerciales dans le cadre d’une offre promotionnelle est assimilable à une tentative de sludge.

Une intuition avantageuse

Le boost, de son côté, repose sur l’idée que le passage par un système de pensée long et complexe, dans certains cas, pourra nuire à l’individu et l’empêcher de prendre la meilleure décision. Gigerenzer prend l’exemple d’une expérience dans un hôpital pour orienter les patients avec une douleur cardiaque sur la base de 3 ou 19 critères. Le système frugal, basé sur 3 critères, permet de mieux traiter les patients dans leur ensemble et n’empêche pas de revoir un patient avec une problématique complexe pour des processus médicaux plus longs et complets. Le travail de Gigerenzer se base ainsi sur des méthodes dites heuristiques. Herzog et Hertwig ont récemment publié un article décrivant les processus heuristiques comme des règles générales très basiques délaissant certaines informations et permettant de faire des choix plus rapidement.

Revenons à notre exemple précédent : d’aucuns pourraient croire que poser trois questions à chaque patient ne suffirait pas à les orienter en cas d’urgence. Or, ces trois questions décisives seront mieux canalisées que 19 critères, de plus, elles sont basées sur des vérités scientifiquement démontrées : ces trois axes directeurs suffiront à guider l’intuition des professionnels. En étant orientés plus rapidement, les cas les plus urgents auront davantage de chance de guérison et les cas plus complexes feront des analyses plus poussées.

En réalité, tout un chacun peut initier un travail en réalisant une carte mentale (parfois aussi appelée carte heuristique) : ce schéma pourra servir de guide ou de synthèse d’une découverte. Il est rarement complet mais permet de tracer en quelques minutes les grands axes de la pensée. Le boost nous invite à apprécier notre intuition tout en l’aidant à dépasser ses limites : les biais. En effet, les décisions basées sur une pensée heuristique sont souvent assimilées à des biais cognitifs. Alison Gopnik explique que les bébés se forment à notre monde en calculant des probabilités. En grandissant, nous intégrons peu à peu les informations autour de nous en déduisant des probabilités de notre vécu. Nous nous créons des biais cognitifs sous forme de pensée heuristique, d’intuition, des autoroutes de la pensée pour aboutir plus facilement, au risque parfois d’adopter des comportements qui nous desservent.

Ces heuristiques rapides, lorsqu’elles sont réalisées sur la base de statistiques et probabilités démontrées comme dans un boost, permettent à chacun de prendre des décisions plus rationnelles. Ces boosts pourront prendre plusieurs formes détaillées par Herzog et Hertwig : apprentissage des réelles statistiques liées à une situation, création de règles de séparation financière entre vie privée et vie professionnelle, voire un self-nudge. Ce dernier boost bien précis consiste à observer notre architecture de choix et les biais qui nous causent des tracas. Il s’agit alors de prévoir des nudges soi-même pour parvenir à un meilleur comportement. Dans ce cas, l’adhésion de l’individu est entière. Concrètement, s’imposer une période sans notification et sans appel sur son poste de travail peut être une forme de self-nudge. L’individu boosté s’autorise cette intervention sur son espace de travail pour mieux achever son but.

Former ou inciter, faut-il choisir ?

Une analyse fine de plusieurs nudges à dimensions écologiques est parue en 2023 afin de savoir lesquels étaient les plus efficaces. Cette analyse réalisait une classification des nudges en fonction de deux leviers principaux que sont la faisabilité (comment ?) et la désirabilité (pourquoi ?).

Au sein du levier « faisabilité », il s’agit de jouer sur l’architecture de choix en cadrant l’information, ou en donnant de la visibilité au meilleur choix, ou encore en facilitant l’information. Ainsi, des hôtels asiatiques ont placé un autocollant à un seuil écoresponsable de remplissage en eau des baignoires. Cette première catégorie de nudges verts semble mieux fonctionner que les autres car elle réduirait la distance psychologique à la mise en œuvre d’une action.

Un effet boomerang

Au sein du levier de la désirabilité, se cache entre autres un type de nudge extrêmement connu et décrié qu’est celui de la désirabilité sociale : dévoiler aux yeux de tous sa conduite, en forçant chacun à employer des sacs poubelles transparents par exemple ; ou encore, être comparé à une norme parfois lointaine et vague, comme il a pu être observé sur certaines factures d’électricité décrivant l’écart de consommation d’un foyer à la norme. En dépit d’un effet positif avéré, ces dispositifs sont susceptibles de générer un effet contre-productif. C’est ce que certains chercheurs appellent un effet boomerang : se sentant manipulée, une frange de la population adopte par réaction le comportement non désiré. L’ensemble de ces types de nudges ne permettent pas aux individus de prendre du recul sur leur comportement.

France Culture 2022.

Au contraire, le boost fonctionne sur des cartes mentales et se propose de donner de nouvelles compétences. Il peut s’agir d’améliorer la compréhension de la fixation d’un prix pour un service complexe, par exemple. Certaines formes de boosts peuvent même être déclenchées volontairement par les individus ou bien par un tiers, à l’instar de ceux permettant de développer la motivation pour un apprentissage.

Nudge et boost visent chacun à modifier le système rapide de pensée. Le nudge joue au sein de la prise de décision sur l’action elle-même, alors que le boost reconfigure, via un processus légèrement plus énergivore lors de la découverte, les choix réalisés. S’il faut effectivement choisir l’outil, il s’agit toujours de composer avec les limites de l’esprit humain.

Un horizon temporel différent

Les effets des nudges semblent ne pas perdurer dans le temps. Ennui, lassitude, détérioration… Les nudges associés à la préservation de l’eau ou de l’énergie, par exemple, ont un effet direct et notable mais qui s’estompe en quelques mois.

Le boost, au contraire, n’a pas toujours d’effet direct sur les choix réalisés. Un temps d’adaptation ou de motivation est toléré entre le moment où un individu rencontre un boost et la mise en place du comportement rationnel et désirable. En revanche, le boost serait plus pérenne dans le temps. Il implique une meilleure compréhension des raisonnements heuristiques de l’individu et suppose un engagement de la part de l’individu boosté.

Les nudges et les boosts fonctionnent différemment mais ont tous deux pour objectif de faciliter les prises de décision rapides et efficaces au quotidien. Il existe encore des zones grises où chacun pourra déterminer ce qui relève du nudge ou du boost. Leurs effets sont souvent positifs, neutres et parfois, contre-productifs, surtout lorsque la logique sous-jacente est proche d’une certaine forme de manipulation. Dans tous les cas, ils ne peuvent suffire à eux-mêmes et doivent être considérés comme des outils possibles, par définition non neutres.

The Conversation

Tugayé Pascale est membre du laboratoire GRM et de l’Association des Doctorants Francophones en Gestion. Elle recevra des financements de la Chaire partenariale l’Eau dans les territoires des Alpes-Maritimes pour ses recherches.

ref. « Nudges » et « boosts » : comment s’articulent-ils ? – https://theconversation.com/nudges-et-boosts-comment-sarticulent-ils-268785

Ce que les paiements en cryptomonnaies exigés par l’Iran disent du rôle millénaire de la monnaie

Source: The Conversation – France (in French) – By Mikael Fauvelle, Associate Professor and Researcher, Department of Archaeology and Ancient History, Lund University

Alors que s’érode la domination du dollar américain, le recours aux cryptomonnaies met en lumière un des rôles historiques de la monnaie. PicsPD/Pixnio, CC BY

Du bronze aux cryptomonnaies, l’histoire montre que la monnaie sert d’abord à commercer à distance, entre inconnus. Les pratiques actuelles de l’Iran et de la Russie en offrent une illustration contemporaine.


Lorsque l’Iran a commencé à exiger un paiement en échange d’un passage sécurisé dans le détroit d’Ormuz, Téhéran a ouvert la porte à des règlements en cryptomonnaies. Même logique du côté du réseau opaque de pétroliers qui, depuis l’invasion à grande échelle de l’Ukraine en 2022, écoule clandestinement du pétrole russe sur les marchés mondiaux : ces flux sont souvent réglés de cette manière.

Partout dans le monde, les acteurs illicites se tournent de plus en plus vers les cryptomonnaies pour commercer en échappant aux sanctions américaines. En procédant ainsi, des États comme la Russie et l’Iran réactivent une fonction ancienne de la monnaie, déjà à l’œuvre dès l’âge du bronze : permettre des échanges entre inconnus, au-delà des frontières politiques.

Dans mon ouvrage Shell Money (2024, non traduit en français), qui explore certaines des plus anciennes formes de monnaie au monde, je montre que des dynamiques similaires traversent toute l’histoire.

Les monnaies modernes comme le dollar américain ou l’euro reposent sur la confiance accordée aux institutions financières des États — à l’image des premières pièces métalliques de l’Antiquité, frappées par les cités grecques pour lever l’impôt et rémunérer les soldats. À la préhistoire, en revanche, de nombreux systèmes monétaires se sont développés sans l’appui d’un pouvoir étatique, à l’image des lingots de bronze.

Cuivre, étain et échanges à longue distance

L’âge du bronze (environ 2500 à 500 av. J.-C.) est marqué par des voyages à longue distance et une forte connectivité interrégionale. Dans ce contexte, disposer d’un moyen d’échange commun était essentiel pour entretenir les réseaux commerciaux.

Car les outils en bronze étaient fabriqués à partir de cuivre et d’étain, deux ressources disponibles seulement dans certaines régions du monde ancien. En Europe du Nord, le cuivre provenait notamment du pays de Galles, des Alpes, de l’Autriche, de la Sardaigne ou de la péninsule Ibérique, tandis que l’étain venait principalement de Cornouailles et du Devon. Cela impliquait que, par exemple, tout le cuivre utilisé en Scandinavie devait être acheminé via des échanges à longue distance.

Une grande partie de ces échanges reposait sur des lingots de bronze — anneaux, barres ou têtes de hache — dont le poids et la forme étaient fortement standardisés d’une région à l’autre. Cette standardisation les rendait interchangeables, une propriété essentielle de toute forme de monnaie. Les objets en bronze étaient également fragmentés en unités de taille compatibles avec des échanges de type marchand.

Le besoin de monnaie à l’âge du bronze

Voyager à l’âge du bronze n’avait rien d’aisé. Les déplacements sur de longues distances étaient périlleux et pouvaient durer des mois. Un marchand itinérant n’avait aucun moyen de savoir si ses partenaires commerciaux seraient encore présents au moment du voyage de retour. Les formes de réciprocité propres aux communautés locales ne s’appliquaient plus : les échanges devaient devenir transactionnels.

Dans ce contexte, le bronze s’est imposé comme un moyen d’échange standardisé. En transportant des lingots de bronze, un voyageur pouvait commercer à grande distance, avec l’assurance que cette forme de valeur serait acceptée où qu’il se rende.

Dans d’autres régions du monde ancien, des coquillages et des perles de coquillage faisaient office de monnaie. Le caractère chinois (bèi) provient ainsi d’un pictogramme représentant un coquillage cauri, et entre aujourd’hui dans la composition de centaines de caractères liés à la finance, notamment ceux signifiant acheter, vendre, richesse ou profit. Importés depuis l’océan Indien, les cauris ont été utilisés comme monnaie en Chine sous la dynastie Zhou.

En Amérique du Nord, de petites perles de coquillage servaient également de monnaie et circulaient à l’intérieur du continent, à des milliers de kilomètres des littoraux où elles étaient collectées et produites. Ces exemples montrent que la monnaie d’échange ne se limitait pas aux métaux : elle pouvait émerger à partir de tout bien à la fois désirable et rare.

Le recul du dollar américain

La domination des monnaies fiduciaires émises par les États — c’est-à-dire non adossées à une matière première comme l’or — repose sur la confiance qu’elles inspirent, leur liquidité et le soutien institutionnel dont elles bénéficient.

Aujourd’hui, le commerce international est largement dominé par le dollar américain. Mais à mesure que le monde devient de plus en plus multipolaire — avec des centres de gravité concurrents en Amérique du Nord, en Europe et en Chine — on peut s’attendre à voir le rôle du dollar s’éroder.

En réalité, certains indices suggèrent que ce mouvement est déjà à l’œuvre. Le rôle du dollar comme principale monnaie de réserve mondiale — c’est-à-dire détenue en grandes quantités par les États et les banques centrales pour stabiliser leurs économies — est passé d’environ 70 % à la fin des années 1990 à moins de 60 % aujourd’hui. Une tendance appelée à se poursuivre, dans un contexte marqué par des signes d’isolement croissant des États-Unis, des tensions au sein de la coopération transatlantique, et la montée en puissance économique de la Chine.

Pour autant, la fragmentation politique ne signifie pas la fin du commerce international. L’histoire regorge de périodes — dès l’âge du bronze — où morcellement politique et dynamisme des échanges coexistaient. Pour ceux qui cherchent à s’affranchir du contrôle des États, cela pourrait se traduire par une évolution des formes de monnaie utilisées.

Video: Bloomberg Television.

De nouvelles formes de monnaie

Les différences sont nombreuses entre les cryptomonnaies contemporaines et les monnaies-marchandises de la préhistoire. Les cryptomonnaies restent peu utilisées et rarement acceptées dans les transactions du quotidien, leur valeur est très volatile et, comme les monnaies fiduciaires modernes, elles ne possèdent pas de « valeur d’usage » au sens où pouvaient en avoir des lingots de bronze ou même des perles de coquillage.

Elles n’en constituent pas moins, toutes deux, des formes de monnaie « par le bas » — c’est-à-dire non contrôlées par les États — qui existent en dehors de la supervision d’un gouvernement unique ou d’un grand acteur financier.

C’est précisément cette absence de contrôle étatique qui pousse des pays sous sanctions comme l’Iran ou la Russie à exiger des paiements en cryptomonnaies. À mesure que le levier financier des États-Unis s’affaiblit, ces transactions deviennent plus difficiles à bloquer ou à sanctionner, ce qui pourrait transformer en profondeur le financement des conflits à venir.

Dans ce contexte, les cryptomonnaies pourraient tirer leur épingle du jeu, en continuant d’assurer l’une des fonctions les plus anciennes de la monnaie : permettre de commercer avec des inconnus.

The Conversation

Mikael Fauvelle reçoit des financements de la Bank of Sweden Tercentenary Foundation et de la Marcus and Amalia Wallenberg Foundation. Il est l’auteur de « Shell Money: A Comparative Study » (Cambridge University Press).

ref. Ce que les paiements en cryptomonnaies exigés par l’Iran disent du rôle millénaire de la monnaie – https://theconversation.com/ce-que-les-paiements-en-cryptomonnaies-exiges-par-liran-disent-du-role-millenaire-de-la-monnaie-281264

Hazel Kyrk, l’économiste méconnue qui anticipa notre société de consommation moderne

Source: The Conversation – in French – By David Philippy, Maître de conférences en économie, Institut catholique de Paris (ICP)

Dès le début du XXᵉ siècle, Hazel Kyrk cherche à fournir aux consommateurs les outils de leur émancipation économique. Wikimediacommons

Dès 1923 dans sa Théorie de la consommation, Hazel Kyrk (1886-1957) anticipe l’émergence de la société de consommation en cherchant à analyser les raisons pour lesquelles les ménages états-uniens achètent des biens ou des services. Loin de se cantonner à l’étude du foyer et de la famille, comme beaucoup de femmes économistes de l’époque, son travail visionnaire influence encore aujourd’hui notre façon de penser la consommation.


Une question inutile, sans intérêt. Jusqu’aux années 1920, c’est ainsi que les économistes perçoivent l’étude de la consommation… Pour Adam Smith, le père fondateur de l’économie au XVIIIᵉ siècle, la consommation est seulement le « but ultime » de la production. Il n’y a donc pas lieu de l’étudier pour elle-même. À la fin du XIXᵉ siècle, les quelques rares économistes qui s’intéressent à l’étude de la consommation, comme Thorstein Veblen, sont peu entendus.

C’est dans ce contexte que, en 1923, Hazel Kyrk (1886-1957) publie son tout premier livre, Théorie de la consommation (A Theory of Consumption). Née dans une famille rurale modeste au cœur de l’État d’Ohio aux États-Unis, elle travaille un temps comme aide familiale chez l’économiste Leon Carroll Marshall (1879-1966). Rencontre décisive puisqu’elle conduit Hazel Kyrk à poursuivre ses études à l’Université de Chicago, où elle obtient son doctorat d’économie en 1920.

Tout au long de sa vie, la question qu’elle pose est la suivante : dans quelle mesure les consommateurs sont-ils libres de leurs choix ?

« Les consommateurs sont des animaux sociaux »

Dans sa Théorie de la consommation, Hazel Kyrk formule une critique audacieuse au concept du libre marché. Afin d’appréhender correctement comment les individus font leurs choix de consommation, nous dit-elle, il faut prendre en compte l’ensemble de leur environnement de décision, et ne pas se limiter à la seule loi de l’offre et de la demande. Selon l’économiste, les avancées en psychologie permettent de montrer que :

« Les consommateurs sont des animaux sociaux, membres de groupes sociaux, au sein d’une organisation sociale complexe. »

Pour ce faire, elle développe une théorie novatrice de la liberté du choix, prenant en compte les facteurs sociologiques, psychologiques et l’influence de la publicité. En l’articulant avec la question du pouvoir d’influence des entreprises, elle pose un regard attentif sur le développement du marketing.

L’une des pistes qu’elle suggère est notamment d’éduquer les consommateurs à reconnaître les mécanismes utilisés par les professionnels du marketing afin « de développer des défenses contre les méthodes indésirables en vogue ».

Le genre comme élément déterminant

Théorie de la consommation, publié en 1923.
McMaster University

Hazel Kyrk contribue de façon significative au développement du champ de l’économie de la consommation, dont elle est désormais devenue la figure de proue. Elle élabore des enquêtes nationales et d’analyses statistiques de grande ampleur sur la consommation des ménages états-uniens au sein de l’administration fédérale. Ses travaux nous permettent d’appréhender la façon dont le genre apparaît comme un élément déterminant dans la construction de la science économique comme discipline.

Dans les années 1920, la science économique est clairement une affaire d’hommes. Aux États-Unis, des femmes sont diplômées d’un doctorat en économie dès les années 1900. Les thèmes de leurs recherches sont à cette époque, encore très différents de ceux de leurs homologues masculins. Elles sont plutôt encouragées à se diriger vers les questions domestiques, le travail des femmes et des enfants et, bien entendu, la consommation. L’économiste Richard T. Ely souligne en 1936 :

« Ma femme s’était penchée sur l’économie de Patten. Elle sentait qu’elle devait faire sa part pour contribuer à une bonne consommation. »

À la fin du XIXᵉ siècle, la science économique s’institutionnalise comme discipline académique à part entière, notamment lors de la création de l’American Economic Association en 1885. Ce mouvement va de pair avec l’exclusion de certains thèmes de recherche, dont fait notamment partie l’étude de la consommation. Il existe l’idée d’une « séparation des sphères » (masculine/publique vs féminine/privée). La consommation (et donc son étude) était alors associée à une image féminine, et jugée peu scientifique ou objective.

Au-delà de l’économie domestique


« The Journal of Home Economics », Février 1909, 1(1)

Au tournant du XXᵉ siècle, un groupe de femmes progressistes se rassemble et développe autour du « mouvement d’économie domestique » (« Home Economics Movement ») qui aboutit en 1909 à la création de l’American Home Economics Association.

Selon elles, le progrès doit passer par l’amélioration, voire la rationalisation, du foyer et des différentes tâches domestiques. En 1920, la majorité des femmes aux États-Unis n’exerce pas d’activité lucrative – c’est le cas pour seulement 22,4 % des femmes entre 25 et 44 ans. À ce titre, la consommation apparaît de façon croissante comme une nouvelle activité dont le périmètre dépend directement des femmes, en tant que gestionnaires des dépenses de consommation.

Comme beaucoup de femmes pourtant diplômées d’un doctorat en économie, Hazel Kyrk est systématiquement rappelée à cet héritage intellectuel duquel elle cherche à se distancer. Pourtant, dans son livre Economics Problems of the Family paru en 1933, sa perspective est celle d’une économiste, et non celle d’une économiste domestique. Elle le souligne dans sa lettre à Dorothy Dickens, datée du 29 janvier 1946 :

« Lorsqu’on m’a demandé à moi, économiste de formation, avec tout l’enseignement que j’ai reçu, de rejoindre un département d’économie domestique pour donner des cours en économie, j’ai supposé que c’était “en économie” comme les économistes utilisent le terme. Je ne suis pas compétente pour donner autre chose. »

Cet effet de rappel fut particulièrement visible lorsqu’elle obtint son poste à l’Université de Chicago en 1925•; elle accepte à la seule condition d’être également affiliée au département d’économie. Cette double affiliation ne lui est finalement donnée que cinq ans plus tard, en 1929.

Consommer devient une identité

Aux États-Unis, le contexte socio-économique au début du XXᵉ siècle est caractérisé par trois éléments importants :

  • la transformation de la place des femmes dans la société ;

  • l’émergence du consumérisme moderne ;

  • le problème croissant de la vie chère.

Face à cette triple transformation, Hazel Kyrk cherche à proposer une théorie à la fois réaliste (permettant d’expliquer correctement la réalité) et utile au plus grand nombre. Ce faisant, elle cherche explicitement à répondre au problème du coût de la vie chère, à une époque où se développe la consommation des ménages, au détriment de l’autoconsommation – comme la production domestique des biens comme les habits.

Pendant l’entre-deux-guerres, un changement social important se met en place : les ménages (et donc les individus qui les composent) se définissent de plus en plus à travers les biens et les services qu’ils consomment. Consommer n’est plus simplement une tâche, une activité banale, mais devient progressivement un élément structurant de l’identité.

Dans cette perspective, Hazel Kyrk propose une étude approfondie des « standards de vie » afin de comprendre comment évolue la perception que les ménages ont de leur propre position socioéconomique. Son objectif est de déterminer de quelle façon cela impacte leurs décisions de consommation.

Bien consommer n’est pas chose aisée, tant les influences auxquelles le consommateur est confronté sont multiples. Selon Hazel Kyrk, le rôle de l’expert de la consommation doit être de fournir aux consommateurs les outils de son émancipation économique en promouvant les sources de son autonomie :

« L’éducation dont le consommateur a le plus besoin est celle qui le libérera de son conformisme aveugle. Il doit apprendre à consulter ses besoins propres, à former ses propres jugements, à désirer pour lui-même. »

Le champ de recherche inauguré par Hazel Kyrk dans sa Théorie de la consommation de 1923 sera suivi de multiples postérités intellectuelles, en particulier à travers plusieurs de ses doctorantes à Chicago. Ce sera notamment le cas de Margaret G. Reid (1896-1991) dont les travaux inspireront directement plusieurs Prix Nobel d’économie comme Franco Modigliani ou Gary Becker.

The Conversation

David Philippy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Hazel Kyrk, l’économiste méconnue qui anticipa notre société de consommation moderne – https://theconversation.com/hazel-kyrk-leconomiste-meconnue-qui-anticipa-notre-societe-de-consommation-moderne-276199