L’électronique de puissance : méconnue mais omniprésente et source de toujours plus de déchets électroniques

Source: The Conversation – in French – By Tanguy Phulpin, Maitre de Conférence, en gestion de l’énergie électrique, CentraleSupélec – Université Paris-Saclay

C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd’hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?


L’un des leviers de la transition énergétique et de la décarbonation de l’économie&nbsp est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.

L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).

Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.

Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.

L’électronique de puissance, maillon clé de la transition

L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.

Diversité des applications (en termes de puissance et de taille) utilisant de l’électronique de puissance.
Fourni par l’auteur

Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d’onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.

Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.

En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :

  • pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,

  • pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,

  • jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.

La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.

Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.

En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.

Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.




À lire aussi :
La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau


Des matériaux difficiles à réparer et à recycler

On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.

Composition typique des éléments d’électronique de puissance. En vert, on retrouve les matériaux les plus recyclables, jusqu’au noir pour les éléments les moins recyclables.
Thèse de Boubakr Rahmani, Fourni par l’auteur

Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.

Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.

La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.

Rendre l’électronique de puissance plus soutenable

La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.

En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.

En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.

Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l’allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l’aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.

Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.

Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.




À lire aussi :
Comment rendre l’électronique plus soutenable ?


The Conversation

Jean-christophe Crebier a reçu des financements publics de l’ANR et de l’Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.

Pierre Lefranc a reçu des financements de l’ANR pour le projet VIVAE portant sur l’éco-conception en électronique de puissance.

Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. L’électronique de puissance : méconnue mais omniprésente et source de toujours plus de déchets électroniques – https://theconversation.com/lelectronique-de-puissance-meconnue-mais-omnipresente-et-source-de-toujours-plus-de-dechets-electroniques-266012

Comment recycler la chaleur perdue dans les usines ?

Source: The Conversation – in French – By Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon

Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle chaleur fatale. Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.


Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.

Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).

Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.

La chaleur fatale : une énergie thermique émise par toutes les industries sous de nombreuses formes

Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.

Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.

Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.




À lire aussi :
Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).

Comment recycler la chaleur fatale ?

Heureusement, des solutions existent pour recycler la chaleur fatale.

L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.

Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.

Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.

Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.

Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.

Les pompes à chaleur : une solution pour la valorisation du gisement « basse température » de chaleur fatale

Les pompes à chaleur (ou « PACs ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.

Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.




À lire aussi :
La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir


Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :

schéma
Le cycle thermodynamique (Brayton inverse) utilisé par les pompes à chaleur haute température qui utilisent du CO₂ supercritique pour la valorisation de chaleur fatale.
Alexis Giauque, Fourni par l’auteur

Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).

La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide — dans notre cas, du CO2 supercritique — le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.

On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.

Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.

La recherche scientifique au service de la décarbonation de l’industrie

Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.

Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».

Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.

Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.


Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Alexis Giauque a reçu des financements de l’ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)

ref. Comment recycler la chaleur perdue dans les usines ? – https://theconversation.com/comment-recycler-la-chaleur-perdue-dans-les-usines-265600

Jack l’Éventreur, premier « cold case » de l’histoire ?

Source: The Conversation – in French – By Jean Viviès, Professeur de littérature britannique, Aix-Marseille Université (AMU)

Que sait-on vraiment de ce tueur en série ? Pas grand-chose : même son nom est une invention. Aujourd’hui, l’enquête se poursuit au travers des recherches de la science forensique – l’ensemble des méthodes d’analyse fondées sur les sciences afin de servir au travail d’investigation –, mais aussi du côté de la stylométrie – un domaine de la linguistique qui utilise la statistique pour décrire les propriétés stylistiques d’un texte. Sans compter le travail des historiennes et historiens qui se penchent aussi sur les victimes du tueur, largement invisibilisées, et réduites non sans misogynie à un statut de « femmes de mauvaise vie ».


Jack l’Éventreur (« Jack the Ripper ») fascine toujours, à en juger par le nombre de livres et de films qui lui sont consacrés. Il y a eu depuis, malheureusement, bien d’autres tueurs en série, mais dans l’imaginaire il reste le premier à être qualifié ainsi, et le plus célèbre. La raison principale est sans doute qu’il n’a jamais été identifié. Une centaine de noms de suspects ont été évoqués, à l’époque des enquêtes puis au fil des décennies : immigrés, médecins, aristocrates, et certains un peu plus vraisemblables que d’autres, Aaron Kosminski – un barbier polonais –, Montague Druitt, un avocat, ou encore le peintre Walter Sickert, mais aucune certitude n’a pu être établie. L’auteur de Sherlock Holmes, Conan Doyle, s’amusa même à imaginer un assassin féminin : « Jill the Ripper ».

De nouvelles analyses

Certaines pistes de recherche actuelles s’appuient sur des travaux scientifiques et proposent des angles nouveaux.

Parmi les matériaux à exploiter se trouve la masse de lettres signées Jack l’Éventreur. La première de ces lettres est célèbre, adressée à « Dear Boss », le 25 septembre 1888. Sur un ton provocateur et théâtral, l’auteur y nargue la police et annonce d’autres meurtres. Depuis quelques années, la linguistique « forensique », discipline nouvelle, s’est penchée sur cette lettre et sur celles qui suivirent, notamment sur les trois qui semblent à l’analyse émaner de la même plume, « Saucy Jacky », le 1er octobre, et « From Hell », le 15 octobre.

Ces trois lettres ont été reçues avant que l’affaire ne soit rendue publique et sont donc les plus intéressantes. Les linguistes ont néanmoins étudié tous les textes prétendument écrits par « Jack l’Éventreur » afin de déterminer s’ils avaient été rédigés par la même personne. Un corpus Jack the Ripper a été compilé à partir des 209 textes comportant au total 17 643 mots. Andrea Nini de l’Université de Manchester a notamment fait progresser la question avec les outils numériques de la stylométrie.

On rappellera ici que, en fait, Jack l’Éventreur n’est pas le nom de l’assassin, mais celui de l’auteur de la première lettre, très probablement écrite par un journaliste au moment des faits et envoyée, non pas à la police mais, élément révélateur, à une agence de presse londonienne, la Central News Agency.

Toujours dans le domaine de la science forensique, les progrès en matière de recherche d’ADN ont semblé un temps de nature à élucider l’affaire. L’étude d’un ADN, prélevé sur le châle taché retrouvé près du corps d’une victime (Catherine Eddowes) et récupéré par un inspecteur de police de l’époque, a été confiée à Jari Louhelainen, biochimiste de l’Université John-Moores de Liverpool en collaboration avec David Miller, spécialiste de la reproduction à l’Université de Leeds. Ils ont extrait du châle de l’ADN mitochondrial et ont décelé une correspondance (« match ») entre une descendante de la victime et celle d’un suspect déjà bien repéré, un immigré polonais (Kosminski).

Russell Edwards, le commanditaire de ces recherches et actuel propriétaire du châle, a présenté cette découverte dans son livre Naming Jack the Ripper, paru en 2014. Mais d’autres spécialistes soulignent la provenance plutôt douteuse du morceau de tissu (a-t-il réellement été récupéré sur le lieu du crime ?) et le fait qu’il ait été beaucoup manipulé pendant plus d’un siècle. Aucune certitude ne peut en fait être tirée de ces analyses ADN.

D’autres tentatives, telles celle de la romancière Patricia Cornwell, à partir d’échantillons d’ADN prélevés sur un timbre et sur des enveloppes, et mettant en cause le peintre Walter Sickert, ont été largement diffusées dans deux de ses livres dont Ripper : The Secret Life of Walter Sickert (2017), mais elles n’ont pas convaincu la plupart des experts.

Qui étaient vraiment les victimes ?

La nouveauté la plus importante se trouve du côté des études historiques proprement dites où une recherche récente a changé la focale, en s’intéressant non plus à la galaxie des suspects mais aux victimes, notamment aux cinq femmes des meurtres dits « canoniques ». Ces cinq femmes ont été jusqu’ici trop vite assimilées à des prostituées en raison de leur pauvreté. Pour trois d’entre elles, il n’existe pas d’élément avéré qui confirme leur condition de prostituées. Mary Ann Nichols, Annie Chapman, Elizabeth Stride, Catherine Eddowes et Mary Jane Kelly, puisque tels sont leurs noms, n’étaient pas véritablement des prostituées. Cette idée très répandue a été déconstruite, notamment par Hallie Rubenhold dans son livre The Five : The Untold Lives of the Women Killed by Jack the Ripper (2019).

L’historienne montre que c’est à propos de deux des victimes seulement, Mary Ann Nichols et la plus jeune, Mary Jane Kelly, que des preuves attestent qu’elles ont exercé de manière régulière la prostitution. Pour les trois autres, rien ne permet de l’affirmer. Il s’agissait avant tout de femmes pauvres, sans logement fixe, qui affrontaient une situation économique et sociale des plus difficile dans l’East End londonien des années 1880. Les registres de la police du temps de même que les différents témoignages ne confirment pas leur état de prostituées. Cette représentation s’est installée, inspirée de récits à sensation et de préjugés et stéréotypes assimilant pauvreté et immoralité. Leurs vies sont davantage marquées par la misère, l’alcoolisme, la violence domestique et l’instabilité sociale.

La majeure partie de la littérature consacrée à Jack l’Éventreur s’est fixée sur le tueur sans visage et au nom fictionnel au détriment de ses victimes. Un contre-récit des meurtres est néanmoins possible, rendant leur place à des victimes sans défense, accablées par l’extrême pauvreté dans le Londres victorien. Y voir, au-delà d’une fascinante énigme criminelle, qui demeure, une série de féminicides à resituer dans le cadre d’une histoire sociale et non dans les faits divers criminels change la perspective : on s’intéresse dès lors moins à la manière dont ces victimes sont mortes qu’à la manière dont elles ont vécu.

Certains écrivains avaient anticipé les travaux des historiens. Ainsi, Jack London, dans son livre quasi contemporain des événements The People of the Abyss (le Peuple de l’abîme, 1903), a décrit la misère extrême du quartier de Whitechapel après s’y être lui-même plongé et a dénoncé les conditions économiques qui exposaient les femmes à la violence.

Avant lui, George Bernard Shaw avait écrit au journal The Star dès les premiers meurtres en soulignant qu’ils avaient au moins le mérite de mettre en lumière les conditions de vie misérables de l’East End, que la bonne société victorienne ignorait. Ces crimes, qui se caractérisaient par des mutilations sexuelles, s’inscrivaient par ailleurs dans une époque où la sexualité était un enjeu essentiel de contrôle social.

Un personnage qui hante la fiction

Les travaux des chercheurs continuent dans leur registre propre de s’inscrire dans cette fascination de l’« underworld », un monde sous le monde. En parallèle la postérité du personnage de Jack l’Éventreur conserve depuis près de cent trente ans sa place dans l’imaginaire occidental. La littérature et le cinéma s’étaient vite emparés du personnage.

Reprenant l’intrigue imaginée, en 1913, par la romancière Marie Belloc, Alfred Hitchcock réalisa en 1927 The Lodger, dans lequel un mystérieux locataire assassine des jeunes femmes dans Londres. Certains films restent dans les mémoires comme From Hell (2001), d’Albert et Allen Hughes, ou Time After Time (C’était demain, 1979), de Nicholas Meyer. On y suit Jack l’Éventreur dans un San Francisco moderne, pourchassé par H. G. Wells auquel il a volé la machine à voyager dans le temps. Les téléfilms et séries, bandes dessinées ou jeux vidéo abondent. C’est donc à la fiction, qui a rivalisé d’emblée avec la science et à qui il revint aussi d’incarner l’Éventreur, de lui donner un visage et une identité qui ont échappé encore à ce jour aux multiples enquêtes, nourries de techniques et de perspectives nouvelles.

Les recherches des historiens, des linguistes, des biochimistes et des spécialistes de « ripperology » (terme dû à l’écrivain anglais Colin Wilson) se poursuivent ou se réorientent, modifiant au fil des décennies notre vision de la célèbre affaire. Pour autant, l’icône culturelle qu’est devenu Jack l’Éventreur, presque un personnage conceptuel, n’y fait pas obstacle en offrant à nombre de travaux novateurs la visibilité qu’ils méritent. Jack l’Éventreur au nom inventé est comme devenu l’inventeur de toute une nouvelle sphère de savoirs.

The Conversation

Jean Viviès ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Jack l’Éventreur, premier « cold case » de l’histoire ? – https://theconversation.com/jack-leventreur-premier-cold-case-de-lhistoire-263358

Ultrafast-fashion et grands magasins : un pacte dangereux pour les consommateurs et la planète

Source: The Conversation – in French – By Aurore Bardey, Professeur Associé en Marketing, Burgundy School of Business

Le fabricant d’ultra fast-fashion Shein, qui jusque-là vendait en ligne, arrive dans plusieurs grands magasins. Quel impact cela aura-t-il sur les consommateurs ? À qui profitera cette nouvelle association ? Au géant chinois ? ou aux enseignes tricolores ?


Le 1er octobre 2025, la Société des grands magasins (SGM) a officialisé son partenariat avec Shein : un premier « shop-in-shop » Shein ouvrira au BHV Marais et dans cinq Galeries Lafayette de province. Le groupe Galeries Lafayette s’est immédiatement désolidarisé de cette décision, évoquant un désaccord « contractuel et de valeurs » avec ces magasins franchisés.

Cette annonce a aussitôt déclenché un tollé : marques françaises, militants écologistes et universitaires dénoncent une mésalliance entre l’ultra fast-fashion et le temple du luxe que sont les Galeries Lafayette. Et leurs inquiétudes ne sont pas infondées, car ce rapprochement soulève des enjeux majeurs pour les consommateurs, pour les enseignes et pour la planète. Afin de les comprendre, il faut d’abord revenir à ce qu’est l’ultra fast-fashion.

Le diable s’habille en fast-fashion ?

L’ultra fast-fashion représente l’aboutissement extrême d’un modèle déjà décrié. Elle repose sur une accélération inédite des cycles de production : des milliers de nouveaux modèles mis en ligne chaque jour, conçus et écoulés à une vitesse record. En 2023, Shein proposait jusqu’à 10 000 références quotidiennes. Derrière ce chiffre vertigineux se cache un système profondément délétère.




À lire aussi :
Comment fait Temu pour proposer des prix aussi bas ?


Car l’industrie de la mode figure parmi les secteurs les plus polluants au monde. Elle contribue massivement au changement climatique, à la surexploitation des ressources naturelles et à la pollution globale. Elle serait responsable de 8 % à 10 % des émissions mondiales de CO2 et de près de 20 % des eaux usées industrielles. Sa production textile consomme environ 93 milliards de mètres cubes d’eau par an, soit 4 % des prélèvements mondiaux en eau douce. À l’autre bout de la chaîne, chaque année, environ 92 millions de tonnes de déchets textiles sont générés, dont moins de 1 % est recyclé en nouveaux vêtements.

Pourtant, le marketing de ces enseignes se moque de ces impacts. L’objectif de ces dernières est clair : non pas répondre à un besoin réel, mais créer de nouveaux besoins pour pousser les consommateurs à acheter toujours plus, toujours plus vite. Or, si l’on interroge les motivations d’achat, le constat est sans appel : le prix reste le critère numéro un. Dans un contexte d’inflation et de budgets contraints, l’enjeu pour beaucoup est d’être stylé sans se ruiner. Les études montrent que cette sensibilité au prix dépasse de loin les considérations éthiques ou environnementales, même chez les consommateurs qui se disent préoccupés par la durabilité.

Cette logique séduit particulièrement les jeunes générations, qui veulent accéder immédiatement à des vêtements tendance pour un faible coût. De plus, l’ultra fast-fashion s’appuie sur des outils numériques puissants pour stimuler la consommation : promotions éclair, notifications permanentes, mises en scène de la rareté… autant d’incitations qui encouragent l’achat impulsif. Ces pratiques, aujourd’hui dénoncées par les régulateurs européens, ne sont pas sans conséquence : elles alimentent la compulsion d’achat et fragilisent notre santé mentale.

Le coût psychologique : dissonance et insatisfaction

Porter des vêtements associés à la pollution ou au travail forcé ne relève pas d’un geste anodin : cela peut provoquer une tension psychologique définie comme la théorie de la dissonance cognitive. Beaucoup de consommateurs affirment vouloir adopter une consommation responsable, mais continuent malgré tout d’acheter des vêtements de fast-fashion. Ce décalage, génère souvent culpabilité, insatisfaction et même regret post-consommation.

Des recherches expérimentales confirment ce mécanisme. Porter un T-shirt présenté comme durable entraîne un meilleur bien-être psychologique. À l’inverse, la quête compulsive de nouveaux vêtements, alimentée par la fast-fashion, entretient un cycle d’insatisfaction chronique. Les recherches sur le matérialisme soulignent que ce rapport consumériste est négativement corrélé au bien-être.

Mais il existe une autre voie. Les travaux récents sur le minimalisme vestimentaire montrent qu’une réduction volontaire de la consommation améliore le bien-être. Nous avons par exemple observé que la création d’une garde-robe capsule réduit la charge cognitive des choix quotidiens et augmente la satisfaction de vie. Ces résultats rejoignent d’autres études sur le détachement matériel et la simplicité volontaire, qui mettent en évidence une association positive avec la satisfaction de vie.

En clair, consommer moins, et surtout réduire l’accumulation de vêtements, n’est pas une privation. C’est, au contraire, une source de liberté et de mieux-être. Ainsi, l’ultra fast-fashion se révèle doublement néfaste puisqu’à la fois elle nuit à la planète et fragilise aussi notre santé psychologique.

Quand la fast-fashion salit l’univers du luxe

Au-delà de ses effets psychologiques sur les consommateurs, l’alliance de Shein et de SGM menace également l’identité des enseignes concernées. Car le luxe ne se réduit pas à un prix élevé. Il repose sur un univers de valeurs et de symboles, combinant la rareté (offres limitées et exclusives), la qualité exceptionnelle (savoir-faire, matériaux nobles) et une forte valeur symbolique (statut social, identité). Acheter du luxe, ce n’est pas seulement acquérir un objet, c’est accéder à un monde de significations et d’émotions.

Ainsi, lorsqu’un consommateur entre aux Galeries Lafayette, il n’attend pas seulement un produit, mais une expérience : élégance, distinction, voire un instant de rêve. Alors que le groupe Galeries Lafayette parisien revendique une identité haut de gamme, son partenaire SGM choisit d’accueillir une enseigne d’ultra fast-fashion, introduisant une contradiction d’image au cœur même du réseau. Celui qui entre pour vivre une expérience de rareté et d’exception se retrouve face à la banalité d’une offre associée à la surconsommation et aux controverses environnementales et sociales.

France 24, 2025.

Cela peut provoquer trois réactions principales :

  • de la déception (l’expérience ne correspond plus à l’image attendue) ;

  • de la culpabilité (acheter chez Shein dans un lieu prestigieux accentue la contradiction entre valeurs et comportements) ;

  • une perte de confiance : l’enseigne accueillante est perçue comme ayant sacrifié son identité pour des raisons économiques.

En somme, cette alliance ne fragilise pas seulement les marques au plan marketing. Elle transforme aussi profondément l’expérience vécue par les consommateurs, au risque de briser le contrat symbolique qui faisait la force du luxe français.

Et notre porte-monnaie dans tout ça ?

À première vue, l’arrivée de Shein dans des lieux aussi emblématiques que les Galeries Lafayette pourrait sembler une bonne nouvelle pour de nombreux consommateurs. La marque incarnerait ainsi ce que beaucoup de consommateurs recherchent : être stylé sans se ruiner. Mais les achats répétés, souvent impulsifs, finissent par gonfler le budget mode global.

Plutôt que d’alimenter cette spirale de surconsommation, deux options offrent une réponse à la fois économique, écologique et psychologique : la seconde main et acheter moins mais mieux.

Ces comportements alternatifs rétablissent la cohérence entre valeurs et consommation, un facteur clé de bien-être. À l’inverse, céder à l’ultra fast-fashion entretient une contradiction douloureuse : se dire préoccupé par l’avenir de la planète tout en soutenant un modèle destructeur.

Choisir la seconde main ou le minimalisme vestimentaire, c’est donc à la fois alléger son empreinte écologique et retrouver du sens dans ses choix de vie. À l’inverse, l’alliance Shein-SGM cristallise les dérives d’un modèle, qui cherche à vendre toujours plus vite, au prix de la valeur symbolique des grands magasins, mais aussi de notre bien-être individuel et collectif.

The Conversation

Aurore Bardey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Ultrafast-fashion et grands magasins : un pacte dangereux pour les consommateurs et la planète – https://theconversation.com/ultrafast-fashion-et-grands-magasins-un-pacte-dangereux-pour-les-consommateurs-et-la-planete-267036

La troublante actualité du nouvel album de Woody Guthrie, sorti 58 ans après sa mort

Source: The Conversation – in French – By Daniele Curci, PhD Candidate in International and American History, University of Florence

Sorti cet été, l’album posthume de Woody Guthrie, figure emblématique de la musique folk des années 1940-1960, résonne puissamment avec la situation actuelle des États-Unis : plusieurs des titres qu’il contient, consacrés à l’expulsion de migrants mexicains, à une justice raciste ou encore aux injustices économiques, auraient pu être écrits ces derniers mois…


Le 14 août est sorti Woody at Home, Vol.1 & 2, le nouvel album de Woody Guthrie (1912-1967), probablement l’artiste folk américain le plus influent, auteur de la célèbre « This Land Is Your Land » (1940), qui dans cet album est proposée avec de nouveaux vers.

L’album contient des chansons – certaines déjà connues, d’autres inédites – que Guthrie enregistra avec un magnétophone offert par Howie Richmond, son éditeur, entre 1951 et 1952 et qui sont désormais publiées grâce à une nouvelle technologie qui a permis d’en améliorer la qualité sonore.

« Deportee »

La parution de l’album a été précédée par celle du single « Deportee (Plane Wreck at Los Gatos) », une chanson dont on ne connaissait jusqu’ici que le texte, que Guthrie écrivit en référence à un épisode survenu le 28 janvier 1948, lorsqu’un avion transportant des travailleurs saisonniers mexicains, de retour au Mexique, s’écrasa dans le canyon de Los Gatos (Californie), provoquant la mort de tous les passagers.

Un choix qui n’est pas anodin, comme l’a expliqué Nora Guthrie – l’une des filles du folk singer, cofondatrice des Woody Guthrie Archives et longtemps conservatrice de l’héritage politico-artistique de son père – lors d’un entretien au Smithsonian Magazine, dans lequel elle a souligné combien le message de son père reste actuel, au vu des expulsions opérées par l’administration de Donald Trump et, plus généralement, de ses tendances autoritaires, un thème déjà présent dans « Biggest Thing That Man Has Ever Done », écrite pendant la guerre contre l’Allemagne nazie.

Tout cela montre la vitalité de Woody Guthrie aux États-Unis. On assiste à un processus constant d’actualisation et de redéfinition de la figure de Guthrie et de son héritage artistique, qui ne prend pas toujours en compte le radicalisme du chanteur, mais qui en accentue parfois le patriotisme.

Un exemple en est l’histoire de « This Land Is Your Land » : de la chanson existent des versions comportant des vers critiques de la propriété privée, et d’autres sans ces vers. Dans sa première version, « This Land » est devenue presque un hymne non officiel des États-Unis et, au fil des années, a été utilisée dans des contextes politiques différents, donnant parfois lieu à des appropriations et des réinterprétations politiques, comme en 1960, lorsqu’elle fut jouée à la convention républicaine qui investit Richard Nixon comme candidat à la présidence ou, en 1988, lorsque George H. W. Bush utilisa la même chanson pour sa campagne électorale.

Guthrie lut le compte rendu de la tragédie du 28 janvier 1948 dans un journal, horrifié de constater que les travailleurs n’étaient pas appelés par leur nom, mais par le terme péjoratif de « deportees ».

Ce célèbre cliché pris par la photographe Dorothea Lange en Californie, en 1936, intitulé « Migrant Mother », montre Florence Thompson, 32 ans, alors mère de sept enfants, native de l’Oklahoma et venue dans le Golden State chercher du travail.
Dorothea Lange/Library of Congress

Dans leur histoire, Guthrie vit des parallèles avec les expériences vécues dans les années 1930 par les « Oakies », originaires de l’Oklahoma, appauvris par les tempêtes de sable (dust bowls) et par des années de crise socio-économique, qui se déplaçaient vers la Californie en quête d’un avenir meilleur. C’était un « Goin’ Down The Road », selon le titre d’une chanson de Guthrie, où ce « down » signifiait aussi la tristesse de devoir prendre la route, avec toutes les incertitudes et les difficultés qui s’annonçaient, parce qu’il n’y avait pas d’alternative – et, en effet, le titre complet se terminait par « Feeling Bad ».

Parmi les difficultés rencontrées par les Oakies et les Mexicains, il y avait aussi le racisme et la pauvreté face à l’abondance des champs de fruits, comme lorsque les Mexicains se retrouvaient à cueillir des fruits qui pourrissaient sur les arbres (« The crops are all in and the peaches are rotting ») pour des salaires qui leur permettaient à peine de survivre (« To pay all their money to wade back again »).

Et, en effet, dans « Deportee », d’où sont extraites ces deux citations, Guthrie demandait avec provocation :

« Is this the best way we can grow our big orchards ?
Is this the best way we can grow our good fruit ?
To fall like dry leaves to rot on my topsoil
And be called by no name except “deportees” ? »

Est-ce la meilleure façon de cultiver nos grands vergers ?
Est-ce la meilleure façon de cultiver nos bons fruits ?
Tomber comme des feuilles mortes pour pourrir sur ma terre arable
Et n’être appelés que par le nom de « déportés » ?

Visions de l’Amérique et radicalisme

« We come with the dust and we go with the wind », chantait Guthrie dans « Pastures of Plenty » (1941, également présente dans Woody at Home), l’hymne qu’il écrivit pour les migrants du Sud-Ouest, dénonçant l’indifférence et l’invisibilité qui permettaient l’exploitation des travailleurs.

Guthrie, de cette manière, mesurait l’écart qui séparait la réalité du pays de la réalisation de ses promesses et de ses aspirations. Dans le langage politique des États-Unis, le terme « America » désigne la projection mythique, de rêve, de projet de vie qui entrelace l’histoire de l’individu avec celle de la Nation. En ce sens, pour Guthrie, les tragédies étaient aussi une question collective permettant de dénoncer la façon dont une minorité (les riches capitalistes) privait la majorité (les travailleurs) de ses droits et de son bien-être.

La vision politique de Guthrie devait beaucoup au fait qu’il avait grandi dans l’Oklahoma des années 1920 et 1930, où l’influence du populisme agraire de type jeffersonien – la vision d’une république agraire inspirée par Thomas Jefferson, fondée sur la possession équitable de la terre entre ses citoyens – restait très ancrée, et proche du Populist Party, un parti de la dernière décennie du XIXe siècle qui critiquait ceux qui gouvernaient les institutions et défendait les intérêts du monde agricole.

C’est également dans ce cadre qu’il faut situer le radicalisme guthrien qui prit forme dans les années 1930 et 1940, périodes où les discussions sur l’état de santé de la démocratie américaine étaient nombreuses et où le New Deal de Franklin Delano Roosevelt cherchait à revitaliser le concept de peuple, érodé par des années de crise économique et de profonds changements sociaux.

Guthrie apporta sa contribution en soutenant le Parti communiste et, à différentes étapes, le New Deal, dans la lignée du syndicat anarcho-communiste des Industrial Workers of the World (IWW) dont il avait repris l’idée selon laquelle la musique pouvait être un outil important de la militance. Dans le Parti, Guthrie voyait le ciment idéologique ; dans le syndicat, l’outil d’organisation des masses, car ce n’est qu’à travers l’union – un terme disposant d’un double sens dont Guthrie a joué à plusieurs reprises : syndicat et union des opprimés – qu’on parviendrait à un monde socialisant et syndicalisé.

« White America ? »

L’engagement de Guthrie visait également à surmonter les discriminations raciales. Ce n’était pas chose acquise pour le fils d’un homme que l’on dit avoir été membre du Ku Klux Klan et fervent anticommuniste, qui avait probablement participé à un lynchage en 1911.

D’ailleurs, le même Woody, à son arrivée en Californie dans la seconde moitié des années 1930, portait avec lui un héritage raciste que l’on retrouve dans certaines chansons comme dans la version raciste de « Run, Nigger Run », une chanson populaire dans le Sud que Guthrie chanta à la radio, dans le cadre de sa propre émission, en 1937. Après cela, Guthrie reçut une lettre d’une auditrice noire exprimant tout son ressentiment quant à l’utilisation du terme « nigger » par le chanteur. Guthrie fut tellement touché qu’il lut la lettre à la radio en s’excusant.

Il entreprit alors un processus de remise en question de lui-même et de ce qu’il croyait être les États-Unis, allant jusqu’à dénoncer la ségrégation et les distorsions du système judiciaire qui protégeaient les Blancs et emprisonnaient volontiers les Noirs. Ces thèmes se retrouvent dans « Buoy Bells from Trenton », également présente dans « Woody at Home », qui se réfère à l’affaire des Trenton Six : en 1948, six Noirs de Trenton (New Jersey) furent condamnés pour le meurtre d’un Blanc, par un jury composé uniquement de Blancs, malgré le témoignage de certaines personnes ayant vu d’autres individus sur les lieux du crime.

« Buoy Bells from Trenton » a probablement été incluse dans l’album pour la lecture qu’on peut en faire sur les abus de pouvoir et sur les « New Jim Crow », expression qui fait écho aux lois Jim Crow (fin XIXe–1965). Celles-ci imposaient dans les États du Sud la ségrégation raciale, légitimée par l’arrêt Plessy v. Ferguson (1896) de la Cour suprême, qui consacrait le principe « séparés mais égaux », avant d’être abolies par l’arrêt Brown v. Board of Education (1954), le Civil Rights Act (1964) et le Voting Rights Act (1965).

Popularisée par Michelle Alexander dans le livre The New Jim Crow (2010), la formule désigne le système contemporain de contrôle racial à travers les politiques pénales et l’incarcération de masse : en 2022, les Afro-Américains représentaient 32 % des détenus d’État et fédéraux condamnés, alors qu’ils ne constituent que 12 % de la population états-unienne, chiffre sur lequel plusieurs études récentes insistent. Cette chanson peut ainsi être relue, comme le suggère Nora Guthrie, comme une critique du racisme persistant, sous des formes institutionnelles mais aussi plus diffuses. Un exemple, là encore, de la vitalité de Guthrie et de la manière dont l’art ne s’arrête pas au moment de sa publication, mais devient un phénomène historique de long terme.

The Conversation

Daniele Curci ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La troublante actualité du nouvel album de Woody Guthrie, sorti 58 ans après sa mort – https://theconversation.com/la-troublante-actualite-du-nouvel-album-de-woody-guthrie-sorti-58-ans-apres-sa-mort-265032

Pionnières de la parité politique : qui étaient les députées de 1945 ?

Source: The Conversation – in French – By Anne-Sarah Bouglé-Moalic, Chercheuse associée au laboratoire HISTEME (Histoire, Territoires, Mémoires), Université de Caen Normandie

En octobre 1945, en France, 33 femmes font leur entrée sur les bancs de l’Assemblée nationale. Qui sont-elles ? Dans quelle mesure leur entrée au Parlement bouscule-t-elle un imaginaire républicain très masculin ? Retour sur le parcours de ces pionnières alors qu’on célèbre également les 25 ans de la loi pour la parité politique.


Le 21 octobre 1945, des élections législatives sont organisées en France. Elles doivent permettre de nommer une assemblée constituante pour la IVe République. La France n’a plus connu d’élections législatives depuis neuf ans – les dernières avaient amené le Front populaire au pouvoir, en 1936.

Mais ce n’est pas la seule particularité de cette échéance de l’immédiat après-guerre. Pour la première fois dans son histoire, l’Assemblée nationale peut accueillir des femmes, non plus dans les balcons, mais bien au cœur de l’hémicycle. La réforme du 21 avril 1944, accordant aux femmes les mêmes droits politiques qu’aux hommes, leur permet en effet non seulement de devenir électrices, mais aussi de se porter candidates aux suffrages de leurs concitoyens.

C’est la deuxième fois, en 1945, que les Françaises peuvent prendre part au jeu politique, après les élections municipales des 29 avril et 13 mai. Mais l’enjeu est différent. Le mandat municipal est celui de la proximité, de la bonne gestion familiale que l’on associe sans trop de difficulté à l’image des femmes. Le mandat parlementaire incarne lui le peuple, la République ; il est aussi réputé plus violent.

Le Parlement est un monde d’hommes. Comment les femmes y ont-elles fait leur entrée ? Qui étaient-elles, ces grandes inconnues qui ont été les premières à représenter une démocratie enfin posée sur ses deux pieds ?

Avant 1945, des préjugés et des expériences locales

En 1945, la question de l’éligibilité des femmes n’est pas nouvelle dans la société française. Nombreuses sont les féministes à avoir utilisé leur candidature à diverses élections pour populariser la cause suffragiste. La première d’entre elles est Jeanne Deroin, en 1849 ! Le processus a été repris ensuite à de multiples reprises, comme par Louise Barberousse ou Eliska Vincent, dans les années 1880 et 1890, et très régulièrement au XXe siècle. On se souvient particulièrement de la candidature de la journaliste Jeanne Laloë, aux élections municipales de 1908 à Paris, ou de la campagne de Louise Weiss et de l’association la Femme nouvelle en 1935.

Des femmes ont d’ailleurs été élues à plusieurs reprises. Aux élections municipales de 1925, les communistes positionnent des femmes en haut de liste, rendant presque automatique leur élection en cas de succès. Elles sont une dizaine à être élues, et plusieurs à siéger plusieurs mois, jusqu’à l’invalidation de leurs élections. On peut citer Joséphine Pencalet, sardinière de Douarnenez (Finistère), Émilie Joly et Adèle Métivier à Saint-Pierre-des-Corps (Indre-et-Loire), Mme Tesson à Bobigny (alors dans le département de la Seine)…

D’autres expériences sont menées par des maires sensibles au suffragisme et souhaitant contourner la loi, tout en restant dans la légalité : ils nomment de conseillères municipales officieuses, siégeant au Conseil mais avec des droits restreints. Trois villes – Villeurbanne (Rhône), Dax (Landes) et Louviers (Eure) – organisent même des élections pour donner davantage de légitimité à ces conseillères.

Histoire du vote des femmes (INA Politique, 2012).

Les préjugés sur l’immixtion des femmes en politique étaient encore tenaces, à la fin de la IIIe République. Certains, notamment des sénateurs, avancent que les hommes perdront leur énergie virile au contact des femmes dans l’hémicycle, tandis que d’autres estiment que la nature faible, nerveuse, impressionnable des femmes est trop risquée. Soit les femmes en pâtiraient gravement, soit elles se transformeraient en hommes, soit elles provoqueraient un coup d’État en se laissant emporter par le plus fort.

Malgré tout, à l’automne 1945, les femmes sont bien appelées à devenir députées : un changement majeur pour permettre à la démocratie française de se déployer pleinement, mais dont les conséquences restent minimes.

Des élues aux profils variés

Les élections municipales de 1945 sont difficiles à décrypter. Les mauvaises conditions administratives font qu’on ignore le nombre de candidates tout comme le nombre d’élues réelles. Tout au plus pouvons-nous proposer des estimations : moins de 1 % de femmes maires et sans doute environ 3 % de conseillères municipales.

Il est plus facile d’observer l’élection du 21 octobre 1945. Elle est organisée au scrutin de liste, car il s’agit d’une élection à la proportionnelle. 310 femmes sont officiellement candidates. Au soir de l’élection, 33 d’entre elles sont élues. Elles représentent alors 5,6 % de l’Assemblée nationale : un chiffre bas, mais qui reste indépassé jusqu’en 1986.

La plupart de ces femmes ont été oubliées. Seuls quelques noms sont encore familiers, comme ceux de Germaine Poinso-Chapuis et de Marie-Madeleine Dienesch, toutes deux ministres, ou de Jeannette Vermeersch-Thorez, compagne du secrétaire général des communistes.

Les profils des élues sont très variés. Beaucoup ont une profession à une époque où être femme au foyer n’est pas rare. Elles sont ouvrières, avocates, institutrices, agrégées, employées, journalistes, infirmières… Elles ont entre 29 ans (Denise Bastide) et 56 ans (Marie Texier-Lahoulle). Elles sont élues dans toute la France, de la Guadeloupe à la Nièvre, même si elles sont relativement plus nombreuses à être élues dans la Seine.

Leurs appartenances politiques sont bien représentatives du spectre politique qui se dessine au début de cette nouvelle république : elles sont 17 communistes, 6 socialistes, 9 MRP et une de droite. Il est intéressant de constater que, alors que les opposants du vote agitaient le cléricalisme féminin et leur conservatisme, la majorité des femmes élues sont de gauche. C’est le fruit d’une politique de ces partis longtemps en faveur de l’émancipation des femmes. L’Union des femmes françaises (UFF), association émanant du Parti communiste français, créée en 1943, rassemble environ 600 000 adhérentes en 1945 : un vivier d’électrices autant que de candidates.

Des femmes engagées dans la Résistance

Le point commun qui unit la majorité de ces élues est leur rôle dans la Résistance. Femmes engagées pendant la guerre, elles se sont créées une aura politique qui a pu encourager certaines à se présenter… ou à être repérées par les partis en place lors de la constitution des listes de candidats. Ainsi, 27 d’entre elles ont mené des actions diverses de renseignement, de sabotage, d’accueil… Quelques-unes ont d’ailleurs été déportées. Plusieurs sont décorées de la Croix de guerre ou de la médaille française de la Résistance.




À lire aussi :
Adolescentes et résistantes pendant la Seconde Guerre mondiale : naissance d’un engagement


On trouve parmi ces 33 députées quelques épouses d’hommes politiques ou de résistants. Il faut noter que cela n’est pas l’unique raison pour laquelle elles se sont présentées. Leur mérite personnel ne doit pas être diminué du fait de leurs connexions.

D’ailleurs, la plupart des élues de 1945 sont actives au Parlement. Ni potiches ni marionnettes, elles agissent avec les moyens qui sont les leurs sur des sujets qui leur tiennent à cœur. Par exemple, Émilienne Galicier, communiste résistante, est l’autrice de propositions de loi pour l’amélioration de la condition ouvrière, pour l’égalité des salaires femmes/hommes, la semaine de travail à quarante heures ou encore deux jours consécutifs de repos pour les femmes.

Francine Lefebvre, résistante catholique et membre du Mouvement républicain populaire (MRP), travaille au statut des délégués du personnel au sein des entreprises, elle réussit à obtenir les congés payés pour les femmes de vieux travailleurs, deux jours de congés payés supplémentaires pour les vendeuses des grands magasins condamnées à la station debout, ainsi que le relogement de familles nombreuses entassées dans des taudis.

Des pionnières à réinscrire dans l’imaginaire républicain

Si les premières élections de 1945 sont plutôt favorables aux femmes (elles font une entrée timide, mais remarquée), leur nombre décroît dans toutes les instances représentatives dès les années 1950, amorçant une rapide décrue et une stagnation au plus bas pendant les quinze premières années de la Ve République. Ainsi, 25 des 33 élues de 1945 siègent ainsi pendant les deux assemblées constituantes, de 1945 à 1946. Et 11 d’entre elles siègent pendant toute la IVe République, de 1946 à 1958 – un nombre important quand on sait que la deuxième législature, de juin 1951 à janvier 1956, ne comprend que 22 députées.

Seules trois siègent pendant au moins un mandat de la Ve République, démontrant une vraie longévité politique. Germaine Poinso-Chapuis marque l’histoire en étant la première femme ministre de plein exercice. Elle est nommée par Robert Schuman, ministre de la santé publique et de la population en 1947. Marie-Madeleine Dienesch est la deuxième femme occupant un poste gouvernemental sous la Ve République, entre 1968 et 1974, en tant que secrétaire d’État à l’éducation nationale, puis aux affaires sociales, puis à l’action sociale et à la réadaptation.

Elles étaient 33 en 1945, elles sont 208 en 2025. En quatre-vingts ans, l’accession des femmes aux fonctions électives a beaucoup progressé, en particulier depuis la loi sur la parité qui célèbre, en 2025, son quart de siècle. Alors que l’histoire des femmes a elle aussi vivement avancé ces dernières années, il semble important de redonner à ces 33 pionnières toute leur place dans l’imaginaire républicain, alors que celui-ci peut encore être considéré comme teinté de masculinité.

Peu connues, ces femmes devraient faire l’objet de davantage de recherches pour mieux connaître leur parcours et approfondir, peut-être, les difficultés auxquelles elles ont pu être confrontées. Leur rendre cette justice serait aussi une manière de compléter notre connaissance de l’histoire de la République, tout en célébrant leur audace.

The Conversation

Anne-Sarah Moalic Bouglé est membre de Démocrates et Progressistes.

ref. Pionnières de la parité politique : qui étaient les députées de 1945 ? – https://theconversation.com/pionnieres-de-la-parite-politique-qui-etaient-les-deputees-de-1945-265270

La fièvre de la vallée du Rift sévit au Sénégal : ce qu’il faut savoir sur cette maladie

Source: The Conversation – in French – By Marc Souris, chercheur, Institut de recherche pour le développement (IRD)

La fièvre de la vallée du Rift sévit actuellement dans le nord du Sénégal. Depuis l’apparition de l’épidémie, le 21 septembre dernier, le bilan ne cesse s’alourdir. Le dernier communiqué du gouvernement fait état de 78 cas confirmés et 11 décès. Maladie virale transmise par les moustiques et touchant principalement le bétail, elle peut également infecter l’humain. Si la plupart des cas humains restent bénins, la maladie entraîne de lourdes pertes économiques et sanitaires dans les élevages et constitue un risque pour les populations exposées.

En tant que chercheur, j’ai contribué à plusieurs études sur cette zoonose virale transmise par les moustiques et affectant principalement les ruminants et les humains. J’explique ici ce qu’est la fièvre de la vallée du Rift, comment elle est traitée et comment elle peut être contrôlée.

Comprendre la fièvre de la vallée du Rift

La fièvre de la vallée du Rift (FVR) est une zoonose (maladie affectant des animaux et pouvant se transmettre à l’humain) causée par le virus RVF, un phlebovirus de la famille des Phenuiviridae (ordre des Bunyavirales). La maladie touche en particulier certains animaux domestiques, principalement les bovins, les ovins, les caprins, mais aussi camélidés et autres petits ruminants. Mais elle peut occasionnellement infecter les humains.

Chez les animaux, la maladie provoque une importante morbidité: baisse de la production de lait, forte mortalité néonatale, avortements massifs chez les femelles gestantes, et mortalité dans 10 à 20 % des cas. Elle entraîne ainsi des pertes économiques considérables pour les éleveurs.

Chez les humains, la plupart des infections sont asymptomatiques ou bénignes (simple syndrome grippal), mais l’infection peut provoquer des symptômes graves dans un petit pourcentage de cas : affections oculaires, encéphalite, fièvre hémorragique. Le taux de mortalité chez les personnes infectées est de 1% environ.

Comment se transmet-elle ?

Chez les animaux, la maladie est principalement transmise par les piqûres de moustiques infectés (au moins 50 espèces de moustiques sont vecteurs du virus FVR, notamment les Aedes, mais aussi Culex, Anopheles, Mansonia, ainsi que d’autres insectes. Les moustiques s’infectent en piquant des animaux infectés et en phase de virémie (présence de particules virales dans le sang), et vont ensuite transmettre le virus en se nourrissant sur d’autres animaux. Chez les Aedes, la transmission verticale (œufs infectés par le virus) est également possible, ce qui pourrait contribuer à la survie du virus dans l’environnement.

Chez l’humain, dans la plupart des cas l’infection résulte d’un contact avec du sang ou des organes d’animaux contaminés, notamment au cours d’interventions vétérinaires ou de découpage de carcasses d’animaux infectés. Des contaminations directes par piqûre de moustiques ou de mouches infectés par le virus FVR ont également été rapportées, mais aucune transmission interhumaine n’a jusqu’à présent été constatée.

L’origine de la maladie

La maladie a été identifiée pour la première fois en 1931 dans la vallée du Rift, au Kenya, lors d’une épidémie humaine de 200 cas. Le virus responsable a été isolé en 1944 en Ouganda.

Depuis, de nombreuses flambées de la maladie ont été signalées en Afrique subsaharienne : en Egypte (1977), à Madagascar (1990, 2021), au Kenya (1997,1998), en Somalie (1998), en Tanzanie (1998), avec une extension en 2000 au Yemen et à l’Arabie saoudite, aux Comores (2007-2008) et à Mayotte (2018-2019). En Afrique de l’Ouest, les principales épidémies ont touché la Mauritanie (1987, 1993, 1998, 2003, 2010, 2012), le Sénégal (1987, 2013-2014) et le Niger (2016).

La maladie est donc historiquement présente en Afrique de l’Est, mais son extension au Sahel et en Afrique de l’Ouest s’est faite progressivement via le mouvement d’animaux et lors de conditions environnementales favorables, notamment lors de précipitations exceptionnelles. A ce jour, une trentaine de pays ont déclaré des cas animaliers et/ou humains sous la forme de foyers ou de flambées épidémiques.

Pourquoi et comment la maladie réapparaît

La maladie réémerge régulièrement en Afrique tous les cinq à quinze ans. En Afrique de l’Est, des foyers apparaissent et la maladie se propage lorsque les conditions climatiques sont propices, notamment lors de fortes précipitations ou d’inondations dans des zones naturellement arides. Par exemple, en 1998-1999 l’apparition de nombreux foyers en Afrique de l’Est a coïncidé avec les fortes précipitations liées au phénomène El Niño.

Dans le Sahel, la corrélation pluie-épidémie est moins systématique. L’émergence de foyers dans des zones peu surveillées montre que la FVR peut émerger dans des lieux inattendus. Des analyses sur les souches virales en Mauritanie ont également suggéré des introductions génétiques ou des mouvements viraux interrégionaux.

Le virus se maintient dans l’environnement sans que l’on en connaisse exactement le processus. Le virus est maintenu dans l’environnement par un réservoir animal sauvage hétérogène (antilopes, cerfs, reptiles, etc.) qui, à ce jour, n’est pas encore complètement identifié.

Comme pour de nombreuses maladies virales, les épidémies se propagent à partir d’un foyer principal vers des foyers secondaires. La diffusion est favorisée par le déplacement des troupeaux (notamment dans les zones pastorales du Sahel), par la dispersion accidentelle de moustiques infectés, et par les conditions environnementales propices au développement des vecteurs.

Symptômes cliniques et traitements

Chez les animaux, l’apparition de nombreux avortements et d’une mortalité très importante parmi les jeunes animaux est caractéristique de l’infection. Les animaux adultes sont aussi touchés : les bovins et ovins peuvent souffrir d’écoulement nasal, d’hypersalivation, d’anorexie, d’asthénie ou de diarrhée. La mortalité est de 20 % chez les ovins, 10 % chez les bovins. Les femelles gestantes avorteront systématiquement (80-100 %).

Chez l’humain, après une période d’incubation de deux à six jours, la plupart des infections sont asymptomatiques ou bénignes (simple syndrome grippal), et les symptômes durent alors en général de quatre à sept jours. Les individus ayant contracté la FVR acquièrent une immunité naturelle.

Dans un faible pourcentage de cas, la maladie est beaucoup plus sévère :

• Lésions oculaires (jusqu’à 10% des cas symptomatiques), apparaissant généralement une à trois semaines après les premiers symptômes. La maladie peut guérir spontanément, mais peut également entraîner une cécité définitive.

• Ménigo-encéphalite (inflammation cérébro-méningée, 2 à 4% des cas symptomatiques), apparaissant une à quatre semaines après les premiers symptômes. Le taux de mortalité est faible, mais les séquelles neurologiques sont courantes.

• Fièvre hémorragique (moins d’1% des cas symptomatiques), survenant deux à quatre jours après l’apparition de symptômes. Le taux de mortalité est de 50 % environ. Le décès intervient généralement trois à six jours après l’apparition des symptômes.

Il n’y a pas de traitement spécifique pour les cas graves de Fièvre la vallée du Rift chez les humains.

Surveillance, prévention et contrôle

Une surveillance vétérinaire permettant une notification immédiate en cas de détection de la maladie et le suivi de l’infection dans les populations animales sont des éléments essentiels au contrôle de la maladie. En cas d’épizootie, l’abattage sanitaire et le contrôle des déplacements des animaux d’élevage est le moyen le plus efficace pour ralentir la propagation du virus.

Comme pour toutes les arboviroses (maladies virales transmises par des arthropodes), la lutte contre la population vectorielle (moustiques pour FVR) est une mesure de prévention efficace mais difficile à mettre en œuvre, notamment en zone rurale.

Pour prévenir l’émergence de foyers épizootiques, il est possible de vacciner préventivement les animaux dans les zones d’endémicité. Il existe un vaccin à virus vivant modifié qui ne requiert qu’une seule dose et qui confère une immunité à long terme, mais il n’est pas recommandé pour des femelles gestantes en raison des risques d’avortement qu’il comporte. Il existe également un vaccin à virus inactivé ne présentent pas ces effets indésirables, mais qui nécessite plusieurs doses pour obtenir une protection immunitaire.

Menace, vulnérabilités et risques sanitaires

Chez les humains, les éleveurs, les agriculteurs, les employés des abattoirs, les vétérinaires sont les groupes professionnels les plus exposés au risque d’infection. Un vaccin inactivé à usage humain a été mis au point, mais ce vaccin n’est pas homologué et n’a été utilisé qu’à titre expérimental.

La sensibilisation aux facteurs de risque lorsque le virus réémerge est le seul moyen de diminuer le risque d’infection chez les humains. Les facteurs de risques de transmission de l’animal à l’humain sont principalement :

• Les pratiques d’élevage et d’abattage, notamment lors de la manipulation d’animaux malades ou de leurs tissus, ainsi que durant l’abattage;

• La consommation de sang frais, de lait cru ou de viandes;

• Les piqûres de moustique.

Un respect de quelques règles sanitaires est donc nécessaire lors d’une émergence de la fièvre de la vallée du Rift : hygiène des mains, protections adaptées lors de la manipulation d’animaux et de l’abattage, cuisson de tous les produits d’origine animale (sang, viande et lait), utilisation systématique de moustiquaires ou de produits répulsifs.

The Conversation

Marc Souris receives funding from government research agencies.

ref. La fièvre de la vallée du Rift sévit au Sénégal : ce qu’il faut savoir sur cette maladie – https://theconversation.com/la-fievre-de-la-vallee-du-rift-sevit-au-senegal-ce-quil-faut-savoir-sur-cette-maladie-266724

Quand l’UNESCO efface sans le vouloir la voix des « gens de la montagne » camerounais

Source: The Conversation – in French – By Melchisedek Chétima, Professor of African History, Université du Québec à Montréal (UQAM)

La récente inscription du paysage culturel de Diy-Giɗ-Biy (DGB) au patrimoine mondial de l’UNESCO marque une victoire historique pour le Cameroun, mais elle perpétue aussi un héritage colonial : ces ruines exceptionnelles continuent d’être désignées par un nom que les communautés locales rejettent.

Situé dans l’Extrême-Nord du pays, le site archéologique des Diy-Giɗ-Biy (se prononce « Dii-Guiɗ-Bii ») s’étend sur une vingtaine de kilomètres carrés et abrite seize monuments en pierre sèche répartis dans sept villages, au cœur d’une chaîne montagneuse que l’institution, et avant elle, la communauté des chercheurs dont je fais partie, désigne comme « monts Mandara ».

Son inscription sur la liste du patrimoine mondial a été saluée à juste titre comme une rare victoire pour les patrimoines matériels africains, trop longtemps marginalisés dans les grandes instances patrimoniales internationales. Pourtant, au-delà de l’apparente consécration, un débat de fond émerge : à qui appartient ce patrimoine ? Et pourquoi persiste-t-on à nommer les montagnes qui les abritent « monts Mandara », une appellation dans laquelle les locaux ne se reconnaissent pas ?

Professeur d’histoire africaine à l’Université du Québec à Montréal, mes travaux de recherche portent sur des thèmes variés tels que la culture matérielle, l’esclavage, ainsi que les dynamiques identitaires et politiques dans l’espace communément désigné sous le nom de « monts Mandara ». Mon approche allie l’étude des sources orales, écrites et archéologiques, ce qui me permet de proposer une compréhension fine et nuancée de cette région et de ses populations.

Des montagnes-refuges

Selon l’UNESCO, les DGB se distinguent par leur ancienneté (XIIe–XVIIe siècles) et leurs terrasses agricoles. Les populations locales les appellent Giy-Deδ-Bay (« ruine de la demeure du chef ») ou Diy-Giɗ-Biy (« l’œil du chef au-dessus »), termes qui reflètent leur dimension spirituelle et politique.

Mais en parlant de « monts Mandara », l’institution reconduit une méprise héritée de l’époque coloniale.

Le terme prend racine dans les récits européens du XVIIIe siècle, qui l’utilisaient pour désigner le royaume islamisé du Wandala ou Mandara, établi dans les plaines et prospérant grâce aux échanges commerciaux avec le Kanem-Bornu. Ce dernier, grand État sahélien et acteur majeur du commerce esclavagiste, a profondément marqué les dynamiques sociales et politiques de toute la région du bassin tchadien.

Longtemps vassal du Bornu, le Wandala s’est progressivement émancipé au XVIIIe siècle, en partie grâce à son islamisation, ce qui lui a permis de mener ses propres campagnes esclavagistes contre les groupes montagnards. Pour se protéger de ces raids, ces communautés se sont réfugiées dans les massifs, où elles ont développé des architectures défensives dont les Diy-Giɗ-Biy sont particulièrement révélateurs.

Cette dynamique de pouvoir entre le Wandala, le Bornu et les Montagnards s’inscrit dans une histoire plus ancienne. Sur sa mappemonde de 1459, Fra Mauro, moine italien réputé pour son expertise géographique, identifiait déjà les Wandala comme un groupe ethnique distinct.

Les Montagnards ne font donc pas partie du groupe Mandara. Ce dernier, sous l’influence du Bornu, les a en fait soumis à ses campagnes esclavagistes, établissant une relation de domination plutôt qu’une intégration politique ou culturelle. De plus, les Montagnards ne dénomment pas leurs massifs « monts-Mandara ». Ils s’auto-identifient littéralement comme « gens du rocher » – duw kunde en langue plata ou encore nda məndə dzaŋa en langue podokwo. Une telle auto-identification traduit un rapport intime à leurs montagnes et affirme une identité politique et culturelle distincte des populations musulmanes des plaines environnantes.

Dans un entretien récent que j’ai réalisé à Mokolo avec un chef mafa, celui-ci m’expliquait : « Nous ne sommes pas Mandara, nous sommes les enfants de la montagne, et les rochers font partie de notre existence en tant que peuple ».

La cartographie coloniale et ses héritages persistants

L’analyse proposée ici s’organise autour de deux dimensions. D’une part, elle examine comment l’imaginaire colonial continue de structurer notre perception du territoire. Les appellations coloniales comme « monts Mandara », employées par les administrateurs allemands puis britanniques et français, relevaient surtout de commodités classificatoires, ignorant la complexité sociale et culturelle des communautés montagnardes.

D’autre part, cette appellation produit une dépossession symbolique. De fait, inscrire le patrimoine des « gens de la montagne » sous un nom qui n’est pas le leur revient à effacer leurs voix. En reprenant cette terminologie, l’UNESCO, même involontairement, perpétue un cadre de lecture hérité de la colonisation et réduit la diversité des sociétés montagnardes à l’ombre d’un pouvoir étatique qui les avait jadis dominées.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Il convient de rappeler que les terrasses agricoles évoquées par l’UNESCO ne sont pas seulement des dispositifs fonctionnels d’aménagement du sol. Elles sont également porteuses de significations sociales et culturelles, en lien avec des systèmes de croyances où l’organisation de l’espace traduit une cosmologie de l’ordre et du dialogue constant entre les vivants et leurs ancêtres. Comme le fait remarquer l’archéologue canadien Scott MacEachern, les Diy-Giɗ-Biy s’insèrent dans un paysage déjà habité, cultivé, peut-être même ritualisé.

Leurs constructeurs maîtrisaient avec une grande expertise la technique de la pierre sèche. Tout porte ainsi à croire que ces sites sont le fruit d’un processus d’occupation, d’adaptation et d’élaboration proprement montagnard. Rien n’indique une origine issue des plaines.

La kirditude comme résistance

La reconnaissance internationale des Diy-Gid-Biy par l’UNESCO est certes importante, mais elle demeure partielle tant qu’elle ne respecte pas les termes choisis par les communautés pour s’autodésigner.

Dans ce contexte, de plus en plus de chercheurs et d’activistes locaux plaident pour l’adoption de l’appellation « monts Kirdi ». Historiquement, le terme kirdi, utilisé dans les récits des royaumes musulmans des plaines, portait une connotation péjorative d’infidèle, de non-musulman et d’esclave potentiel.

Toutefois, dans un processus de réappropriation décoloniale, les Montagnards ont transformé ce stigmate en instrument de résistance culturelle et de revendication politique. Ils ont notamment intégré le concept de « kirditude » du sociologue camerounais Jean-Marc Ela pour affirmer leur fierté d’un fond kirdi et défendre leur position face à l’exclusion et à la discrimination dont ils font l’objet dans l’espace politique régional et national.

Renommer les « monts Mandara » en « monts Kirdi » représenterait ainsi une véritable justice symbolique, en reconnaissant que le patrimoine est aussi un champ de luttes et de mémoire. Cela permettrait aux Montagnards de nommer leur propre monde, ce qui enrichirait notre compréhension collective de ce patrimoine vivant et pluriel que sont les DGB.

Rompre avec la neutralité coloniale du patrimoine

Au-delà d’une simple question d’étiquette, le débat sur la toponymie soulève des enjeux cruciaux de reconnaissance des droits épistémiques des peuples autochtones. Quelle valeur peut en effet avoir une politique de valorisation du patrimoine si elle continue de marginaliser la voix de ceux qui en sont les principaux acteurs ?

En maintenant l’usage du terme « monts Mandara », les institutions patrimoniales internationales risquent de perpétuer une mémoire dominante, issue de récits de pouvoirs externes, au détriment des histoires et réalités plurielles des peuples montagnards.

Par ailleurs, renommer les massifs ne signifie en aucun cas effacer l’histoire. Il s’agit au contraire de réhabiliter des récits jusqu’ici occultés. Le patrimoine mondial ne peut véritablement refléter son rôle que s’il devient le théâtre de luttes pour les récits marginalisés et pour les peuples dont la parole a été confisquée au profit de narrations dominantes.

La Conversation Canada

Melchisedek Chétima ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’UNESCO efface sans le vouloir la voix des « gens de la montagne » camerounais – https://theconversation.com/quand-lunesco-efface-sans-le-vouloir-la-voix-des-gens-de-la-montagne-camerounais-262085

Pourquoi apprendre à cuisiner dès l’enfance est un outil de santé publique

Source: The Conversation – in French – By Nina Klioueva, Université de Montréal

Dans un monde dominé par les aliments ultra-transformés et le manque de temps, grandir sans savoir cuisiner n’est plus rare. Mais cette perte de savoir-faire n’est pas neutre : elle fragilise la santé, l’autonomie et même notre rapport collectif à l’alimentation.

Et si réapprendre à cuisiner devenait un choix de société ?

Depuis quelques décennies, les repas faits maison ont été peu à peu remplacés par des plats prêts-à-manger et des produits très transformés. Au Canada, plus de la moitié de ce que mangent les enfants et les adolescents vient de ces aliments ultra-transformés. Cette tendance a des effets directs sur la santé : plus de maladies chroniques comme le diabète de type 2, et une perte d’autonomie alimentaire, puisque cuisiner est parfois vu comme une option, et non comme une compétence de base.

Dans ce contexte, apprendre à cuisiner dès l’enfance n’est pas seulement un plaisir ou une tradition familiale. C’est un véritable outil de santé publique. Cuisiner aide à mieux comprendre comment faire des choix alimentaires pour soi et pour la planète, à prévenir certaines maladies et à développer une relation positive et durable avec la nourriture. En tant que nutritionnistes et chercheuses en nutrition, nous nous intéressons à la littératie alimentaire chez les adolescents et considérons ce sujet d’autant plus d’actualité face aux défis alimentaires contemporains.

La littératie alimentaire : plus que savoir cuisiner

Apprendre à cuisiner tôt ne se limite pas à acquérir une habileté pratique. C’est une porte d’entrée vers la littératie alimentaire, un ensemble de connaissances, de compétences et d’attitudes qui permettent de bien se repérer dans un monde alimentaire de plus en plus complexe. Elle développe aussi l’autonomie, la confiance et la motivation pour faire des choix qui favorisent la santé et le bien-être.

La littératie alimentaire, ce n’est pas seulement être capable de préparer un repas nutritif. C’est aussi célébrer et transmettre nos traditions culinaires, soutenir des systèmes alimentaires plus justes et durables, et développer une relation positive avec la nourriture.

Il est important de rappeler que savoir cuisiner ne suffit pas tout seul. La cuisine est un élément central, mais la littératie alimentaire est beaucoup plus large. Comme le soulignent les chercheuses Helen Anna Vidgen et Danielle Gallegos, de la Queensland University of Technology, en Australie, elle regroupe un ensemble de compétences liées entre elles : planifier ses repas, gérer un budget et réduire le gaspillage, choisir des aliments nutritifs et sécuritaires malgré le marketing, préparer des repas de base et adopter une alimentation équilibrée et culturellement signifiante.

Ainsi, cuisiner devient une porte d’entrée concrète vers plusieurs de ces dimensions. Quand un enfant met la main à la pâte, il n’apprend pas seulement des gestes techniques. Il apprend aussi à planifier, à s’organiser, à résoudre des problèmes réels et à réfléchir de façon critique à ce qu’il mange. Ces compétences, acquises petit à petit et adaptées à son âge, deviennent la base d’une autonomie alimentaire durable.

Des bénéfices observés dès le plus jeune âge

Les recherches montrent que les enfants qui participent à la préparation des repas mangent une portion supplémentaire de fruits et légumes, et consomment généralement une alimentation de meilleure qualité que ceux qui ne cuisinent pas.

Les habitudes alimentaires acquises tôt ont tendance à rester à l’âge adulte. Initier les enfants à la cuisine, c’est donc poser les bases de comportements qui protègent leur santé à long terme. Par exemple, le simple fait de cuisiner à la maison est lié à une alimentation moins riche en sucres ajoutés et en gras saturés, deux éléments directement associés aux maladies cardiovasculaires et au diabète de type 2.

Des enjeux d’équité en santé

Il faut aussi reconnaître que tout le monde n’a pas le même accès à la cuisine ou aux compétences culinaires. Certaines familles manquent de temps, d’espace ou de moyens financiers pour cuisiner. Dans ce contexte, l’éducation culinaire à l’école ou dans la communauté devient essentielle.

Des programmes comme Apprenti en Action ou Chefs en Action, des initiatives canadiennes via les milieux scolaires, ont montré qu’apprendre à cuisiner dans un cadre éducatif peut augmenter la confiance des jeunes, améliorer leurs connaissances en nutrition et les amener à adopter de meilleures habitudes alimentaires. Ces initiatives représentent une façon d’outiller les jeunes, surtout ceux qui viennent de milieux plus vulnérables, et de réduire les inégalités de santé.

Malheureusement, les programmes de cuisine et d’éducation alimentaire en milieu scolaire restent marginaux et tributaires de financements limités et instables, ce qui contribue à creuser encore les écarts sociaux et de santé. Parallèlement, le système alimentaire est dominé par des régimes industrialisés et des produits ultra-transformés, promus par de puissantes entreprises transnationales, alors que peu de politiques publiques canadiennes visent à améliorer les systèmes alimentaires et, par ricochet, les habitudes alimentaires.

Cette double dynamique accentue les inégalités : les jeunes issus de milieux moins favorisés disposent de moins d’occasions d’apprendre à cuisiner et de développer leur autonomie alimentaire, tout en étant plus exposés aux produits ultra-transformés.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Une compétence citoyenne

Enfin, il ne faut pas oublier la dimension sociale et culturelle de la cuisine. Apprendre à cuisiner, c’est aussi apprendre à partager, à transmettre des traditions, à découvrir d’autres cultures et à créer une relation positive avec l’alimentation. Pour un enfant, préparer un repas avec ses proches peut être une expérience valorisante, qui renforce les liens familiaux et la confiance en soi.

Au-delà des chiffres, cette transformation de nos habitudes alimentaires touche aussi notre culture et nos liens sociaux. Les recettes transmises de génération en génération disparaissent parfois, et avec elles, une partie de notre patrimoine culinaire. Par exemple, en Ontario, des écoles primaires qui ont introduit des ateliers de cuisine ont vu leurs élèves essayer de nouveaux légumes et en parler fièrement à leurs familles, montrant qu’un simple geste peut déclencher un réel changement.

La cuisine devient ainsi une compétence citoyenne, à la croisée de la santé, de l’éducation, de la culture et de l’environnement. Initier les enfants à ce savoir-faire, à la fois pratique et symbolique, c’est leur donner les outils pour se débrouiller dans un monde alimentaire complexe et, en même temps, contribuer à une société plus en santé et plus durable.

La Conversation Canada

Nina Klioueva a reçu des financements sous forme de bourse de maîtrise en recherche pour titulaires d’un diplôme professionnel – volet régulier du FRQ, ainsi qu’une Bourse d’études supérieures du Canada – maîtrise (BESC M) des IRSC.

Maude Perreault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi apprendre à cuisiner dès l’enfance est un outil de santé publique – https://theconversation.com/pourquoi-apprendre-a-cuisiner-des-lenfance-est-un-outil-de-sante-publique-265942

Les algorithmes nous poussent à faire des achats impulsifs

Source: The Conversation – in French – By Steffie Gallin, Professeur Assistant, Montpellier Business School

Les recommandations personnalisées génèrent 35 % des ventes d’Amazon. Antonio Guillem/Shutterstock

Une étude montre que le nombre de suggestions affichées sur les sites de e-commerce compte bien plus que les fameuses étoiles laissées par les autres consommateurs.


Qui n’a jamais acheté un produit en ligne sur un coup de tête ? Un coussin moelleux, une cafetière design ou un gadget apparu comme par magie dans la section « recommandé pour vous ». Si vous vous reconnaissez, vous n’êtes pas seul : la prédominance du e-commerce rend les achats impulsifs (c’est-à-dire soudains) plus fréquents. Un assortiment plus large de produits, des stratégies marketing sophistiquées (incluant par exemple la réalité virtuelle) ou encore les évaluations d’autres consommateurs rendent les espaces en ligne particulièrement propices à ce type d’achat, davantage que les magasins physiques.

Les achats impulsifs sont activement encouragés par la manière dont les sites de e-commerce conçoivent leurs systèmes de recommandation. Dans une recherche, nous montrons que plus nous pensons qu’un algorithme est performant (par rapport à un humain), plus nous lui faisons confiance… et plus nous cliquons sur « ajouter au panier » sans réfléchir. Avec un résultat surprenant : le nombre de suggestions affichées compte bien plus que les fameuses étoiles laissées par les autres clients.

Des algorithmes qui nous connaissent (trop) bien

Les sites e-commerce, comme Amazon, Cdiscount ou Temu, n’affichent pas leurs suggestions par hasard. Leurs algorithmes analysent notre historique de navigation, nos achats passés, et même le moment de la journée où nous naviguons sur leurs sites pour nous proposer des produits sur mesure.

Résultat : des recommandations personnalisées, parfois trop bien ciblées. À titre d’exemple, elles permettent de générer 35 % des ventes d’Amazon. L’âge rentre aussi en ligne de compte : les jeunes adultes semblent effectuer peu de recherche d’informations et ont davantage tendance à céder à des achats impulsifs.

Cocktail gagnant de l’achat impulsif

Le processus qui mène à l’achat impulsif se déroule en deux temps. D’abord, en tant que consommateurs, nous développons une attente de performance : nous sommes convaincus que l’algorithme, capable d’analyser de très nombreuses données, est plus efficace qu’un vendeur humain pour nous proposer le bon produit.

Cette perception de compétence génère de la confiance et c’est cette confiance qui ouvre la porte à l’achat impulsif. Elle nous rend plus réceptifs aux suggestions. Ce besoin de personnalisation est d’ailleurs important : 71 % des acheteurs en ligne se sentent frustrés lorsque le contenu d’un site n’est pas personnalisé. Nous faisons confiance aux algorithmes parque nous croyons en leur supériorité, et cette confiance nous pousse à l’achat spontané.

Trop de choix ? Tant mieux !

Notre recherche s’est également intéressée à la façon dont les recommandations sont présentées : plus il y a de recommandations affichées, plus l’achat impulsif est probable. Comment l’expliquer ? Face à une suggestion unique, notre « radar à manipulation » peut s’activer. L’intention du site semble trop évidente : nous pousser à acheter ce produit en particulier.




À lire aussi :
Shopping en ligne : comment Shein, Temu et les autres utilisent l’IA pour vous rendre accro


En revanche, une large sélection de recommandations donne une illusion de contrôle et de diversité. L’algorithme ne semble plus essayer de nous vendre un produit, mais plutôt de nous ouvrir un catalogue de possibilités pertinentes, nous laissant a priori l’entière liberté du choix final. Cette abondance de suggestions, loin de nous paralyser, nous rassure et nous incite à explorer… et donc, à potentiellement craquer.

Les notes (des consommateurs) pas si décisives

Contre toute attente, les notes attribuées par les autres consommateurs n’ont pas d’effet sur l’achat impulsif. Cette découverte peut s’expliquer par une forme de lassitude et de méfiance généralisée envers ces systèmes de notation. Les consommateurs sont de plus en plus conscients que ces avis peuvent être biaisés ou manipulés.

Cette méfiance est justifiée : une enquête de la Commission européenne a révélé qu’au moins 55 % des sites de e-commerce examinés enfreignaient les règles sur la transparence des avis. Le consommateur veut bien être conseillé, mais il ne veut pas être manipulé, notamment par les systèmes de recommandation utilisant l’intelligence artificielle.

Un équilibre à trouver

Pour les marques, l’enjeu est de proposer des recommandations nombreuses et crédibles, sans donner l’impression de manipuler. Et pour les consommateurs ? La conclusion n’est pas de se méfier de toute technologie, mais de garder une forme de scepticisme éclairé.

Ces recommandations sont des outils permettant de découvrir des produits, à condition de se souvenir que derrière chaque « recommandé pour vous » se cache une architecture de persuasion pensée pour nous faire cliquer. Et parfois, le clic le plus puissant est celui qui ferme l’onglet.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Les algorithmes nous poussent à faire des achats impulsifs – https://theconversation.com/les-algorithmes-nous-poussent-a-faire-des-achats-impulsifs-264405