TotalEnergies : Objectif Wall Street

Source: The Conversation – in French – By Rémi Janin, Maître de conférences – Reporting financier et extra financier des organisations à Grenoble IAE INP – Chaire Impacts & RSE, Université Grenoble Alpes (UGA)

Les investisseurs des États-Unis détiennent déjà près de 40 % du capital de TotalEnergies en 2024, contre 25,3 % pour les actionnaires français. Jean-Luc Ichard/Shutterstock

La société TotalEnergies souhaite être cotée aux États-Unis. Cette décision interroge : pourquoi un fleuron du CAC 40 tourne-t-il son regard vers Wall Street ? Quels bénéfices en attend-il ? Que révèle cette opération sur le fonctionnement des marchés, des régulations et du capitalisme énergétique européens ?


Le projet de double cotation de TotalEnergies aux États-Unis questionne sur ses motivations profondes et ses implications financières. Si l’entreprise insiste sur le fait que « TotalEnergies est déjà cotée à New York » et qu’elle souhaite « transformer les certificats American Depositary Receipt, qui sont aujourd’hui la base de [sa] cotation aux États-Unis, en actions ordinaires », cette décision n’en reste pas moins stratégique.

La double cotation permet à une entreprise d’être cotée directement sur deux places boursières. Dans le cas de TotalEnergies, il ne s’agirait plus de maintenir les American Depositary Receipts (ADR) – actuellement utilisés pour accéder au marché états-unien –, mais de coter ses actions ordinaires à la Bourse de New York, tout en conservant leur cotation sur Euronext Paris. Cela permettrait aux mêmes actions d’être échangées en euros en Europe et en dollars aux États-Unis.

Double cotation

L’objectif immédiat du projet est de convertir les certificats ADR, qui représentent environ 9 % du capital de l’entreprise, en actions ordinaires cotées sur le New York Stock Exchange (NYSE). Les ADR sont des certificats négociables, émis par une banque américaine, représentant la propriété d’une action d’une société étrangère, et permettant leur négociation sur les marchés du pays de l’Oncle Sam. La conversion des ADR permettrait aux investisseurs états-uniens d’acheter des titres TotalEnergies directement, sans passer par des véhicules intermédiaires. Elle réduit les coûts d’intermédiation et facilite la liquidité.

Cette mutation est d’autant plus crédible que les investisseurs des États-Unis détiennent déjà près de 40 % du capital de TotalEnergies, en 2024, contre 25,3 % pour les actionnaires français. La part des fonds d’investissement états-uniens y est déterminante, en particulier le fonds BlackRock qui, avec 6,1 % du capital, est le premier actionnaire du groupe). De plus, les valorisations des majors américaines restent généralement supérieures à celles de leurs homologues européens. Le titre TotalEnergies se négocie ainsi à Paris à environ 3,5 fois l’Ebitda (soldes intermédiaires de gestion, ndlr), contre 6,5 fois pour ExxonMobil. En clair, tout en conservant une cotation à Paris, le « centre de gravité » boursier de l’entreprise se déplacerait mécaniquement.

Arbitrage entre Paris et New York

L’arbitrage entre NYSE et Euronext Paris consisterait, en théorie, à acheter des actions à un prix plus bas sur un marché (Paris), puis à les revendre à un prix plus élevé sur un autre (New York), tirant profit du différentiel de valorisation. Dans les faits, cette stratégie est très difficile à mettre en œuvre pour une entreprise comme TotalEnergies. Plusieurs obstacles s’y opposent :

  • Il existe des délais de règlement entre les deux marchés, empêchant une exécution instantanée.

  • Les fiscalités et régulations diffèrent selon les juridictions, complexifiant les transferts d’actions.

  • Les fuseaux horaires et la structure des marchés rendent difficile la synchronisation des opérations.

  • Les volumes de marché et la liquidité ne sont pas strictement équivalents sur les deux places.

  • Les programmes de rachat d’actions sont encadrés par des règles strictes : prix maximum, période autorisée, finalités déclarées (rémunération, annulation, etc.).

TotalEnergies ne peut donc pas légalement racheter massivement ses actions à Paris pour les revendre sous une autre forme à New York. Autrement dit, la double cotation vise moins à exploiter un arbitrage immédiat qu’à créer un accès direct et stable au marché américain, dans l’objectif d’attirer les investisseurs, d’améliorer la liquidité du titre et, à terme, d’obtenir une meilleure valorisation.

Mise en conformité

Techniquement, ce transfert nécessite une mise en conformité avec les règles de l’autorité de marchés américaine, la Securities and Exchange Commission (SEC) :

  • Un reporting financier aux normes comptables du pays, l’United States Generally Accepted Accounting Principles (US GAAP).

  • Une application drastique de la loi Sarbanes-Oxley qui oblige toutes les sociétés publiques à faire rapport de leurs contrôles comptables internes à la SEC.

  • La nomination d’un représentant légal aux États-Unis.

  • L’adaptation des structures internes à cette nouvelle configuration réglementaire et boursière.

L’exemple de TotalEnergies renvoie à celui de STMicroelectronics, dont la double cotation (Paris et NYSE) existe depuis son introduction en bourse, en 1994. Dans les années 2000, la liquidité du titre s’est déplacée progressivement vers New York, en raison d’une valorisation plus favorable et d’une structure actionnariale influencée par les fonds d’investissements états-uniens.

Maximisation de la valeur actionnariale

Le choix d’une double cotation répond à une logique bien ancrée depuis la révolution libérale des années 1980, impulsée par Milton Friedman et l’école de Chicago : celle de la maximisation de la valeur actionnariale.




À lire aussi :
Deux conceptions de l’entreprise « responsable » : Friedman contre Freeman


TotalEnergies s’illustre avec un retour sur capitaux employés de 19 %, le plus élevé de toutes les majors pétrolières. Le groupe offre un rendement exceptionnel pour ses actionnaires : un dividende de 3,22 euros par action en 2024, soit une progression de 7 %. Le rendement moyen est de 5,74 % sur les cinq dernières années, contre 3 % pour l’ensemble des valeurs du CAC 40.

Son président-directeur général Patrick Pouyanné défend le choix d’une politique de distribution de dividendes soutenue lors de son discours à l’assemblée générale du groupe du 23 mai 2025 :

« Je sais aussi ce qui vous tient le plus à cœur, à travers ces échanges, c’est la pérennité de la politique du retour à l’actionnaire et notamment du dividende. Laissez-moi vous rassurer tout de suite, TotalEnergies n’a pas baissé son dividende depuis plus de quarante ans, même lorsque votre compagnie a traversé des crises violentes comme celle liée à la pandémie de Covid-19, et ce n’est pas aujourd’hui ni demain que cela va commencer. »

Les résolutions sur l’approbation des comptes et l’affectation du résultat soumises à l’assemblée générale du 23 mai 2025 ont recueilli plus de 99 % de votes favorables. Ces scores confortent la direction dans sa trajectoire conforme aux principes de la gouvernance actionnariale.

Prime de valorisation

Dans cette optique, la cotation à New York est d’autant plus attrayante qu’elle s’accompagne d’une prime de valorisation. En 2024, les certificats ADR TotalEnergies ont progressé de 8,6 % en dollars contre 1,4 % pour l’action à Paris).

Les gains de valeur boursière générés par une double cotation sont clairement avérés. Dans une étude publiée en 2010, la Federal Reserve Bank of New York démontre que les entreprises cotées qui s’introduisent sur un marché de prestige supérieur (comme Wall Street) « enregistrent des gains de valorisation significatifs durant les cinq années suivant leur introduction en bourse ».

La littérature académique met en évidence que la cotation croisée favorise une couverture accrue par les analystes financiers, en particulier américains. Cette visibilité renforcée améliore la diffusion de l’information, réduit l’asymétrie d’information entre l’entreprise et les investisseurs et renforce ainsi la confiance des marchés. Elle influence directement le coût du capital : les investisseurs sont prêts à financer l’entreprise à un taux réduit, car ils perçoivent un risque moindre. En d’autres termes, une entreprise mieux suivie, plus claire et mieux valorisée sur les marchés peut obtenir des financements à des conditions avantageuses.

Green Deal européen

TotalEnergies justifie son projet par des considérations économiques et financières. Mais ce repositionnement intervient dans un contexte réglementaire européen tendu, marqué par une montée en puissance des exigences de transparence, de durabilité et de prise en compte des parties prenantes au-delà des seuls actionnaires. Cette logique, inspirée de l’approche dite de la stakeholder value, est promue, notamment, par R. Edward Freeman (1984).

Cette dynamique est aujourd’hui remise en question. Les débats se cristallisent autour de la législation Omnibus, qui cherche à assouplir certaines exigences du cadre ESG, issu du Green Deal (pacte vert) européen, souvent critiqué pour ses répercussions possibles sur la compétitivité des entreprises européennes.

Dans le cadre du Green Deal, la directive Corporate Sustainability Reporting et les normes ESRS E1 (European Sustainability Reporting Standards) renforcent la transparence des grandes entreprises de plus de 1 000 salariés, selon la dernière proposition de la Commission européenne, en matière de risques climatiques et de leurs impacts environnementaux. En ce sens, ces directives offrent des leviers de contrôle supplémentaires aux parties prenantes désireuses d’interroger certaines stratégies de grandes entreprises comme TotalEnergies, notamment climatiques.

ESG et monde décarboné

Selon les deux derniers rapports de durabilité de TotalEnergies, la part des investissements durables du groupe (au sens de la taxonomie verte européenne mise en place dans le cadre du Green Deal) est tombée à 20,9 % en 2024, contre 28,1 % en 2023.

Lors de la dernière assemblée générale, Patrick Pouyanné a défendu cette orientation en soulignant notamment :

« Tant que nous n’aurons pas construit un système énergétique mondial décarboné, fiable et abordable, nous devrons continuer à investir dans les énergies traditionnelles. »

En déplaçant partiellement son centre de gravité vers les États-Unis, TotalEnergies consoliderait de facto son ancrage à un marché financier américain globalement moins en attente en matière d’ESG. Ainsi, lors de son audition au Sénat en avril 2024, Patrick Pouyanné soulignait :

« Du fait notamment du poids des critères environnementaux, sociaux et de gouvernance en Europe, la base d’actionnaires européens de TotalEnergies diminue […] alors que les actionnaires américains achètent TotalEnergies. »

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. TotalEnergies : Objectif Wall Street – https://theconversation.com/totalenergies-objectif-wall-street-258086

Qu’est-ce que l’arsenalisation de l’espace extra-atmosphérique ?

Source: The Conversation – in French – By Katia Coutant, Chercheuse associée à la chaire Espace de l’ENS-PSL, Université Paris Nanterre – Université Paris Lumières

L’humanité a longtemps connu deux terrains de conflictualité : la terre et la mer. L’air est venu s’y ajouter au début du XXe siècle ; cent ans plus tard est venu le temps du cyber… mais quid de l’espace ? Si les affrontements armés entre vaisseaux spatiaux relèvent encore de la science-fiction, l’arsenalisation de l’espace est déjà en cours. Mais de quoi parle-t-on exactement quand on emploie cette expression de plus en plus en vogue ?


À première vue, on pourrait définir l’arsenalisation de l’espace comme l’ensemble des technologies, des activités et des capacités qui visent à permettre le combat et les actions offensives dans l’espace extra-atmosphérique, par exemple à travers le placement d’armes en orbite.

Pourtant, le terme et son champ exact restent sujets à débat, et l’expression de « course à l’armement dans l’espace » pourrait lui être préférée.

« Arsenalisation » ou « militarisation » ?

L’usage croissant de l’expression « arsenalisation » reflète la conception grandissante de l’espace extra-atmosphérique comme étant un terrain de conflictualité. La définition même de l’arsenalisation est débattue, et soulève l’enjeu de la distinction entre l’arsenalisation et la militarisation de l’espace.

La militarisation couvrirait l’utilisation des moyens spatiaux en soutien à des opérations militaires et aurait ainsi un objet différent de l’arsenalisation. Prenons des exemples : un satellite d’observation utilisé pour surveiller des mouvements de troupes au sol relève a minima de la militarisation. Un dispositif en orbite capable de détruire un satellite adverse, au moyen d’un laser ou d’un missile, relève à coup sûr de l’arsenalisation.

Le groupe d’experts gouvernementaux chargé d’étudier de nouvelles mesures concrètes de prévention d’une course aux armements dans l’espace, rattaché à l’Organisation des Nations unies (ONU), prend en compte toutes les menaces liées aux infrastructures spatiales, y compris les vecteurs « Terre-espace, espace-Terre, espace-espace, et Terre-Terre ». Cette conception large permet de mieux identifier les risques liés à la prolifération d’armes en lien avec le secteur spatial, sans se limiter au piège de la cible géographique parfois associé à l’arsenalisation.

Quelles sont les menaces existantes ?

Il existe différents types de systèmes ou armes ciblant les infrastructures spatiales. Les tests antisatellitaires à ascension directe, dont la légalité est questionnée à l’ONU actuellement, consistent en la capacité pour un État de tirer sur ses propres satellites depuis la Terre.

Si, jusqu’ici, les tirs réalisés par les États ont consisté en des tests sur leurs propres satellites, ces tirs soulèvent toutefois le problème de la création de débris et des risques de collision de ceux-ci avec des satellites, et prouvent que ces États sont capables de viser (et d’atteindre) un satellite ennemi.

La question « Existe-t-il des armes positionnées dans l’espace qui pourraient viser la Terre ? » est souvent posée. Bien que ce soit en théorie envisageable, en pratique, les États n’ont pas recours à ce type de projets.

Les coûts de développement et de maintenance ainsi qu’une efficacité questionnable expliquent la préférence pour les techniques terrestres.

Surtout, de nombreuses technologies duales – c’est-à-dire d’utilisation civile et militaire – existent. Un satellite d’observation peut aussi bien servir à surveiller la déforestation qu’à repérer des infrastructures militaires. Ce flou complique considérablement la mise en place de règles claires.

Si l’on se limite aux technologies visant des cibles dans l’espace depuis l’espace, quelques exemples d’armes existent.

Déjà, en 1962, les États-Unis ont mené un essai d’explosion nucléaire dans l’espace, appelé Starfish Prime. Il a rendu inopérables de nombreux satellites, et les États ont par la suite décidé d’interdire les essais d’armes nucléaires dans l’espace. À ce jour, il n’y a donc pas d’armes nucléaires dans l’espace.

Au-delà des armes nucléaires, différentes technologies ont été essayées. Du côté soviétique, dès les années 1970, la station Almaz avait expérimenté l’installation d’un canon en orbite sur un satellite. Puis, en 2018, un satellite russe a été repéré très près d’un satellite franco-italien. Cette technologie, dite satellite « butineur », peut interférer avec le fonctionnement de la cible.

En réponse à cette situation, la France développe le système Laser Toutatis qui vise à équiper des satellites de défense d’un laser capable de neutraliser tout objet suspect qui s’en approcherait.

Guerre et paix dans l’espace

Cette présence d’armes confirme que l’espace est un lieu de conflictualité. Pourtant, dès 1967, grâce au Traité de l’espace, le principe de l’utilisation pacifique de l’espace a été acté.

Cette expression ne signifie pas que les armes sont illégales dans l’espace : leur présence n’est pas interdite tant qu’elles ne sont pas utilisées. Une nuance : en vertu de ce traité, si l’espace extra-atmosphérique peut accueillir certaines armes, les corps célestes, eux, demeurent entièrement exempts de toute arme, quelle qu’en soit la nature.

Ainsi, si l’on se limite à l’orbite autour de la Terre, l’arsenalisation est (pour l’instant) permise sauf pour les armes nucléaires et de destruction massive. Cela ne veut pas pour autant dire que le recours à la force armée est autorisé dans l’espace.

La Charte des Nations unies, également applicable dans l’espace, interdit le recours à la force ; en revanche est permise la légitime défense. C’est la raison pour laquelle les acteurs présentent leurs nouvelles technologies sous le nom de « technologie de défense active ».

Des initiatives visant à encadrer davantage ces pratiques existent, et des négociations sont en cours dans le cadre de la Conférence du désarmement à Genève.


La série « L’envers des mots » est réalisée avec le soutien de la Délégation générale à la langue française et aux langues de France du ministère de la culture.

The Conversation

Katia Coutant a reçu des financements du ministère de l’enseignement supérieur et de la recherche.

ref. Qu’est-ce que l’arsenalisation de l’espace extra-atmosphérique ? – https://theconversation.com/quest-ce-que-larsenalisation-de-lespace-extra-atmospherique-260465

La surprenante indépendance des femmes du Moyen Âge : ce que nous apprennent leurs testaments

Source: The Conversation – in French – By Joëlle Rollo-Koster, Professor of Medieval History, University of Rhode Island

Les testaments des femmes donnent une image plus nuancée de la vie au Moyen Âge que celle que les stéréotypes véhiculent, comme le montre _la Mort et la Prostituée_, de la duchesse de Lorraine [Philippe de Gueldre (1464-1547)](https://fr.wikipedia.org/wiki/Philippe_de_Gueldre), entrée dans les ordres après le décès de son époux. Gallica/BNF

Dans les villes européennes du début du Moyen Âge, les droits des femmes s’étendent même s’ils sont encore limités. Des cadeaux pour l’Au-delà, des corsages pour les plus pauvres ou des fonds pour la réparation de ponts : les testaments des femmes dans la France médiévale donnent un aperçu surprenant de leur quête d’indépendance.


Dans l’Europe du Moyen Âge, l’image de la femme se résumait souvent en deux mots : pécheresse ou sainte.

En tant qu’historienne du Moyen Âge, je donne cet automne un cours intitulé « Entre Ève et Marie : les femmes au Moyen Âge ». Le but du cours tente d’éclairer sur la façon dont les femmes du Moyen Âge se voyaient elles-mêmes.

Selon le récit biblique, Ève est la cause de l’expulsion des humains du jardin d’Éden, car elle n’a pas su résister à l’envie de croquer dans le fruit défendu par Dieu. Marie, quant à elle, réussit à concevoir le Fils de Dieu sans aucune relation charnelle.

Ces deux modèles sont écrasants. Le patriarcat considère dans les deux cas que les femmes ont forcément besoin de protection, qu’elles sont incapables de se prendre en main ou de se maîtriser, voire qu’elles sont attirées par le mal et doivent par conséquent être dominées et contrôlées. Mais comment savoir ce que pensent les femmes à l’époque médiévale ? Acceptent-elles réellement cette vision d’elles-mêmes ?

Je ne crois pas que l’on puisse totalement comprendre quelqu’un qui a vécu et qui est mort il y a plusieurs centaines d’années. Cependant, nous pouvons tenter de reconstituer partiellement son état d’esprit à partir des éléments dont nous disposons, comme les registres de recensement de population et les testaments.

Les documents datant de l’Europe médiévale à avoir été écrits ou même dictés par des femmes sont peu nombreux à nous être parvenus. Le manuel de Dhuoda et les écrits de Christine de Pisan sont de rares exceptions. Nous avons plus souvent accès à des documents administratifs, comme les registres de recensements ou les testaments. Il s’agit en général de formulaires rédigés dans un jargon juridique ou religieux par des scribes ou des notaires masculins.

Ces testaments et registres de recensement sont l’objet de mes recherches et ils nous ouvrent, même s’ils n’ont pas été rédigés par des femmes, une fenêtre sur la vie et l’esprit des femmes de l’époque. Ces documents suggèrent que les femmes du Moyen Âge disposaient bien au minimum d’une certaine forme de pouvoir pour décider de leur vie – et de leur mort.

Un recensement vieux de plusieurs siècles

En 1371, la ville d’Avignon (Vaucluse) organise un recensement de sa population. Le registre liste les noms de plus de 3 820 chefs de foyer. Parmi eux, 563 sont des femmes – des femmes responsables de leur propre foyer et qui n’hésitent pas à l’affirmer publiquement.

Ces femmes ne sont pas d’un statut social élevé, et l’histoire ne s’en souvient guère ; elles n’ont laissé de traces que dans ces registres administratifs. Célibataires ou mariées, un cinquième d’entre elles déclarent avoir une profession : de l’ouvrière non qualifiée à la servante, en passant par l’aubergiste, la libraire ou la tailleuse de pierre.

Près de 50 % de ces femmes déclarent un lieu d’origine. La majorité d’entre elles vient de la région d’Avignon et d’autres régions du sud de la France, mais environ 30 % viennent de ce qui est aujourd’hui le nord de la France, du sud-ouest de l’Allemagne et de l’Italie. Ainsi, l’immigration joue déjà un rôle substantiel à l’époque.

Illustration d’une femme blonde en robe rose portant un récipient en bois sur la tête
Illustration tirée du traité Taqwīm al-Ṣiḥḥa, ou Tacuinum sanitatis, (Tableau de santé), du médecin irakien Ibn Butlân, datant du XIᵉ siècle.
Bibliothèque nationale de France

La majorité des femmes venues de régions lointaines arrivent seules, ce qui tend à montrer que les femmes du Moyen Âge n’étaient pas nécessairement « coincées à la maison » sous la coupe d’un père, frère, cousin, oncle ou mari. Même si certaines finissent par se retrouver dans cette situation, il leur en a fallu du cran pour décider de partir.

Nouvelles villes, nouvelles vies

Dans des villes comme Avignon, où la proportion d’immigrants est élevée, les lignées de familles tendent à disparaître. Comme le suggère l’historien Jacques Chiffoleau, la plupart des Avignonnais de la fin du Moyen Âge sont des « orphelins », sans réseau familial étendu dans leur nouvel environnement – ce qui se reflète dans leur façon de vivre.

Depuis le XIIe siècle, les femmes du sud de la France sont considérées comme sui iuris – c’est-à-dire autonomes, capables de gérer leurs affaires juridiques –, si elles ne sont pas sous la tutelle d’un père ou d’un mari. Elles peuvent disposer de leurs biens comme elles l’entendent et les transmettre à leur gré, aussi bien de leur vivant qu’après leur mort. Les dots des filles mariées les empêchent souvent d’hériter des biens parentaux, car en principe la dot remplace l’héritage. Mais en l’absence d’héritier de sexe masculin, elles aussi peuvent hériter.

À la fin du Moyen Âge, les droits juridiques des femmes s’élargissent, car l’anonymat de la ville et l’immigration transforment les relations sociales. Elles peuvent devenir tutrices légales de leurs enfants. Mieux encore, à en juger par les testaments féminins, les veuves et les filles aînées prennent parfois seules des décisions juridiques, sans le tuteur masculin « requis ».

Un vieux manuscrit avec des lignes de caractères et une illustration aux couleurs vives d’hommes et de femmes dans un champ, tandis que d’autres grimpent aux arbres
Une page du livre d’Heures, d’Alelaïde de Savoie, artiste du XVᵉ siècle, montre la récolte des poires et des pommes.
PHAS/Universal Images Group via Getty Images

De plus, les femmes mariées peuvent aussi prendre des décisions juridiquement contraignantes tant que leurs maris sont présents avec elles devant un notaire. Bien que les maris soient techniquement considérés comme les « tuteurs » de leurs épouses, ils peuvent les déclarer juridiquement affranchies de la tutelle. Les épouses peuvent alors nommer leurs témoins testamentaires, désigner un héritier universel et établir des dons et legs à des particuliers ou à l’Église, dans l’espoir de sauver leur âme.

Des voix d’outre-tombe

Les archives européennes débordent littéralement de documents juridiques encore à découvrir, conservés dans des boîtes poussiéreuses. Ce qui manque, c’est une nouvelle génération d’historiens capables de les analyser et de paléographes capables de lire les écritures manuscrites. Pour y remédier, des journées d’études internationales ont eu lieu en jui 2025 à Paris-Évry, consacrées à la transmission patrimoniale en France et en Italie, à travers des testaments datant de la fin du Moyen Âge à l’époque moderne. Richissimes ou issus de classes populaires, hommes et femmes, religieux et laïcs, tout le monde ou presque fait un testament.

En Avignon, des hommes et des femmes de toutes conditions font appel aux services de notaires pour établir des actes contractuels : fiançailles, mariages, ventes de biens, transactions commerciales ou donations. Dans cette masse de documents, les testaments donnent une perspective rafraîchissante sur l’autonomie et les émotions des femmes médiévales à l’approche de la fin de leur vie.

Dans la soixantaine de testaments féminins conservés à Avignon, les femmes indiquent où et avec qui elles souhaitent être enterrées, choisissant souvent leurs enfants ou leurs parents plutôt que leur mari. Elles désignent les œuvres de charité, ordres religieux, hôpitaux pour les pauvres, paroisses et couvents qui bénéficieront de leur générosité – y compris des legs destinés à la réparation du célèbre pont d’Avignon.

Ces femmes ont peut-être exprimé leurs dernières volontés allongées dans leur lit, au seuil de la mort, guidées dans leurs décisions par le notaire. Pourtant, au vu de ce qu’elles dictent – que ce soit des dons pour les dots de jeunes filles pauvres, leurs proches et amis, ou pour que leur nom soit prononcé lors de messes catholiques pour les morts –, je soutiens que ce sont bien leurs propres voix que nous entendons.

Chapelets, réparations et fourrures

En 1354, Gassende Raynaud d’Aix demande à être enterrée auprès de sa sœur Almuseta. Elle lègue une maison à son amie Aysseline, tandis que Douce Raynaud – peut-être une autre sœur – reçoit six assiettes, six pichets, deux plats, une cruche en étain, un chaudron, son meilleur pot de cuisson, une cape de fourrure doublée de mousseline, une grande couverture, deux grands draps, son plus beau corsage, un petit coffret, ainsi que tous les fils à repriser et le chanvre qu’elle possède. Gassende Raynaud d’Aix lègue également un coffret, un chauffe-main en cuivre, le meilleur trépied de la maison et quatre draps neufs à son amie Alasacia Boete.

La générosité de Gassende ne s’arrête pas là. Jacobeta, fille d’Alasacia, reçoit un chapelet d’ambre ; Georgiana, la belle-fille d’Alasacia, un corsage ; et Marita, la petite-fille d’Alasacia, une tunique. On constate ici que les liens d’amitié remplacent les liens de famille. Ainsi, la lignée de Gassande se confond avec celle de son amie. À son autre amie Alasacia Guillaume, Gassende lègue, en plus d’une couverture brodée, un cadeau peu commun : un autel portatif pour la prière. À Dulcie Marine, une autre amie encore, elle donne un livre de chœur appelé antiphonaire et sa plus belle cape ou fourrure. On voit que Gassende donne surtout à d’autres femmes, ses amies, devenues comme sa famille.

Dans un autre testament avignonnais rédigé en 1317, Barthélemie Tortose fait des dons à plusieurs frères dominicains, dont son propre frère. On peut imaginer le contentement que peut ressentir une femme à soutenir financièrement un religieux. Elle laisse des fonds au supérieur de son frère, le prieur de l’ordre (peut-être pour s’assurer que celui-ci soit bien disposé à l’égard de son frère). Elle donne à des œuvres de charité et pour la réparation de deux ponts sur le Rhône tumultueux, et elle offre aussi une somme substantielle pour nourrir et habiller toutes les religieuses de tous les couvents de la ville.

Illustration dans les tons verts et rouges montrant deux villes reliées par un pont enjambant une rivière avec quelques petites îles
Illustration du Rhône au XVIᵉ siècle, avec Avignon (Vaucluse) à droite.
Wikimedia

Elle soutient les femmes de sa famille, léguant notamment un revenu locatif à sa nièce, une religieuse bénédictine. Elle demande ensuite que ses vêtements soient transformés en habits pour les religieuses et en tuniques liturgiques.

On voit bien ici à quel point ces legs sont éminemment personnels : ces femmes se disent que ce qu’elles ont touché, ce qui a été en contact avec leur peau, pourra toucher d’autres personnes. Ce sont des dons charnels, tactiles. Elles espèrent que leurs possessions pourront transmettre un peu de leur mémoire, de leur existence, de leur identité. Et je dirais même, un peu de leur odeur.

De plus, les femmes médiévales peuvent aussi être sacrément radicales, sans être Jeanne d’Arc pour autant.

Au moins dix femmes dont j’ai lu les testaments demandent à être enterrées dans des habits de moines, dont Guimona Rubastenqui. Veuve d’un marchand de poisson d’Avignon – un métier souvent lucratif – elle demande au frère carme Johannes Aymerici de lui donner un de ses vieux habits pour être enterrée avec. Elle paye pour cela le prix relativement élevé de six florins.

Affirmer leur volonté

Alors, que retenir de tout cela ?

Il est impossible de reconstituer entièrement la façon dont les gens vivaient, aimaient et mouraient il y a des siècles. J’ai passé ma vie d’adulte à penser « médiéval », tout en sachant que je n’y parviendrai jamais vraiment. Mais nous avons des indices – et ce que j’appelle une intuition éclairée.

Selon nos critères modernes, ces femmes font face à de réelles limites en matière de pouvoir et d’indépendance, autrement dit, elles se heurtent à des murs. Pourtant, je soutiens qu’elles se libèrent à leur mort : leurs testaments leur offrent une rare occasion de prendre des décisions juridiques personnelles et de survivre dans des archives écrites.

Les femmes du Moyen Âge ont eu le pouvoir d’agir. Pas toutes et pas tout le temps. Mais cet échantillon même réduit montre qu’elles récompensaient et aidaient selon leurs choix.

Quant à leur souhait d’être enterrées dans des vêtements d’hommes, je n’ai aucun moyen de vérifier et de savoir s’il a été respecté. Mais de mon point de vue, il y a quelque chose de profondément satisfaisant de savoir qu’au moins, elles ont essayé.

The Conversation

Joëlle Rollo-Koster ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La surprenante indépendance des femmes du Moyen Âge : ce que nous apprennent leurs testaments – https://theconversation.com/la-surprenante-independance-des-femmes-du-moyen-age-ce-que-nous-apprennent-leurs-testaments-260257

Coming out, amours et amitiés : le rôle des séries télé

Source: The Conversation – in French – By Mélanie Bourdaa, Professeure en Sciences de l’Information et de la Communication, Université Bordeaux Montaigne

Distribution de la série musicale états-unienne _Glee_ (2009-2015) qui a réalisé, en 2011, en France, le meilleur score d’audience (5,2 %) pour une série inédite. Keith McDuffee/Wikimedia Commons, CC BY

La variété de personnages représentés dans les séries télévisées s’est beaucoup étoffée, permettant aux adolescents en pleine éducation sentimentale de mieux se projeter dans les intrigues, et d’y trouver un appui pour affronter leurs questionnements voire, dans certains cas, faire leur coming out.


Les séries télévisées constituent des laboratoires des expériences adolescentes en matière de sexualité, d’éducation sentimentale, de consentement, de cyberharcèlement, ou d’échanges entre pairs ou amis, comme le fait ressortir l’enquête menée dans l’ouvrage Teen series. Genre, sexe et séries pour ados (2024).

Présentant des problématiques adolescentes, avec des adolescents comme personnages principaux, ces séries constituent des œuvres culturelles cruciales pour analyser à la fois les représentations des sexualités adolescentes mais également pour comprendre comment les adolescents se saisissent de ces représentations pour en faire un levier de discussions dans leurs communautés.

Des personnages non binaires plus présents dans les intrigues

Les Teen series ont vu leur importance grandir dans le paysage sériel actuel, notamment dans un contexte d’éclatement des audiences sur divers supports de diffusion. Si, durant les années 1990, nombre d’entre elles, Dawson’s Creek (1998-2003) ou Beverly Hills (1990-2000), étaient déjà produites et diffusées, elles contribuaient souvent à véhiculer des personnages stéréotypés et monolithiques : le « sexy quarterback », la « mean girl », la « popular girl » et souvent une « cheerleader » qui sortait avec le « quaterback ».

Dans ces séries, l’hétéronormativité était la sexualité dominante, voire la seule sexualité montrée. Par exemple dans Dawson’s Creek, le personnage de Jack fait son coming out, mais il n’y a aucun développement autour de ce récit ni aucune réflexion sur les conséquences pour le personnage et son entourage.

Aujourd’hui, les Teen series offrent une diversité des représentations et une nuance dans le développement et dans la psychologie des personnages qui permettent d’amener des pluralités de représentations. Par exemple, la série Glee (2009-2015) tordait les représentations genrées et sexuelles. Plus récemment, dans Heartstopper (2022-2025), le quarterback fait son coming out bisexuel déjouant ainsi les représentations classiques de la masculinité hétérosexuelle.

Les personnages non binaires ont des rôles beaucoup plus décisifs dans le développement de l’intrigue et bénéficient d’une visibilité et d’une temporalité à l’écran beaucoup plus importantes. Nous pensons au personnage de Sid, la petite amie d’Elena, dans la série One Day At a Time (2017) sur Netflix qui a reçu un écho positif auprès des fans. Il en va de même pour les personnages transgenres dans Sex Education (2019), Euphoria (2019), Heartstopper, Gossip Girl nouvelle version (2021-2023) ou bien The Chilling Adventure of Sabrina (2018-2020) pour n’en citer que quelques-unes.

Le personnage étant une figure familière, avec lequel les téléspectateurs vont créer une relation émotionnelle, il est essentiel pour les séries de leur proposer des variétés de représentations auxquelles s’identifier. Le personnage accompagne alors les téléspectateurs et leur fournit des modèles de représentations sur lesquelles ils et elles peuvent s’appuyer ou rejeter pour se construire leur propre identité.

L’importance de l’identification aux personnages

Les adolescents regardent ces séries, mais ils ne sont pas passifs. Pour ainsi dire, ils et elles se les approprient. La recherche s’est d’ailleurs beaucoup penchée sur la façon dont ils et elles investissent les thématiques inhérentes aux séries (harcèlement, première fois, homophobie…), mais aussi comment ils et elles s’identifient aux personnages, en parlent ensemble, les critiquent et les mettent à distance.

Les publics adolescents s’emparent des narrations, de récits, d’imaginaires, pour se construire des communautés de pratiques, des réseaux également. Ils mènent des actions culturelles, sociales et politiques sous forme de partage de contenus numériques et de créations (fanfictions, fan arts, edits vidéo, cosplay) notamment. Le personnage et les narrations provoquent des discussions autour des sexualités et des identités genrées. Ce sont aussi des leviers d’engagement concret pour de jeunes fans qui mettent alors à contribution leur identité de fans, mais également leur identité sexuelle au service de la collectivité.

Casting de Pretty Little Liars : Summer School (Chandler Kinney, Zaria Simone, Malia Pyles, and Mallory Bechtel) au ATX TV Festival, en 2024
Distribution de Pretty Little Liars : Summer School (Chandler Kinney, Zaria Simone, Malia Pyles, and Mallory Bechtel) au ATX TV Festival, en 2024.
Chris Roth, via Wikimedia, CC BY-SA

Par exemple, lorsque Emily Fields, dans Pretty Little Liars (2010-2017) fait son coming out et qu’il nous est donné à voir la réaction de ses deux parents, plusieurs fans ont réagi sur les réseaux sociaux ou dans leur communauté en ligne. Sur YouTube, une fan poste ce commentaire en lien avec les scènes spécifiques de coming out :

« C’est tellement ça pour moi. J’ai 13 ans. Il y a un mois, mon père a découvert que j’étais gay et il m’a hurlé dessus pendant des heures me disant que ce n’était pas normal et que ce n’était qu’une phase. Il m’a dit que si je continuais à être comme ça, il allait me jeter de la maison. Ma mère a dit qu’elle était OK avec le fait que je sois gay et qu’elle continuerait à m’aimer quoi qu’il arrive. »

Une autre déclare que ce que vit le personnage va l’aide dans son processus :

« Je suis bisexuelle. Cela signifie que j’aime les hommes et les femmes. Personne ne le sait encore, puisque j’ai 11 ans. Cela paraît simple pour moi, mais en réalité ma famille est homophobe. Je ne pense pas que ce sera facile, mais je vais leur annoncer bientôt. Emily m’en a donné le courage. Merci beaucoup, Shay (nom de l’actrice, ndlr). »

Et cela crée des relations, des identifications. On se confie, on se découvre avec les séries.

Anna a 18 ans. Elle se souvient qu’au lycée elle regardait Heartstopper avec une amie. Au-delà de la série, ce fut surtout l’occasion pour les deux jeunes filles d’évoquer leur homosexualité et de faire leur coming out ensemble.

« On a suivi les héroïnes lesbiennes de la série et c’est comme si elles nous ouvraient la voie une peu ».

Anna poursuit :

« Évidemment, lorsque dans la série on voit des parents exclure leur fille lesbienne, j’ai immédiatement dit à mes parents : “Vous ne feriez pas ça vous ?”, et j’en ai profité pour leur faire aussi mon coming out ».

La série rassure par ses personnages, par sa quotidienneté : elle accompagne.

Des créations de fans

Outre cette expression de soi dans les communautés en ligne, les publics fans et, en particulier, les jeunes publics créent des œuvres « transformatrices » écrites, visuelles ou audiovisuelles à partir de la narration et des personnages.

Ces créations, nombreuses, polymorphes, leur permettent de mettre en avant différents aspects de la série et notamment en ce qui concerne les représentations de la sexualité : développer des histoires autour de couples, en particulier homosexuels, présents dans le récit ou fantasmés par les fans, réparer des erreurs genrées (cela a été vu par exemple dans les fanfictions Twilight (2008-2012) qui replaçaient Bella dans un rôle central) ou de continuer à faire vivre des personnages, éliminés dans la série.

Les jeunes publics s’appuient alors sur le récit officiel, mais également sur leur imagination et leur propre expérience pour produire ces œuvres. Ces créations partagées dans les communautés de fans et dans la sphère publique contribuent à une meilleure visibilité des sexualités adolescentes, en les replaçant dans un écosystème médiatique multiplateforme.

Au total, si on assiste à une transformation de l’« imaginaire du coming out » (de la chose impossible, de l’épreuve traversée de violences, à la non-obligation, presque au non-événement dans certaines séries), c’est le fait aussi de fans qui demandent à ce que l’homosexualité et le drame ne soient pas toujours jumelés dans les scénarios.

La réception par les jeunes, notamment homosexuels, des Teen series, n’est donc pas anodine. Par l’attention que lui apportent les diffuseurs et les scénaristes, elle oriente les visibilités et les récits de jeunes… et de leur entourage !

The Conversation

Mélanie Bourdaa a reçu des financements de la Région Nouvelle Aquitaine pour le projet Sexteen.

Arnaud Alessandrin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Coming out, amours et amitiés : le rôle des séries télé – https://theconversation.com/coming-out-amours-et-amities-le-role-des-series-tele-259826

Comment la modélisation peut aider à mieux gérer la ressource en eau

Source: The Conversation – France (in French) – By André Fourno, Chercheur, IFP Énergies nouvelles

L’aquifère karstique de la source du Lez, dans l’Héraut, assure l’alimentation en eau potable de 74 % de la population des 31 communes de la métropole de Montpellier. Stclementader/Wikimedia commons, CC BY-NC-SA

Alors que les arrêtés de restriction d’usage de l’eau en raison de la sécheresse se multiplient depuis le début du mois de juin 2025, une question se pose : peut-on mieux prévoir l’évolution de ces ressources grâce aux outils numériques ? Les aquifères (roches poreuses souterraines) et la complexité de leurs structures sont difficiles à appréhender pour les chercheurs depuis la surface de la Terre. La modélisation numérique a beaucoup à apporter à leur connaissance, afin de mieux anticiper les épisodes extrêmes liés à l’eau et mieux gérer cette ressource.


Les eaux souterraines, qui représentent 99 % de l’eau douce liquide sur terre et 25 % de l’eau utilisée par l’homme, constituent la plus grande réserve d’eau douce accessible sur la planète et jouent un rôle crucial dans le développement des sociétés humaines et des écosystèmes.

Malheureusement, les activités anthropiques affectent fortement la ressource, que ce soit par une augmentation de la demande, par l’imperméabilisation des surfaces ou par différentes contaminations…

À ces menaces s’ajoutent les perturbations des cycles et des processus naturels. Le changement climatique entraîne ainsi des modifications des régimes hydrologiques, telles que la répartition annuelle des pluies et leur intensité, ainsi que l’augmentation de l’évaporation.

Si remédier à cette situation passe par une adaptation de nos comportements, cela exige également une meilleure connaissance des hydrosystèmes, afin de permettre l’évaluation de la ressource et de son évolution.

Sa gestion pérenne, durable et résiliente se heurte à de nombreuses problématiques, aussi rencontrées dans le secteur énergétique (hydrogène, géothermie, stockage de chaleur, stockage de CO₂

Il s’agit donc de considérer les solutions mises en place dans ces secteurs afin de les adapter à la gestion des ressources en eau. Ce savoir-faire vise à obtenir une représentation 3D de la répartition des fluides dans le sous-sol et à prédire leur dynamique, à l’instar des prévisions météorologiques.

Les aquifères : des formations géologiques diverses et mal connues

Comme l’hydrogène, le CO2 ou les hydrocarbures, l’eau souterraine est stockée dans la porosité de la roche et dans ses fractures, au sein de « réservoirs » dans lesquels elle peut circuler librement. On parle alors d’aquifères. Ces entités géologiques sont par nature très hétérogènes : nature des roches, épaisseur et morphologie des couches géologiques, failles et fractures y sont légion et affectent fortement la circulation de l’eau souterraine.

Aquifères sédimentaires profonds ou karstiques.
Office international de l’eau, CC BY-NC-SA

Pour comprendre cette hétérogénéité du sous-sol, les scientifiques n’ont que peu d’informations directes.L’étude de la géologie (cartographie géologique, descriptions des différentes unités lithologiques et des réseaux de failles et fractures, étude de carottes de forage) permet de comprendre l’organisation du sous-sol.

Les géologues utilisent également des informations indirectes, obtenues par les techniques géophysiques, qui permettent de déterminer des propriétés physiques du milieu (porosité, perméabilité, degré de saturation…) et d’identifier les différentes zones aquifères.

Enfin, grâce à des prélèvements d’échantillons d’eau et à l’analyse de leurs compositions (anions et cations majeurs ou traces, carbone organique ou inorganique, isotopes), il est possible de déterminer l’origine de l’eau (eau météorique infiltrée, eau marine, eau profonde crustale…), les terrains drainés, mais également les temps de résidence de l’eau au sein de l’aquifère.

Ces travaux permettent alors d’obtenir une image de la géométrie du sous-sol et de la dynamique du fluide (volume et vitesse d’écoulement de l’eau), constituant une représentation conceptuelle.

Modéliser le comportement des eaux sous terre

Cependant, les données de subsurface collectées ne reflètent qu’une faible fraction de la complexité géologique de ces aquifères. Afin de confronter les concepts précédemment établis au comportement réel des eaux souterraines, des représentations numériques sont donc établies.

Les modèles numériques du sous-sol sont largement utilisés dans plusieurs champs d’application des géosciences : les énergies fossiles, mais aussi le stockage géologique de CO₂, la géothermie et bien sûr… la ressource en eau !

Dans le domaine de l’hydrogéologie, différentes techniques de modélisation peuvent être utilisées, selon le type d’aquifère et son comportement hydrodynamique.

Les aquifères sédimentaires profonds constitués de couches de sédiments variés sont parfois situés à des profondeurs importantes. C’est, par exemple, le cas des formations du miocène, de plus de 350 mètres d’épaisseur, de la région de Carpentras, qui abritent l’aquifère du même nom. Celles-ci vont se caractériser par une forte hétérogénéité : plusieurs compartiments aquifères peuvent ainsi être superposés les uns sur les autres, séparés par des intervalles imperméables (aquitards), formant un « mille-feuille » géologique.

Représenter la complexité des aquifères

La distribution de ces hétérogénéités peut alors être modélisée par des approches géostatistiques, corrélées à des informations de structure (histoire géologique, déformations, failles…). On parle de « modèles distribués », car ils « distribuent » des propriétés géologiques (nature de la roche, porosité, perméabilité…) de manière spatialisée au sein d’une grille numérique 3D représentant la structure de l’aquifère.

Ces modèles distribués se complexifient lorsque l’aquifère est fracturé et karstique. Ces systèmes hydrogéologiques sont formés par la dissolution des roches carbonatées par l’eau météorique qui s’infiltre, le plus souvent le long des failles et fractures. Ces aquifères, qui sont très largement répandus autour de la Méditerranée (aquifères des Corbières, du Lez, ou des monts de Vaucluse…), ont une importante capacité de stockage d’eau.

Ils se caractérisent par des écoulements souterrains avec deux voire trois vitesses d’écoulement, chacune associée à un milieu particulier : lente dans la roche, rapide au sein des fractures, très rapide dans les drains et conduits karstiques avec des échanges de fluide entre ces différents milieux. Les approches distribuées s’appuient alors sur autant de maillages (représentation numérique d’un milieu) que de milieux contribuant à l’écoulement, afin de modéliser correctement les échanges entre eux.

Anticiper les épisodes extrêmes et alerter sur les risques

Le point fort des approches distribuées est de pouvoir définir, anticiper et visualiser le comportement de l’eau souterraine (comme on le ferait pour un front nuageux en météorologie), mais également de positionner des capteurs permanents (comme cela a été abordé dans le projet SENSE) pour alerter de façon fiable les pouvoirs publics sur l’impact d’un épisode extrême (pluvieux ou sécheresse).

En outre, elles sont le point de passage obligé pour profiter des derniers résultats de la recherche sur les « approches big data » et sur les IA les plus avancées. Cependant, les résultats obtenus dépendent fortement des données disponibles. Si les résultats ne donnent pas satisfaction, il est nécessaire de revoir les concepts ou la distribution des propriétés. Loin d’être un échec, cette phase permet toujours d’améliorer notre connaissance de l’hydrosystème.

Des modélisations dites « globales » assez anciennes reliant par des modèles de type boîte noire (déjà parfois des réseaux neuronaux !) les données de pluie mesurées aux niveaux d’eau et débits observés ont également été mises au point à l’échelle de l’aquifère. Elles sont rapides et faciles d’utilisation, toutefois mal adaptées pour visualiser et anticiper l’évolution de la recharge et des volumes d’eau en place dans un contexte de changements globaux, avec notamment la multiplication des évènements extrêmes.

Loin d’être en concurrence, ces approches doivent être considérées comme complémentaires. Une première représentation du comportement actuel de l’aquifère peut être obtenue avec les approches globales, et faciliter l’utilisation et la paramétrisation des approches distribuées.

Des outils d’aide à la décision

Ces dernières années, la prise en considération des problématiques « eau » par les pouvoirs publics a mis en lumière le besoin d’évaluation de cette ressource. Le développement d’approches méthodologiques pluridisciplinaires couplant caractérisation et modélisation est une des clés pour lever ce verrou scientifique.

De tels travaux sont au cœur de nombreux programmes de recherche, comme le programme OneWater – Eau bien commun, le programme européen Water4all ou l’ERC Synergy KARST et de chaires de recherche telles que GeEAUde ou EACC.

Ils apportent une meilleure vision de cette ressource dite invisible, et visent à alerter l’ensemble des acteurs sur les problèmes d’une surexploitation ou d’une mauvaise gestion, à anticiper les impacts des changements globaux tout en fournissant des outils d’aide à la décision utilisables par les scientifiques, par les responsables politiques et par les consommateurs.

The Conversation

André Fourno a reçu des financements de OneWater – Eau Bien Commun.

Benoit Noetinger a reçu des financements de European research council

Youri Hamon a reçu des financements de OneWater – Eau Bien Commun.

ref. Comment la modélisation peut aider à mieux gérer la ressource en eau – https://theconversation.com/comment-la-modelisation-peut-aider-a-mieux-gerer-la-ressource-en-eau-251408

Art, bien-être et cerveau : étudier les effets de visites au musée

Source: The Conversation – in French – By Véronique Agin, Professeur en neurosciences, Université de Caen Normandie

Le rôle de l’art dans la prévention en santé, mais aussi dans l’aide à la prise en charge des malades dans différentes pathologies, est de plus en plus accepté. Mais ses bénéfices doivent encore être validés en respectant les normes des essais cliniques. C’est l’objectif d’un projet de recherche mené au musée des Beaux-Arts de Caen, en Normandie, qui allie neurosciences, psychologie et sciences numériques.


Définir l’art et la santé est une question difficile mais fondamentale avant d’initier une recherche sur les liens entre les arts et la santé.

L’œuvre d’art est valorisée en soi, sa finalité n’est pas d’être utile. Elle incarne la nouveauté, la créativité, l’originalité, le travail de recherche et le savoir-faire de l’artiste. Elle suscite en outre l’imagination et l’expression émotionnelle aussi bien chez l’artiste que chez le spectateur.

La santé, quant à elle, peut être définie comme un état de bien-être mental, physique et social, et non pas seulement comme l’absence de maladie ou d’infirmité, ce qui ancre ainsi fermement la santé dans la société et la culture.

De nombreux articles scientifiques affirment que les arts pourraient améliorer la santé, et donc le bien-être des individus. En 2019, l’Organisation mondiale de la santé (OMS) a répertorié deux grandes catégories d’effets possiblement bénéfiques des arts sur la santé : prévention et promotion de la santé, prise en charge et traitement.

Un projet qui rassemble neurosciences, psychologie et sciences numériques

L’art peut-il améliorer la santé et donc le bien-être ?

Pour contribuer à lever les incertitudes, nous menons un projet pluridisciplinaire « Art, bien-être et cerveau » qui rassemble les neurosciences (laboratoire PhIND : UMR-S Inserm 1237), la psychologie (laboratoire NIHM : UMR-S 1077 ; laboratoire LaPsyDÉ : UMR CNRS 8240) et les sciences numériques (laboratoire GREYC : UMR CNRS 6072).

Cette recherche innovante, menée au musée des Beaux-Arts de Caen, a pour objectif de mesurer, in situ, les effets procurés par la visite d’un musée dédié à la peinture sur le bien-être, chez des adultes en bonne santé âgés de 18 à 65 ans.

Artbienetrecerveau.fr

Il s’agit également d’identifier les mécanismes cérébraux, cognitifs et socioémotionnels associés à ces effets, grâce à des mesures exhaustives et écologiquement adaptées.

Les limites actuelles des publications sur arts et santé

L’analyse critique des études citées dans des revues récentes et des méta-analyses montre des faiblesses méthodologiques (absence de définition de l’art comme agent thérapeutique, manque de randomisation pour l’affectation aux groupes, conditions contrôles inadéquates, effectifs faibles, ou encore analyses statistiques inappropriées) et un manque général de soutien empirique à la notion que l’art influence directement la santé et le bien-être.

En outre, les preuves expérimentales liant l’art à des processus neuronaux ou physiologiques spécifiques restent quasi-inexistantes. Même si des études ont identifié des corrélats neuronaux de l’engagement artistique, elles n’ont pas apporté la preuve que ces mécanismes sont uniques à l’art ou qu’ils ont un impact causal sur les résultats.

Si l’idée que l’art peut améliorer la santé est attrayante et culturellement résonnante, il est aujourd’hui fondamental d’approfondir les recherches sur les arts et la santé en respectant les normes les plus élevées de la méthodologie des essais cliniques.

Prévention santé, prise en charge des malades… des bénéfices potentiels à valider

De nombreux éléments d’études scientifiques sont disponibles et prêtent aux arts de multiples bénéfices pour la santé et le bien-être. Ils sont à considérer avec précaution.

Les arts contribueraient ainsi à la prévention en santé, en réduisant notamment le risque de déclin cognitif et de mortalité prématurée. L’OMS estime qu’ils favoriseraient la prise en charge de maladies non transmissibles telles que le cancer, les maladies respiratoires, le diabète, les maladies cardiovasculaires… Ils pourraient également être un soutien aux soins de fin de vie.




À lire aussi :
Quand l’art-thérapie prend soin des soignants en cancérologie : retour inattendu d’expérience


Les arts aideraient, par ailleurs, les personnes atteintes de troubles neurodéveloppementaux et neurologiques incluant les troubles du spectre autistique (TSA), la paralysie cérébrale, les accidents vasculaires cérébraux (AVC), la sclérose en plaques, les démences…

Les arts favoriseraient en outre le développement de l’enfant en contribuant au lien mère-enfant, à l’acquisition du langage, ou encore à la réussite scolaire.

Il a aussi été rapporté que les arts influenceraient les déterminants sociaux de la santé tels que la cohésion sociale et la réduction des inégalités et iniquités sociales.

Un protocole innovant au sein du musée des Beaux-Arts de Caen

Notre projet « Art, Bien-être et Cerveau » est porté par le groupement d’intérêt scientifique « Blood & Brain @ Caen Normandie » (BB@C), le musée des Beaux-Arts de Caen, le Centre hospitalier universitaire de Caen et le réseau professionnel des arts et des cultures numériques en Normandie (Oblique/s), dans le cadre des festivités du Millénaire de la ville de Caen.

Dans ce projet, nous étudions l’effet de visites au musée chez 200 participants à l’aide d’un protocole expérimental en deux visites au musée des beaux-arts. Les participants seront répartis en trois groupes : deux groupes expérimentaux de 80 participants (l’un avec médiation, l’autre sans médiation) et un groupe contrôle (40 participants).

Lors de la première visite, les groupes expérimentaux effectueront la visite du musée de manière individuelle durant laquelle ils bénéficieront, ou non, d’une médiation culturelle.

Ils seront tous équipés de lunettes d’eye-tracking (pour l’enregistrement des mouvements oculaires), d’un bandeau NIRS (Near InfraRed Spectroscopy, pour l’enregistrement de l’activité cérébrale) et d’un capteur d’activité électrodermale (pour l’analyse des réponses cardiaques et électrodermales, qui correspondent aux variations électriques de la peau liées au fonctionnement des glandes sudoripares).




À lire aussi :
Les enfants voient l’art différemment : ce que nous apprennent les dernières recherches d’« eye-tracking »


Pour la seconde visite, les participants effectueront la visite du musée en binôme, avec ou sans médiation.

Avant et après la visite, ils répondront à différents questionnaires (émotionnel, bien-être et stress) et réaliseront des tâches cognitives mesurant les fonctions exécutives, l’attention visuelle, la mémoire épisodique, l’empathie et la créativité.

Le groupe contrôle effectuera deux visites au musée, comme les groupes expérimentaux, mais sans équipement ni médiation. Ces participants répondront uniquement aux questionnaires et aux tests cognitifs.

Questionnaires, tests cognitifs et enregistrements de l’activité cérébrale

Les questionnaires et les tests cognitifs permettront de déterminer si la découverte des œuvres, ainsi que la médiation proposée, entraînent une augmentation du bien-être et des capacités cognitives.

Afin de recueillir des mesures physiologiques de la réponse émotionnelle, des enregistrements des réponses électrodermales et cardiaques lors de l’exposition aux tableaux seront réalisés à l’aide d’un biocapteur porté au poignet par les participants.

Nous formulons l’hypothèse que les participants présenteront de meilleures capacités exécutives après la visite, avec un gain plus marqué chez les volontaires dans un état émotionnel positif. Nous postulons également que les capacités de traitements visuospatiaux des participants bénéficieront de la médiation du professionnel.

La NIRS, une technique d’imagerie optique non invasive, sera utilisée pour enregistrer l’activité du cortex préfrontal lors de l’analyse de l’œuvre picturale. Elle renseignera sur l’engagement émotionnel et la synchronisation cérébrale entre les participants.

Nous nous attendons, entre autres, à ce que la variation des réponses émotionnelles à toutes les mesures effectuées (questionnaires, capteur d’activité électrodermale) soit en lien avec des variations de l’activation du circuit fronto-limbique. Enfin, les mesures oculométriques (eye-tracking) permettront d’analyser les liens entre la médiation et les stratégies d’exploration visuelle des participants.

Cette recherche, combinée à d’autres, pourrait avoir différentes implications : favoriser la synergie entre politiques culturelles et de santé ; concevoir des expériences muséales au plus près du fonctionnement humain ; ouvrir sur de nouvelles perspectives comme le rôle de l’exposition à l’art dans le maintien en bonne santé, avec la possibilité à plus long terme d’envisager des recherches sur d’autres arts ; ouvrir à d’autres études du même type associant binômes patients-aidants, jeunes-seniors, etc.

The Conversation

Le projet « Art, bien-être, cerveau, une rencontre essentielle ou l’ABC d’une rencontre » est financé par le GIP Millénaire de Caen (à l’occasion du millénaire de la ville de Caen, un Groupement d’intérêt public (GIP) Millénaire a été constitué à l’échelle du territoire avec la volonté d’associer à ce projet la Communauté urbaine Caen la mer, mais aussi le département du Calvados, la région Normandie, l’université Caen Normandie et la Chambre de commerce de l’industrie).

ref. Art, bien-être et cerveau : étudier les effets de visites au musée – https://theconversation.com/art-bien-etre-et-cerveau-etudier-les-effets-de-visites-au-musee-259710

Avec Machiavel, penser la liberté politique dans un monde en guerre

Source: The Conversation – France in French (3) – By Jérôme Roudier, Professeur de philosophie politique, Institut catholique de Lille (ICL)

_Portrait posthume de Nicolas Machiavel_ (1500), par le peintre florentin Santi di Tito (1536-1603), huile sur toile, Palazzo Vecchio, Florence (Toscane).

Notre démocratie est en crise, comment la réinventer ? Que nous enseignent ceux qui, au cours des âges, furent ses concepteurs ? Troisième volet de notre série consacrée aux philosophes et à la démocratie avec Nicolas Machiavel (1469-1527). Pour le Florentin, la conflictualité est un horizon politique indépassable : le « peuple » doit être armé pour ne pas subir la tyrannie des « Grands » et les républiques doivent être puissantes pour ne pas subir l’impérialisme des États voisins.


Machiavel est un penseur qui fait de la survie et de la fondation des États un enjeu fondamental. Pour celui qui exerça les fonctions de haut fonctionnaire de la République florentine, la question du régime politique est donc subordonnée à celle de la survie dans un contexte toujours marqué par l’horizon de la guerre.

Le meilleur régime est forcément celui qui assure à la fois la liberté et la puissance et qui permet de fonder l’État dans la durée. La science politique qu’il inaugure ainsi n’est plus une réflexion théorique, mais bien un programme politique articulant l’idéal au pragmatisme.

Un républicanisme originel et fondateur

Machiavel n’est pas à proprement parler un penseur de la démocratie. C’est un républicain convaincu. Les républicains de son époque entendent élargir la base du gouvernement et intégrer cette classe moyenne dans une vie politique qui, traditionnellement, est réservée aux aristocrates. Le choix, par Machiavel et par ses contemporains voire par la tradition florentine de parler de « République », indique un régime où, comme sous Rome, tout le monde n’est pas forcément citoyen.

Pour les républicains, jusqu’au milieu du XIXe siècle, l’élargissement voire l’universalisation de la citoyenneté constituera une question essentielle. Étant donné que la classe moyenne augmente peu à peu dans le temps pour atteindre une proportion très importante, voire majoritaire, de la population européenne, le républicanisme, dans ces conditions, s’articule avec une citoyenneté universellement attribuée aux membres de la société et peut alors se proposer comme le fondement théorique des démocraties modernes puis contemporaines.

L’horizon de la puissance

Du point de vue intérieur, Machiavel estime que la division sociale est inévitable et que le rôle d’un système légal consiste à la laisser s’exprimer tout en l’arrêtant dans ses manifestations les plus extrêmes. Comme il le souligne, les Grands veulent naturellement dominer, il faut donc les arrêter pour qu’ils ne tyrannisent pas. Le « peuple » (entendre les « classes moyennes ») veut seulement ne pas être dominé, par conséquent, il faut lui donner les armes qui lui permettront de constituer un contre-pouvoir envers la tyrannie potentielle des Grands.

Le monde de Machiavel est belliciste, la puissance est à la fois le gage de la survie et l’outil pour conquérir. Si le peuple peut se contenter de n’être pas asservi, une société, dans un monde instable, se doit d’être puissante. La politique se constitue dans l’articulation bien pensée à la fois de ce qu’elle est sur le fond, la recherche d’un vivre-ensemble viable, et de sa situation dans le monde, composée par ses interactions inévitables avec les autres entités politiques.

Pour Machiavel, le monde politique n’est pas chrétien : son fondement, celui de toute société, reste l’appétit de chacun. Si nous étions tous des saints chrétiens, la politique n’existerait tout simplement pas. Or, le désir de dominer, parfaitement naturel et donc inévitable, structure toute collectivité et la divise en trois : ceux qui veulent dominer (les Grands), ceux qui accepteraient cette domination par nécessité de survie (la populace, la plèbe) et ceux qui ne veulent ni l’un ni l’autre (le peuple, la « classe moyenne »). Ce point de départ, le système politique républicain l’assume. Il accepte l’inégalité fondamentale des conditions et des désirs, dans sa tripartition même.

Dès lors, Machiavel place au centre du dispositif à la fois la loi, que chacun doit avant tout respecter, mais aussi les armes. Le Florentin n’imagine pas une seconde que les Grands arrêteront d’eux-mêmes leur soif de domination et de reconnaissance. Il anticipe ainsi les libéraux, en particulier Montesquieu sur ce point, en estimant que seul le pouvoir arrête le pouvoir. Dans la vision machiavélienne et pragmatique des choses, l’arrêt d’une domination qui risquerait d’être tyrannique ne peut se faire par la Loi seule. Il convient que le peuple de citoyens soit armé pour imposer le respect de la Loi aux Grands.

Pour le Florentin, cette dynamique initiale ne débouche pas sur la guerre civile mais sur l’évolution de la soif de domination des Grands qui vont, par la force des choses, tourner leurs désirs vers l’extérieur. Plutôt que tyrans, ils vont avoir un double intérêt à devenir généraux et hommes d’État. Ce point est très visible à travers le plan des Discours sur la première décade de Tite-Live, livre méconnu du grand public mais très lu par les républicains ultérieurs. Pour Machiavel, le système politique républicain, dans ses turbulences et son instabilité fondamentale, offre la possibilité de la puissance à l’extérieur et d’une certaine forme d’impérialisme.

« Si vis pacem… »

Pour Machiavel, toute situation de paix correspond à ce moment qui précède une nouvelle guerre. Par conséquent, il faut préparer la guerre, au mieux pour ne pas avoir à la faire. La vie du Secrétaire se déroula pendant les guerres d’Italie où la guerre était omniprésente et inévitable. De son point de vue, un pacifisme qui pourrait présider à une compétition aux armements pour défendre les démocraties en assumant le risque de guerre est toujours préférable à un désarmement qui ne pourrait qu’augurer d’une invasion à venir.

La question de la paix, pour Machiavel, nous est ainsi restituée comme celle d’une tension très difficile à atteindre et non comme d’un projet idéal rationnel. Ainsi, l’effort kantien pour promouvoir la paix perpétuelle via une extension de l’État de droit à toutes les entités politiques est à l’opposé de la pensée machiavélienne. Selon le Florentin, pour obtenir la paix, il convient qu’une puissance impériale républicaine soit limitée par une autre puissance impériale équivalente. Nous pourrions dire que, dans notre monde contemporain, ce fut le cas en Europe depuis 1945, sous la domination de la puissance impériale américaine face à l’URSS. Dès lors que la première puissance n’est plus, il convient de lui substituer une puissance suffisante pour dissuader toute agression extérieure.

Mourir pour la liberté ?

Machiavel lierait sans doute cette question à une autre, plus essentielle pour lui et qui fonderait sans doute, à ses yeux, l’ensemble du problème démocratique : sommes-nous prêts à mourir pour la liberté, c’est-à-dire pour ce qui la permet, à savoir la patrie et son régime politique ?

Cette question simple et cruciale, pour Machiavel, ne devrait jamais sortir de l’horizon d’une société qui souhaite perdurer. La liberté, pour Machiavel, c’est la puissance : seul un peuple en armes est libre et capable de maintenir sa liberté face aux Grands comme face à l’ambition des voisins, en imposant la crainte.

Nombre de voix se font entendre, aujourd’hui, sur le caractère sacré de la vie. Dans une perspective machiavélienne, qui retrouve les pensées philosophiques antiques préchrétiennes, en particulier stoïcienne, la vie ne saurait être sacrée. Elle n’est pas le don ineffable du Créateur, mais un fait qui nous projette dans un univers collectif au sein duquel nous devons faire des choix et apporter un sens qui n’est pas donné d’avance et qui n’est pas extérieur à ce monde. Il y a ici tout un questionnement à approfondir, un sens à donner au politique dans nos sociétés, à la fois christianisées et désenchantées, pour reprendre le terme de Max Weber.

Machiavel apporte une réponse républicaine sans aucune ambiguïté, impliquant une réponse radicale à la question de savoir si nous voulons vivre à tout prix, y compris sous une tyrannie. Ce premier penseur de la modernité écartait clairement toute perspective chrétienne pour privilégier, d’une manière très singulière à son époque, une « religion civique » sur le modèle romain pré-chrétien. La réflexion que suscite la lecture de Machiavel pour nos démocraties libérales, renvoie à la place de la politique dans nos vies. Pour le Florentin, la vie ne vaut que si elle est politiquement libre.


Jérôme Roudier est l’auteur de Machiavel par lui-même (PUF, 2025).

The Conversation

Jérôme Roudier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Avec Machiavel, penser la liberté politique dans un monde en guerre – https://theconversation.com/avec-machiavel-penser-la-liberte-politique-dans-un-monde-en-guerre-259122

Nana-Benz du Togo : comment les importations chinoises de tissus africains ont nui aux célèbres commerçantes

Source: The Conversation – in French – By Fidele B. Ebia, Postdoctoral fellow, Duke Africa Initiative, Duke University

La fabrication des tissus imprimés africains s’est déplacée vers la Chine au XXIe siècle. Bien qu’ils soient largement consommés dans les pays africains et symbolisent le continent, l’essor du « made in China » a porté un coup dur aux commerçantes africaines qui ont longtemps dominé la vente et la distritbution des ces tissus.

Pendant plusieurs décennies, Vlisco, le groupe textile néerlandais fondé en 1846 et dont les produits étaient fournis à l’Afrique de l’Ouest par des maisons de commerce européennes depuis la fin du XIXe siècle, a dominé la fabrication de ces tissus. Mais au cours des 25 dernières années, des dizaines d’usines chinoises ont commencé à fournir des tissus imprimés africains aux marchés d’Afrique de l’Ouest. Qingdao Phoenix Hitarget Ltd, Sanhe Linqing Textile Group et Waxhaux Ltd sont parmi les plus connues.

Nous avons mené une étude afin de déterminer comment l’essor des tissus fabriqués en Chine a affecté le commerce des tissus imprimés africains. Nous nous sommes concentrés sur le Togo. Bien que ce soit un petit pays avec une population de seulement 9,7 millions d’habitants, la capitale, Lomé, est la plaque tournante du commerce textile en Afrique de l’Ouest.

Nous avons mené plus de 100 entretiens avec des commerçants, des vendeurs de rue, des agents portuaires ou des courtiers, des représentants du gouvernement et des représentants d’entreprises manufacturières afin de comprendre comment leurs activités ont évolué.

Les textiles africains imprimés « Made in China » sont nettement moins chers et plus accessibles à une population plus large que les tissus Vlisco. Nos observations sur le célèbre marché Assigamé de Lomé ont révélé que les textiles africains imprimés chinois coûtent environ 9 000 CFA (16 dollars américains) pour six mètres, soit une tenue complète. Le wax hollandais (50 000 CFA ou 87 dollars américains) coûte plus de cinq fois plus cher.

Les données sont difficiles à obtenir, mais nos estimations suggèrent que 90 % des importations de ces tissus au port de Lomé en 2019 provenaient de Chine.

Un commerçant togolais résume ainsi l’attrait de ces produits :

Qui pourrait résister à un tissu qui ressemble au vrai Vlisco, mais qui coûte beaucoup moins cher ?

Notre étude montre comment l’arrivée des tissus fabriqués en Chine a fait perdre à Vlisco sa position dominante sur le marché. Elle a aussi brisé le monopole qu’avaient les commerçantes togolaises sur le commerce des tissus néerlandais.

Ces commerçantes, surnommés les Nana-Benz en raison des voitures de luxe qu’elles conduisaient, avaient, en dépit de leur petit nombre, un poids économique et politique énorme. Leur influence politique était telle qu’elles étaient les principaux soutiens du premier président du Togo, Sylvanus Olympio, lui-même ancien directeur de la United Africa Company, qui distribuait des tissus néerlandais.

En échange, Olympio et le général Gnassingbé Eyadéma, au pouvoir pendant de longues années, leur accordèrent des avantages politiques, tels que des impôts réduits, afin de soutenir leurs activités commerciales. Dans les années 1970, le commerce des tissus africains imprimés était considéré comme aussi important que l’industrie du phosphate, principal produit d’exportation.

Les Nana-Benz ont depuis été évincées, leur nombre passant de 50 à environ 20. De nouvelles commerçantes togolaises, connues sous le nom de Nanettes ou « petites Nanas », ont pris leur place. Si elles se sont taillé une place dans le commerce du textile avec la Chine, elles ont toutefois un statut économique et politique moins important. À leur tour, elles sont de plus en plus menacées par la concurrence chinoise, notamment dans le domaine du commerce et de la distribution.




Read more:
Wax : les femmes togolaises derrière le succès du tissu


La Chine supplante les Pays-Bas

Depuis l’époque coloniale, les femmes commerçantes africaines ont joué un rôle essentiel dans la vente en gros et la distribution de tissus néerlandais sur les marchés d’Afrique de l’Ouest. À partir des années 1950, lorsque de nombreux pays de la région ont accédé à l’indépendance, le Grand Marché de Lomé – ou Assigamé – est devenu la plaque tournante du commerce des tissus imprimés africains.

Alors que les pays voisins, comme le Ghana, limitaient les importations dans le cadre de leurs efforts pour promouvoir l’industrie locale, les commerçantes togolaises avaient obtenu des conditions très avantageuses : faibles taxes et accès direct au port de Lomé.

Les commerçantes togolaises connaissaient mieux les goûts de la clientèle majoritairement féminine d’Afrique de l’Ouest que les créateurs néerlandais, principalement masculins. Les Nana-Benz ont activement participé au processus de production et de création des textiles imprimés africains. Elles choisissaient les motifs, donnaient des noms aux tissus, et savaient exactement ce qui faisait vendre leurs tissus.

Ce commerce leur a permis d’acquérir une telle richesse qu’elles ont été surnommées les « Nana-Benz » en référence aux voitures qu’elles achetaient pour collecter et transporter leurs marchandises.

L’exclusivité des Nana-Benz sur le commerce et la vente au détail de tissus imprimés africains sur les marchés d’Afrique de l’Ouest a été remise en cause. Alors que Vlisco a réagi à la baisse de ses revenus (plus de 30 % au cours des cinq premières années du XXIe siècle) due à la concurrence chinoise, le rôle des commerçantes togolaises dans la chaîne d’approvisionnement des tissus néerlandais a été réduit.

Le monopole de Nana-Benz a été aussi sur le commerce et la distribution des tissus hollandais. Avec l’arrivée massive des tissus chinois, les ventes de Vlisco ont chuté de plus de 30 % au début du 21e siècle. Cette situation a affaibli le rôle des commerçantes togolaises dans la chaîne d’approvisionnement des tissus néerlandais.

Vlisco a ouvert plusieurs boutiques en Afrique occidentale et centrale, à commencer par Cotonou (2008), Lomé (2008) et Abidjan (2009). Les Nana-Benz qui ont survécu – environ 20 sur les 50 d’origine – sont devenues des revendeuses sous contrat. Elles doivent désormais respecter des règles strictes sur les prix et les ventes.

Si les nouveaux négociantes togolaises, connues sous le nom de Nanettes, sont impliquées dans l’approvisionnement en textiles en provenance de Chine, leur poids économique et politique est moindre. Elles sont environ 60 à exercer cette activité.

Anciennes vendeuses de textiles et d’autres petits articles dans la rue, les Nanettes ont commencé à se rendre en Chine au début des années 2000 pour s’approvisionner en textiles imprimés africains. Elles participent à la commande et au conseil pour la fabrication de textiles imprimés africains en Chine et à leur distribution en Afrique.

Si beaucoup de Nanettes commandent des marques chinoises courantes, certaines possèdent et commercialisent leurs propres marques. Parmi celles-ci figurent des modèles désormais bien connus à Lomé et en Afrique de l’Ouest, tels que « Femme de Caractère », « Binta », « Prestige », « Rebecca Wax », « GMG » et « Homeland ».

Contrairement à leurs prédécesseurs (les Nana-benz), les Nanettes se taillent une plus petite part du marché en vendant des tissus chinois moins chers. Bien que les volumes commercialisés soient importants, les marges sont plus faibles en raison du prix de vente final beaucoup plus bas que celui des tissus néerlandais.

Après s’être approvisionnées en tissus imprimés africains en Chine, les Nanettes vendent en gros à des commerçants locaux indépendants ou « vendeurs », ainsi qu’à des commerçants des pays voisins. Ces derniers divisent leurs stocks et les revendent par petites quantités aux vendeurs de rue.

Tous les tissus imprimés africains provenant de Chine arrivent en Afrique de l’Ouest sous forme de produits incomplets, c’est-à-dire sous forme de rouleaux de tissus de six ou douze mètres. Les tailleurs et couturières locaux confectionnent ensuite des vêtements selon les goûts des consommateurs. Certains créateurs de mode ont également ouvert des boutiques où ils vendent des vêtements prêt-à-porter confectionnés à partir de rouleaux de tissus imprimés africains et adaptés au goût local. Ainsi, même si le monopole des Nana-Benz s’est affrité, une partie de la valeur ajoutée est captée au niveau local.

Depuis la pandémie de COVID-19, les acteurs chinois se sont davantage impliqués dans les activités commerciales, et pas seulement dans la fabrication. Cette évolution pourrait marginaliser des acteurs locaux, déjà exclus de la fabrication, du commerce et de la distribution, qui constituent les maillons de la chaîne de valeur. Le maintien de leur rôle, qui consiste à adapter les produits à la culture et aux tendances locales et à relier l’économie formelle et informelle, est essentiel non seulement pour les commerçants togolais, mais aussi pour l’économie dans son ensemble.

The Conversation

Rory Horner bénéficie d’une bourse de la British Academy Mid-Career Fellowship. Il est également chercheur associé au département de géographie, gestion environnementale et études énergétiques de l’université de Johannesburg.

Fidele B. Ebia does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Nana-Benz du Togo : comment les importations chinoises de tissus africains ont nui aux célèbres commerçantes – https://theconversation.com/nana-benz-du-togo-comment-les-importations-chinoises-de-tissus-africains-ont-nui-aux-celebres-commercantes-261813

Faut-il jeter l’eau de la bouilloire entre chaque usage ? Voici ce que dit la science

Source: The Conversation – in French – By Faisal Hai, Professor and Head of School of Civil, Mining, Environmental and Architectural Engineering, University of Wollongong

La bouilloire est un appareil ménager indispensable dans de nombreux foyers. Comment ferait-on sans elle pour nos boissons chaudes ?

Mais peut-on réutiliser l’eau restée dans la bouilloire après la précédente utilisation ?

Bien que l’eau portée à ébullition soit désinfectée, vous avez peut-être entendu dire que faire bouillir l’eau plusieurs fois rendrait l’eau nocive et qu’il fallait donc vider la bouilloire à chaque nouvelle utilisation.

Ces affirmations s’appuient souvent sur l’idée que l’eau réchauffée entraînerait l’accumulation de substances prétendument dangereuses, notamment des métaux tels que l’arsenic ou des sels tels que les nitrates et le fluorure.

Ce n’est pas vrai. Pour comprendre pourquoi, examinons la composition de l’eau du robinet et ce qui se passe réellement lorsque nous la faisons bouillir.

Que contient l’eau du robinet ?

Prenons l’exemple de l’eau du robinet fournie par Sydney Water, le plus grand service public d’approvisionnement en eau d’Australie, qui alimente Sydney, les Blue Mountains et la région d’Illawarra.

D’après les données accessibles au public pour le trimestre janvier-mars 2025 pour la région d’Illawarra, voici les résultats moyens de la qualité de l’eau :

  • Le pH était légèrement alcalin.

  • La teneur en solides dissous totaux était suffisamment faible pour éviter l’entartrage des canalisations et des appareils électroménagers.

  • La teneur en fluorure était appropriée pour améliorer la santé dentaire.

  • Il s’agissait d’une eau « douce » avec une dureté totale inférieure à 40 mg de carbonate de calcium par litre.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


L’eau contenait des traces de métaux tels que le fer et le plomb, des niveaux de magnésium suffisamment faibles pour ne pas être perceptibles au goût, et des niveaux de sodium nettement inférieurs à ceux des boissons gazeuses courantes.

Ces paramètres, ainsi que tous les autres paramètres de qualité surveillés, étaient bien inférieurs aux directives australiennes sur l’eau potable pendant cette période.

Même si vous utilisiez cette eau pour faire du thé, la faire bouillir à nouveau ne poserait aucun problème pour la santé. Voici pourquoi.




À lire aussi :
Voici comment éliminer certains polluants éternels de votre eau potable à domicile


Il est difficile de concentrer des niveaux aussi faibles de produits chimiques

Pour concentrer des substances dans l’eau, il faudrait évaporer une partie du liquide tout en conservant les produits chimiques. L’eau s’évapore à n’importe quelle température, mais la majorité de l’évaporation se produit au point d’ébullition, lorsque l’eau se transforme en vapeur.

Pendant l’ébullition, certains composés organiques volatils peuvent s’échapper dans l’air, mais la quantité de composés inorganiques (tels que les métaux et les sels) reste inchangée.

Même si porter l’eau à ébullition peut légèrement augmenter la concentration de certains composés inorganiques, les preuves montrent que ce n’est pas le cas dans des proportions suffisantes pour être dangereux.

Supposons que vous fassiez bouillir un litre d’eau du robinet dans une bouilloire le matin et que votre eau du robinet ait une teneur en fluorure de 1 mg par litre, ce qui est conforme aux directives australiennes.

Vous préparez une tasse de thé avec 200 ml d’eau bouillie. Vous préparez ensuite une autre tasse de thé dans l’après-midi en faisant bouillir à nouveau l’eau restante.

Dans les deux cas, si le chauffage a été arrêté peu après le début de l’ébullition, la perte d’eau par évaporation serait faible et la teneur en fluorure dans chaque tasse de thé serait similaire.

Mais supposons que lorsque vous préparez la deuxième tasse, vous laissez l’eau bouillir jusqu’à ce que 100 ml de l’eau contenue dans la bouilloire se soient évaporés. Même dans ce cas, la quantité de fluorure que vous consommeriez avec la deuxième tasse (0,23 mg) ne serait pas significativement plus élevée que celle que vous avez consommée avec la première tasse de thé (0,20 mg).

Il en va de même pour tous les autres minéraux ou substances organiques que l’eau du robinet pourrait contenir. Prenons l’exemple du plomb : l’eau fournie dans la région d’Illawarra, comme mentionné ci-dessus, avait une concentration en plomb inférieure à 0,0001 mg par litre. Pour atteindre une concentration en plomb dangereuse (0,01 mg par litre, selon les directives australiennes) dans une tasse d’eau, il faudrait faire bouillir environ 20 litres d’eau du robinet pour obtenir cette tasse de 200 ml.

Dans la pratique, cela est peu probable, car la plupart des bouilloires électriques sont conçues pour bouillir brièvement avant de s’éteindre automatiquement. Tant que votre eau est conforme aux normes de potabilité, vous ne pouvez pas vraiment la concentrer à des niveaux nocifs dans votre bouilloire.

Mais qu’en est-il du goût ?

Le fait que l’eau réchauffée affecte ou non le goût de vos boissons dépend entièrement des spécificités de votre approvisionnement en eau local et de vos préférences personnelles.

La légère modification de la concentration en minéraux, ou la perte d’oxygène dissous dans l’eau pendant l’ébullition peuvent affecter le goût de l’eau pour certaines personnes, bien qu’il existe de nombreux autres facteurs qui contribuent au goût de l’eau du robinet.

En conclusion, tant que l’eau contenue dans votre bouilloire était initialement conforme aux directives relatives à la potabilité de l’eau, elle restera potable même après avoir été bouillie à plusieurs reprises.

La Conversation Canada

Faisal Hai ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Faut-il jeter l’eau de la bouilloire entre chaque usage ? Voici ce que dit la science – https://theconversation.com/faut-il-jeter-leau-de-la-bouilloire-entre-chaque-usage-voici-ce-que-dit-la-science-261839

La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance

Source: The Conversation – in French – By Raphael Seguin, Doctorant en écologie marine, en thèse avec l’Université de Montpellier et BLOOM, Université de Montpellier

Les aires marines protégées sont-elles vraiment efficaces pour protéger la vie marine et la pêche artisanale ? Alors que, à la suite de l’Unoc-3, des États comme la France ou la Grèce annoncent la création de nouvelles aires, une étude, parue ce 24 juillet dans la revue Science, montre que la majorité de ces zones reste exposée à la pêche industrielle, dont une large part échappe à toute surveillance publique. Une grande partie des aires marines ne respecte pas les recommandations scientifiques et n’offre que peu, voire aucune protection pour la vie marine.


La santé de l’océan est en péril, et par extension, la nôtre aussi. L’océan régule le climat et les régimes de pluie, il nourrit plus de trois milliards d’êtres humains et il soutient nos traditions culturelles et nos économies.

Historiquement, c’est la pêche industrielle qui est la première source de destruction de la vie marine : plus d’un tiers des populations de poissons sont surexploitées, un chiffre probablement sous-estimé, et les populations de grands poissons ont diminué de 90 à 99 % selon les régions.

À cela s’ajoute aujourd’hui le réchauffement climatique, qui impacte fortement la plupart des écosystèmes marins, ainsi que de nouvelles pressions encore mal connues, liées au développement des énergies renouvelables en mer, de l’aquaculture et de l’exploitation minière.

Les aires marines protégées, un outil efficace pour protéger l’océan et l’humain

Face à ces menaces, nous disposons d’un outil éprouvé pour protéger et reconstituer la vie marine : les aires marines protégées (AMP). Le principe est simple : nous exploitons trop l’océan, nous devons donc définir certaines zones où réguler, voire interdire, les activités impactantes pour permettre à la vie marine de se régénérer.

Les AMP ambitionnent une triple efficacité écologique, sociale et climatique. Elles permettent le rétablissement des écosystèmes marins et des populations de poissons qui peuvent s’y reproduire. Certaines autorisent uniquement la pêche artisanale, ce qui crée des zones de non-concurrence protégeant des méthodes plus respectueuses de l’environnement et créatrices d’emplois. Elles permettent aussi des activités de loisirs, comme la plongée sous-marine. Enfin, elles protègent des milieux qui stockent du CO2 et contribuent ainsi à la régulation du climat.

Trois photos : en haut à gauche, un banc de poissons ; en bas à gauche, un herbier marin ; à droite, trois hommes sur une plage tire une barque à l’eau
Les aires marines protégées permettent le rétablissement des populations de poissons, protègent des habitats puits de carbone comme les herbiers marins et peuvent protéger des activités non industrielles comme la pêche artisanale ou la plongée sous-marine.
Jeff Hester, Umeed Mistry, Hugh Whyte/Ocean Image Bank, Fourni par l’auteur

Dans le cadre de l’accord mondial de Kunming-Montréal signé lors de la COP 15 de la biodiversité, les États se sont engagés à protéger 30 % de l’océan d’ici 2030. Officiellement, plus de 9 % de la surface des océans est aujourd’hui sous protection.

Pour être efficaces, toutes les AMP devraient, selon les recommandations scientifiques, soit interdire la pêche industrielle et exclure toutes les activités humaines, soit en autoriser certaines d’entre elles, comme la pêche artisanale ou la plongée sous-marine, en fonction du niveau de protection. Or, en pratique, une grande partie des AMP ne suivent pas ces recommandations et n’excluent pas les activités industrielles qui sont les plus destructrices pour les écosystèmes marins, ce qui les rend peu, voire pas du tout, efficaces.

Réelle protection ou outil de communication ?

En effet, pour atteindre rapidement les objectifs internationaux de protection et proclamer leur victoire politique, les gouvernements créent souvent de grandes zones protégées sur le papier, mais sans réelle protection effective sur le terrain. Par exemple, la France affirme protéger plus de 33 % de ses eaux, mais seuls 4 % d’entre elles bénéficient de réglementations et d’un niveau de protection réellement efficace, dont seulement 0,1 % dans les eaux métropolitaines.

Lors du Sommet de l’ONU sur l’océan qui s’est tenu à Nice en juin 2025, la France, qui s’oppose par ailleurs à une réglementation européenne visant à interdire le chalutage de fond dans les AMP, a annoncé qu’elle labelliserait 4 % de ses eaux métropolitaines en protection forte et qu’elle y interdirait le chalutage. Le problème, c’est que la quasi-totalité de ces zones se situe dans des zones profondes… où le chalutage de fond est déjà interdit.

La situation est donc critique : dans l’Union européenne, 80 % des aires marines protégées en Europe n’interdisent pas les activités industrielles. Pis, l’intensité de la pêche au chalutage de fond est encore plus élevée dans ces zones qu’en dehors. Dans le monde, la plupart des AMP autorisent la pêche, et seulement un tiers des grandes AMP sont réellement protégées.

De plus, l’ampleur réelle de la pêche industrielle dans les AMP reste largement méconnue à l’échelle mondiale. Notre étude s’est donc attachée à combler en partie cette lacune.

La réalité de la pêche industrielle dans les aires protégées

Historiquement, il a toujours été très difficile de savoir où et quand vont pêcher les bateaux. Cela rendait le suivi de la pêche industrielle et de ses impacts très difficile pour les scientifiques. Il y a quelques années, l’ONG Global Fishing Watch a publié un jeu de données basé sur le système d’identification automatique (AIS), un système initialement conçu pour des raisons de sécurité, qui permet de connaître de manière publique et transparente la position des grands navires de pêche dans le monde. Dans l’Union européenne, ce système est obligatoire pour tous les navires de plus de 15 mètres.

Le problème, c’est que la plupart des navires de pêche n’émettent pas tout le temps leur position via le système AIS. Les raisons sont diverses : ils n’y sont pas forcément contraints, le navire peut se trouver dans une zone où la réception satellite est médiocre, et certains l’éteignent volontairement pour masquer leur activité.

Pour combler ce manque de connaissance, Global Fishing Watch a combiné ces données AIS avec des images satellites du programme Sentinel-1, sur lesquelles il est possible de détecter des navires. On distingue donc les navires qui sont suivis par AIS, et ceux qui ne le sont pas, mais détectés sur les images satellites.

Carte du monde sur fond noir représentant les bateaux transmettant leur position GPS et ceux qui ne l’émettent pas
Global Fishing Watch a analysé des millions d’images satellite radar afin de déterminer l’emplacement des navires qui restent invisibles aux systèmes de surveillance publics. Sur cette carte de 2022 sont indiqués en jaune les navires qui émettent leur position GPS publiquement via le système AIS, et en orange ceux qui ne l’émettent pas mais qui ont été détectés via les images satellites.
Global Fishing Watch, Fourni par l’auteur

Les aires sont efficaces, mais parce qu’elles sont placées là où peu de bateaux vont pêcher au départ

Notre étude s’intéresse à la présence de navires de pêche suivis ou non par AIS dans plus de 3 000 AMP côtières à travers le monde entre 2022 et 2024. Durant cette période, deux tiers des navires de pêche industrielle présents dans les AMP n’étaient pas suivis publiquement par AIS, une proportion équivalente à celle observée dans les zones non protégées. Cette proportion variait d’un pays à l’autre, mais des navires de pêche non suivis étaient également présents dans les aires marines protégées de pays membres de l’UE, où l’émission de la position via l’AIS est pourtant obligatoire.

Entre 2022 et 2024, nous avons détecté des navires de pêche industrielle dans la moitié des AMP étudiées. Nos résultats, conformes à une autre étude publiée dans le même numéro de la revue Science, montrent que la présence de navires de pêche industrielle était en effet plus faible dans les AMP réellement protégées, les rares qui interdisent toute activité d’extraction. C’est donc une bonne nouvelle : lorsque les réglementations existent et qu’elles sont efficacement gérées, les AMP excluent efficacement la pêche industrielle.

En revanche, nous avons tenté de comprendre les facteurs influençant la présence ou l’absence de navires de pêche industrielle dans les AMP : s’agit-il du niveau de protection réel ou de la localisation de l’AMP, de sa profondeur ou de sa distance par rapport à la côte ? Nos résultats indiquent que l’absence de pêche industrielle dans une AMP est plus liée à son emplacement stratégique – zones très côtières, reculées ou peu productives, donc peu exploitables – qu’à son niveau de protection. Cela révèle une stratégie opportuniste de localisation des AMP, souvent placées dans des zones peu pêchées afin d’atteindre plus facilement les objectifs internationaux.

Exemple de détections de navires de pêche industrielle suivis par AIS (en bleu) ou non suivis (en beige), le long de la côte atlantique française, à partir des données de l’ONG Global Fishing Watch. Les délimitations des aires marines protégées, selon la base de données WDPA, sont en blanc. Les images satellites du programme Sentinel-1 servent de fond de carte.
Raphael Seguin/Université de Montpellier, Fourni par l’auteur

Une pêche méconnue et sous-estimée

Enfin, une question subsistait : une détection de navire de pêche sur une image satellite signifie-t-elle pour autant que le navire est en train de pêcher, ou bien est-il simplement en transit ? Pour y répondre, nous avons comparé le nombre de détections de navires par images satellites dans une AMP à son activité de pêche connue, estimée par Global Fishing Watch à partir des données AIS. Si les deux indicateurs sont corrélés, et que le nombre de détections de navires sur images satellites est relié à un plus grand nombre d’heures de pêche, cela implique qu’il est possible d’estimer la part de l’activité de pêche « invisible » à partir des détections non suivies par AIS.

Nous avons constaté que les deux indicateurs étaient très corrélés, ce qui montre que les détections par satellites constituent un indicateur fiable de l’activité de pêche dans une AMP. Cela révèle que la pêche industrielle dans les AMP est bien plus importante qu’estimée jusqu’à présent, d’au moins un tiers selon nos résultats. Pourtant, la plupart des structures de recherche, de conservation, ONG ou journalistes se fondent sur cette seule source de données publiques et transparentes, qui ne reflète qu’une part limitée de la réalité.

De nombreuses interrogations subsistent encore : la résolution des images satellites nous empêche de voir les navires de moins de 15 mètres et rate une partie importante des navires entre 15 et 30 mètres. Nos résultats sous-estiment donc la pêche industrielle dans les aires protégées et éludent complètement les petits navires de moins de 15 mètres de long, qui peuvent également être considérés comme de la pêche industrielle, notamment s’ils en adoptent les méthodes, comme le chalutage de fond. De plus, les images satellites utilisées couvrent la plupart des eaux côtières, mais pas la majeure partie de la haute mer. Les AMP insulaires ou éloignées des côtes ne sont donc pas incluses dans cette étude.

Vers une véritable protection de l’océan

Nos résultats rejoignent ceux d’autres études sur le sujet et nous amènent à formuler trois recommandations.

D’une part, la quantité d’aires marines protégées ne fait pas leur qualité. Les définitions des AMP doivent suivre les recommandations scientifiques et interdire la pêche industrielle, faute de quoi elles ne devraient pas être considérées comme de véritables AMP. Ensuite, les AMP doivent aussi être situées dans des zones soumises à la pression de la pêche, pas seulement dans des zones peu exploitées. Enfin, la surveillance des pêcheries doit être renforcée et plus transparente, notamment en généralisant l’usage de l’AIS à l’échelle mondiale.

À l’avenir, grâce à l’imagerie satellite optique à haute résolution, nous pourrons également détecter les plus petits navires de pêche, afin d’avoir une vision plus large et plus complète des activités de pêche dans le monde.

Pour l’heure, l’urgence est d’aligner les définitions des aires marines protégées avec les recommandations scientifiques et d’interdire systématiquement les activités industrielles à l’intérieur de ces zones, pour construire une véritable protection de l’océan.

The Conversation

Raphael Seguin est membre de l’association BLOOM.

David Mouillot a reçu des financements de l’ANR.

ref. La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance – https://theconversation.com/la-majorite-de-la-peche-industrielle-dans-les-aires-marines-protegees-echappe-a-toute-surveillance-261595