Coming out, amours et amitiés : le rôle des séries télé

Source: The Conversation – in French – By Mélanie Bourdaa, Professeure en Sciences de l’Information et de la Communication, Université Bordeaux Montaigne

Distribution de la série musicale états-unienne _Glee_ (2009-2015) qui a réalisé, en 2011, en France, le meilleur score d’audience (5,2 %) pour une série inédite. Keith McDuffee/Wikimedia Commons, CC BY

La variété de personnages représentés dans les séries télévisées s’est beaucoup étoffée, permettant aux adolescents en pleine éducation sentimentale de mieux se projeter dans les intrigues, et d’y trouver un appui pour affronter leurs questionnements voire, dans certains cas, faire leur coming out.


Les séries télévisées constituent des laboratoires des expériences adolescentes en matière de sexualité, d’éducation sentimentale, de consentement, de cyberharcèlement, ou d’échanges entre pairs ou amis, comme le fait ressortir l’enquête menée dans l’ouvrage Teen series. Genre, sexe et séries pour ados (2024).

Présentant des problématiques adolescentes, avec des adolescents comme personnages principaux, ces séries constituent des œuvres culturelles cruciales pour analyser à la fois les représentations des sexualités adolescentes mais également pour comprendre comment les adolescents se saisissent de ces représentations pour en faire un levier de discussions dans leurs communautés.

Des personnages non binaires plus présents dans les intrigues

Les Teen series ont vu leur importance grandir dans le paysage sériel actuel, notamment dans un contexte d’éclatement des audiences sur divers supports de diffusion. Si, durant les années 1990, nombre d’entre elles, Dawson’s Creek (1998-2003) ou Beverly Hills (1990-2000), étaient déjà produites et diffusées, elles contribuaient souvent à véhiculer des personnages stéréotypés et monolithiques : le « sexy quarterback », la « mean girl », la « popular girl » et souvent une « cheerleader » qui sortait avec le « quaterback ».

Dans ces séries, l’hétéronormativité était la sexualité dominante, voire la seule sexualité montrée. Par exemple dans Dawson’s Creek, le personnage de Jack fait son coming out, mais il n’y a aucun développement autour de ce récit ni aucune réflexion sur les conséquences pour le personnage et son entourage.

Aujourd’hui, les Teen series offrent une diversité des représentations et une nuance dans le développement et dans la psychologie des personnages qui permettent d’amener des pluralités de représentations. Par exemple, la série Glee (2009-2015) tordait les représentations genrées et sexuelles. Plus récemment, dans Heartstopper (2022-2025), le quarterback fait son coming out bisexuel déjouant ainsi les représentations classiques de la masculinité hétérosexuelle.

Les personnages non binaires ont des rôles beaucoup plus décisifs dans le développement de l’intrigue et bénéficient d’une visibilité et d’une temporalité à l’écran beaucoup plus importantes. Nous pensons au personnage de Sid, la petite amie d’Elena, dans la série One Day At a Time (2017) sur Netflix qui a reçu un écho positif auprès des fans. Il en va de même pour les personnages transgenres dans Sex Education (2019), Euphoria (2019), Heartstopper, Gossip Girl nouvelle version (2021-2023) ou bien The Chilling Adventure of Sabrina (2018-2020) pour n’en citer que quelques-unes.

Le personnage étant une figure familière, avec lequel les téléspectateurs vont créer une relation émotionnelle, il est essentiel pour les séries de leur proposer des variétés de représentations auxquelles s’identifier. Le personnage accompagne alors les téléspectateurs et leur fournit des modèles de représentations sur lesquelles ils et elles peuvent s’appuyer ou rejeter pour se construire leur propre identité.

L’importance de l’identification aux personnages

Les adolescents regardent ces séries, mais ils ne sont pas passifs. Pour ainsi dire, ils et elles se les approprient. La recherche s’est d’ailleurs beaucoup penchée sur la façon dont ils et elles investissent les thématiques inhérentes aux séries (harcèlement, première fois, homophobie…), mais aussi comment ils et elles s’identifient aux personnages, en parlent ensemble, les critiquent et les mettent à distance.

Les publics adolescents s’emparent des narrations, de récits, d’imaginaires, pour se construire des communautés de pratiques, des réseaux également. Ils mènent des actions culturelles, sociales et politiques sous forme de partage de contenus numériques et de créations (fanfictions, fan arts, edits vidéo, cosplay) notamment. Le personnage et les narrations provoquent des discussions autour des sexualités et des identités genrées. Ce sont aussi des leviers d’engagement concret pour de jeunes fans qui mettent alors à contribution leur identité de fans, mais également leur identité sexuelle au service de la collectivité.

Casting de Pretty Little Liars : Summer School (Chandler Kinney, Zaria Simone, Malia Pyles, and Mallory Bechtel) au ATX TV Festival, en 2024
Distribution de Pretty Little Liars : Summer School (Chandler Kinney, Zaria Simone, Malia Pyles, and Mallory Bechtel) au ATX TV Festival, en 2024.
Chris Roth, via Wikimedia, CC BY-SA

Par exemple, lorsque Emily Fields, dans Pretty Little Liars (2010-2017) fait son coming out et qu’il nous est donné à voir la réaction de ses deux parents, plusieurs fans ont réagi sur les réseaux sociaux ou dans leur communauté en ligne. Sur YouTube, une fan poste ce commentaire en lien avec les scènes spécifiques de coming out :

« C’est tellement ça pour moi. J’ai 13 ans. Il y a un mois, mon père a découvert que j’étais gay et il m’a hurlé dessus pendant des heures me disant que ce n’était pas normal et que ce n’était qu’une phase. Il m’a dit que si je continuais à être comme ça, il allait me jeter de la maison. Ma mère a dit qu’elle était OK avec le fait que je sois gay et qu’elle continuerait à m’aimer quoi qu’il arrive. »

Une autre déclare que ce que vit le personnage va l’aide dans son processus :

« Je suis bisexuelle. Cela signifie que j’aime les hommes et les femmes. Personne ne le sait encore, puisque j’ai 11 ans. Cela paraît simple pour moi, mais en réalité ma famille est homophobe. Je ne pense pas que ce sera facile, mais je vais leur annoncer bientôt. Emily m’en a donné le courage. Merci beaucoup, Shay (nom de l’actrice, ndlr). »

Et cela crée des relations, des identifications. On se confie, on se découvre avec les séries.

Anna a 18 ans. Elle se souvient qu’au lycée elle regardait Heartstopper avec une amie. Au-delà de la série, ce fut surtout l’occasion pour les deux jeunes filles d’évoquer leur homosexualité et de faire leur coming out ensemble.

« On a suivi les héroïnes lesbiennes de la série et c’est comme si elles nous ouvraient la voie une peu ».

Anna poursuit :

« Évidemment, lorsque dans la série on voit des parents exclure leur fille lesbienne, j’ai immédiatement dit à mes parents : “Vous ne feriez pas ça vous ?”, et j’en ai profité pour leur faire aussi mon coming out ».

La série rassure par ses personnages, par sa quotidienneté : elle accompagne.

Des créations de fans

Outre cette expression de soi dans les communautés en ligne, les publics fans et, en particulier, les jeunes publics créent des œuvres « transformatrices » écrites, visuelles ou audiovisuelles à partir de la narration et des personnages.

Ces créations, nombreuses, polymorphes, leur permettent de mettre en avant différents aspects de la série et notamment en ce qui concerne les représentations de la sexualité : développer des histoires autour de couples, en particulier homosexuels, présents dans le récit ou fantasmés par les fans, réparer des erreurs genrées (cela a été vu par exemple dans les fanfictions Twilight (2008-2012) qui replaçaient Bella dans un rôle central) ou de continuer à faire vivre des personnages, éliminés dans la série.

Les jeunes publics s’appuient alors sur le récit officiel, mais également sur leur imagination et leur propre expérience pour produire ces œuvres. Ces créations partagées dans les communautés de fans et dans la sphère publique contribuent à une meilleure visibilité des sexualités adolescentes, en les replaçant dans un écosystème médiatique multiplateforme.

Au total, si on assiste à une transformation de l’« imaginaire du coming out » (de la chose impossible, de l’épreuve traversée de violences, à la non-obligation, presque au non-événement dans certaines séries), c’est le fait aussi de fans qui demandent à ce que l’homosexualité et le drame ne soient pas toujours jumelés dans les scénarios.

La réception par les jeunes, notamment homosexuels, des Teen series, n’est donc pas anodine. Par l’attention que lui apportent les diffuseurs et les scénaristes, elle oriente les visibilités et les récits de jeunes… et de leur entourage !

The Conversation

Mélanie Bourdaa a reçu des financements de la Région Nouvelle Aquitaine pour le projet Sexteen.

Arnaud Alessandrin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Coming out, amours et amitiés : le rôle des séries télé – https://theconversation.com/coming-out-amours-et-amities-le-role-des-series-tele-259826

Comment la modélisation peut aider à mieux gérer la ressource en eau

Source: The Conversation – France (in French) – By André Fourno, Chercheur, IFP Énergies nouvelles

L’aquifère karstique de la source du Lez, dans l’Héraut, assure l’alimentation en eau potable de 74 % de la population des 31 communes de la métropole de Montpellier. Stclementader/Wikimedia commons, CC BY-NC-SA

Alors que les arrêtés de restriction d’usage de l’eau en raison de la sécheresse se multiplient depuis le début du mois de juin 2025, une question se pose : peut-on mieux prévoir l’évolution de ces ressources grâce aux outils numériques ? Les aquifères (roches poreuses souterraines) et la complexité de leurs structures sont difficiles à appréhender pour les chercheurs depuis la surface de la Terre. La modélisation numérique a beaucoup à apporter à leur connaissance, afin de mieux anticiper les épisodes extrêmes liés à l’eau et mieux gérer cette ressource.


Les eaux souterraines, qui représentent 99 % de l’eau douce liquide sur terre et 25 % de l’eau utilisée par l’homme, constituent la plus grande réserve d’eau douce accessible sur la planète et jouent un rôle crucial dans le développement des sociétés humaines et des écosystèmes.

Malheureusement, les activités anthropiques affectent fortement la ressource, que ce soit par une augmentation de la demande, par l’imperméabilisation des surfaces ou par différentes contaminations…

À ces menaces s’ajoutent les perturbations des cycles et des processus naturels. Le changement climatique entraîne ainsi des modifications des régimes hydrologiques, telles que la répartition annuelle des pluies et leur intensité, ainsi que l’augmentation de l’évaporation.

Si remédier à cette situation passe par une adaptation de nos comportements, cela exige également une meilleure connaissance des hydrosystèmes, afin de permettre l’évaluation de la ressource et de son évolution.

Sa gestion pérenne, durable et résiliente se heurte à de nombreuses problématiques, aussi rencontrées dans le secteur énergétique (hydrogène, géothermie, stockage de chaleur, stockage de CO₂

Il s’agit donc de considérer les solutions mises en place dans ces secteurs afin de les adapter à la gestion des ressources en eau. Ce savoir-faire vise à obtenir une représentation 3D de la répartition des fluides dans le sous-sol et à prédire leur dynamique, à l’instar des prévisions météorologiques.

Les aquifères : des formations géologiques diverses et mal connues

Comme l’hydrogène, le CO2 ou les hydrocarbures, l’eau souterraine est stockée dans la porosité de la roche et dans ses fractures, au sein de « réservoirs » dans lesquels elle peut circuler librement. On parle alors d’aquifères. Ces entités géologiques sont par nature très hétérogènes : nature des roches, épaisseur et morphologie des couches géologiques, failles et fractures y sont légion et affectent fortement la circulation de l’eau souterraine.

Aquifères sédimentaires profonds ou karstiques.
Office international de l’eau, CC BY-NC-SA

Pour comprendre cette hétérogénéité du sous-sol, les scientifiques n’ont que peu d’informations directes.L’étude de la géologie (cartographie géologique, descriptions des différentes unités lithologiques et des réseaux de failles et fractures, étude de carottes de forage) permet de comprendre l’organisation du sous-sol.

Les géologues utilisent également des informations indirectes, obtenues par les techniques géophysiques, qui permettent de déterminer des propriétés physiques du milieu (porosité, perméabilité, degré de saturation…) et d’identifier les différentes zones aquifères.

Enfin, grâce à des prélèvements d’échantillons d’eau et à l’analyse de leurs compositions (anions et cations majeurs ou traces, carbone organique ou inorganique, isotopes), il est possible de déterminer l’origine de l’eau (eau météorique infiltrée, eau marine, eau profonde crustale…), les terrains drainés, mais également les temps de résidence de l’eau au sein de l’aquifère.

Ces travaux permettent alors d’obtenir une image de la géométrie du sous-sol et de la dynamique du fluide (volume et vitesse d’écoulement de l’eau), constituant une représentation conceptuelle.

Modéliser le comportement des eaux sous terre

Cependant, les données de subsurface collectées ne reflètent qu’une faible fraction de la complexité géologique de ces aquifères. Afin de confronter les concepts précédemment établis au comportement réel des eaux souterraines, des représentations numériques sont donc établies.

Les modèles numériques du sous-sol sont largement utilisés dans plusieurs champs d’application des géosciences : les énergies fossiles, mais aussi le stockage géologique de CO₂, la géothermie et bien sûr… la ressource en eau !

Dans le domaine de l’hydrogéologie, différentes techniques de modélisation peuvent être utilisées, selon le type d’aquifère et son comportement hydrodynamique.

Les aquifères sédimentaires profonds constitués de couches de sédiments variés sont parfois situés à des profondeurs importantes. C’est, par exemple, le cas des formations du miocène, de plus de 350 mètres d’épaisseur, de la région de Carpentras, qui abritent l’aquifère du même nom. Celles-ci vont se caractériser par une forte hétérogénéité : plusieurs compartiments aquifères peuvent ainsi être superposés les uns sur les autres, séparés par des intervalles imperméables (aquitards), formant un « mille-feuille » géologique.

Représenter la complexité des aquifères

La distribution de ces hétérogénéités peut alors être modélisée par des approches géostatistiques, corrélées à des informations de structure (histoire géologique, déformations, failles…). On parle de « modèles distribués », car ils « distribuent » des propriétés géologiques (nature de la roche, porosité, perméabilité…) de manière spatialisée au sein d’une grille numérique 3D représentant la structure de l’aquifère.

Ces modèles distribués se complexifient lorsque l’aquifère est fracturé et karstique. Ces systèmes hydrogéologiques sont formés par la dissolution des roches carbonatées par l’eau météorique qui s’infiltre, le plus souvent le long des failles et fractures. Ces aquifères, qui sont très largement répandus autour de la Méditerranée (aquifères des Corbières, du Lez, ou des monts de Vaucluse…), ont une importante capacité de stockage d’eau.

Ils se caractérisent par des écoulements souterrains avec deux voire trois vitesses d’écoulement, chacune associée à un milieu particulier : lente dans la roche, rapide au sein des fractures, très rapide dans les drains et conduits karstiques avec des échanges de fluide entre ces différents milieux. Les approches distribuées s’appuient alors sur autant de maillages (représentation numérique d’un milieu) que de milieux contribuant à l’écoulement, afin de modéliser correctement les échanges entre eux.

Anticiper les épisodes extrêmes et alerter sur les risques

Le point fort des approches distribuées est de pouvoir définir, anticiper et visualiser le comportement de l’eau souterraine (comme on le ferait pour un front nuageux en météorologie), mais également de positionner des capteurs permanents (comme cela a été abordé dans le projet SENSE) pour alerter de façon fiable les pouvoirs publics sur l’impact d’un épisode extrême (pluvieux ou sécheresse).

En outre, elles sont le point de passage obligé pour profiter des derniers résultats de la recherche sur les « approches big data » et sur les IA les plus avancées. Cependant, les résultats obtenus dépendent fortement des données disponibles. Si les résultats ne donnent pas satisfaction, il est nécessaire de revoir les concepts ou la distribution des propriétés. Loin d’être un échec, cette phase permet toujours d’améliorer notre connaissance de l’hydrosystème.

Des modélisations dites « globales » assez anciennes reliant par des modèles de type boîte noire (déjà parfois des réseaux neuronaux !) les données de pluie mesurées aux niveaux d’eau et débits observés ont également été mises au point à l’échelle de l’aquifère. Elles sont rapides et faciles d’utilisation, toutefois mal adaptées pour visualiser et anticiper l’évolution de la recharge et des volumes d’eau en place dans un contexte de changements globaux, avec notamment la multiplication des évènements extrêmes.

Loin d’être en concurrence, ces approches doivent être considérées comme complémentaires. Une première représentation du comportement actuel de l’aquifère peut être obtenue avec les approches globales, et faciliter l’utilisation et la paramétrisation des approches distribuées.

Des outils d’aide à la décision

Ces dernières années, la prise en considération des problématiques « eau » par les pouvoirs publics a mis en lumière le besoin d’évaluation de cette ressource. Le développement d’approches méthodologiques pluridisciplinaires couplant caractérisation et modélisation est une des clés pour lever ce verrou scientifique.

De tels travaux sont au cœur de nombreux programmes de recherche, comme le programme OneWater – Eau bien commun, le programme européen Water4all ou l’ERC Synergy KARST et de chaires de recherche telles que GeEAUde ou EACC.

Ils apportent une meilleure vision de cette ressource dite invisible, et visent à alerter l’ensemble des acteurs sur les problèmes d’une surexploitation ou d’une mauvaise gestion, à anticiper les impacts des changements globaux tout en fournissant des outils d’aide à la décision utilisables par les scientifiques, par les responsables politiques et par les consommateurs.

The Conversation

André Fourno a reçu des financements de OneWater – Eau Bien Commun.

Benoit Noetinger a reçu des financements de European research council

Youri Hamon a reçu des financements de OneWater – Eau Bien Commun.

ref. Comment la modélisation peut aider à mieux gérer la ressource en eau – https://theconversation.com/comment-la-modelisation-peut-aider-a-mieux-gerer-la-ressource-en-eau-251408

Art, bien-être et cerveau : étudier les effets de visites au musée

Source: The Conversation – in French – By Véronique Agin, Professeur en neurosciences, Université de Caen Normandie

Le rôle de l’art dans la prévention en santé, mais aussi dans l’aide à la prise en charge des malades dans différentes pathologies, est de plus en plus accepté. Mais ses bénéfices doivent encore être validés en respectant les normes des essais cliniques. C’est l’objectif d’un projet de recherche mené au musée des Beaux-Arts de Caen, en Normandie, qui allie neurosciences, psychologie et sciences numériques.


Définir l’art et la santé est une question difficile mais fondamentale avant d’initier une recherche sur les liens entre les arts et la santé.

L’œuvre d’art est valorisée en soi, sa finalité n’est pas d’être utile. Elle incarne la nouveauté, la créativité, l’originalité, le travail de recherche et le savoir-faire de l’artiste. Elle suscite en outre l’imagination et l’expression émotionnelle aussi bien chez l’artiste que chez le spectateur.

La santé, quant à elle, peut être définie comme un état de bien-être mental, physique et social, et non pas seulement comme l’absence de maladie ou d’infirmité, ce qui ancre ainsi fermement la santé dans la société et la culture.

De nombreux articles scientifiques affirment que les arts pourraient améliorer la santé, et donc le bien-être des individus. En 2019, l’Organisation mondiale de la santé (OMS) a répertorié deux grandes catégories d’effets possiblement bénéfiques des arts sur la santé : prévention et promotion de la santé, prise en charge et traitement.

Un projet qui rassemble neurosciences, psychologie et sciences numériques

L’art peut-il améliorer la santé et donc le bien-être ?

Pour contribuer à lever les incertitudes, nous menons un projet pluridisciplinaire « Art, bien-être et cerveau » qui rassemble les neurosciences (laboratoire PhIND : UMR-S Inserm 1237), la psychologie (laboratoire NIHM : UMR-S 1077 ; laboratoire LaPsyDÉ : UMR CNRS 8240) et les sciences numériques (laboratoire GREYC : UMR CNRS 6072).

Cette recherche innovante, menée au musée des Beaux-Arts de Caen, a pour objectif de mesurer, in situ, les effets procurés par la visite d’un musée dédié à la peinture sur le bien-être, chez des adultes en bonne santé âgés de 18 à 65 ans.

Artbienetrecerveau.fr

Il s’agit également d’identifier les mécanismes cérébraux, cognitifs et socioémotionnels associés à ces effets, grâce à des mesures exhaustives et écologiquement adaptées.

Les limites actuelles des publications sur arts et santé

L’analyse critique des études citées dans des revues récentes et des méta-analyses montre des faiblesses méthodologiques (absence de définition de l’art comme agent thérapeutique, manque de randomisation pour l’affectation aux groupes, conditions contrôles inadéquates, effectifs faibles, ou encore analyses statistiques inappropriées) et un manque général de soutien empirique à la notion que l’art influence directement la santé et le bien-être.

En outre, les preuves expérimentales liant l’art à des processus neuronaux ou physiologiques spécifiques restent quasi-inexistantes. Même si des études ont identifié des corrélats neuronaux de l’engagement artistique, elles n’ont pas apporté la preuve que ces mécanismes sont uniques à l’art ou qu’ils ont un impact causal sur les résultats.

Si l’idée que l’art peut améliorer la santé est attrayante et culturellement résonnante, il est aujourd’hui fondamental d’approfondir les recherches sur les arts et la santé en respectant les normes les plus élevées de la méthodologie des essais cliniques.

Prévention santé, prise en charge des malades… des bénéfices potentiels à valider

De nombreux éléments d’études scientifiques sont disponibles et prêtent aux arts de multiples bénéfices pour la santé et le bien-être. Ils sont à considérer avec précaution.

Les arts contribueraient ainsi à la prévention en santé, en réduisant notamment le risque de déclin cognitif et de mortalité prématurée. L’OMS estime qu’ils favoriseraient la prise en charge de maladies non transmissibles telles que le cancer, les maladies respiratoires, le diabète, les maladies cardiovasculaires… Ils pourraient également être un soutien aux soins de fin de vie.




À lire aussi :
Quand l’art-thérapie prend soin des soignants en cancérologie : retour inattendu d’expérience


Les arts aideraient, par ailleurs, les personnes atteintes de troubles neurodéveloppementaux et neurologiques incluant les troubles du spectre autistique (TSA), la paralysie cérébrale, les accidents vasculaires cérébraux (AVC), la sclérose en plaques, les démences…

Les arts favoriseraient en outre le développement de l’enfant en contribuant au lien mère-enfant, à l’acquisition du langage, ou encore à la réussite scolaire.

Il a aussi été rapporté que les arts influenceraient les déterminants sociaux de la santé tels que la cohésion sociale et la réduction des inégalités et iniquités sociales.

Un protocole innovant au sein du musée des Beaux-Arts de Caen

Notre projet « Art, Bien-être et Cerveau » est porté par le groupement d’intérêt scientifique « Blood & Brain @ Caen Normandie » (BB@C), le musée des Beaux-Arts de Caen, le Centre hospitalier universitaire de Caen et le réseau professionnel des arts et des cultures numériques en Normandie (Oblique/s), dans le cadre des festivités du Millénaire de la ville de Caen.

Dans ce projet, nous étudions l’effet de visites au musée chez 200 participants à l’aide d’un protocole expérimental en deux visites au musée des beaux-arts. Les participants seront répartis en trois groupes : deux groupes expérimentaux de 80 participants (l’un avec médiation, l’autre sans médiation) et un groupe contrôle (40 participants).

Lors de la première visite, les groupes expérimentaux effectueront la visite du musée de manière individuelle durant laquelle ils bénéficieront, ou non, d’une médiation culturelle.

Ils seront tous équipés de lunettes d’eye-tracking (pour l’enregistrement des mouvements oculaires), d’un bandeau NIRS (Near InfraRed Spectroscopy, pour l’enregistrement de l’activité cérébrale) et d’un capteur d’activité électrodermale (pour l’analyse des réponses cardiaques et électrodermales, qui correspondent aux variations électriques de la peau liées au fonctionnement des glandes sudoripares).




À lire aussi :
Les enfants voient l’art différemment : ce que nous apprennent les dernières recherches d’« eye-tracking »


Pour la seconde visite, les participants effectueront la visite du musée en binôme, avec ou sans médiation.

Avant et après la visite, ils répondront à différents questionnaires (émotionnel, bien-être et stress) et réaliseront des tâches cognitives mesurant les fonctions exécutives, l’attention visuelle, la mémoire épisodique, l’empathie et la créativité.

Le groupe contrôle effectuera deux visites au musée, comme les groupes expérimentaux, mais sans équipement ni médiation. Ces participants répondront uniquement aux questionnaires et aux tests cognitifs.

Questionnaires, tests cognitifs et enregistrements de l’activité cérébrale

Les questionnaires et les tests cognitifs permettront de déterminer si la découverte des œuvres, ainsi que la médiation proposée, entraînent une augmentation du bien-être et des capacités cognitives.

Afin de recueillir des mesures physiologiques de la réponse émotionnelle, des enregistrements des réponses électrodermales et cardiaques lors de l’exposition aux tableaux seront réalisés à l’aide d’un biocapteur porté au poignet par les participants.

Nous formulons l’hypothèse que les participants présenteront de meilleures capacités exécutives après la visite, avec un gain plus marqué chez les volontaires dans un état émotionnel positif. Nous postulons également que les capacités de traitements visuospatiaux des participants bénéficieront de la médiation du professionnel.

La NIRS, une technique d’imagerie optique non invasive, sera utilisée pour enregistrer l’activité du cortex préfrontal lors de l’analyse de l’œuvre picturale. Elle renseignera sur l’engagement émotionnel et la synchronisation cérébrale entre les participants.

Nous nous attendons, entre autres, à ce que la variation des réponses émotionnelles à toutes les mesures effectuées (questionnaires, capteur d’activité électrodermale) soit en lien avec des variations de l’activation du circuit fronto-limbique. Enfin, les mesures oculométriques (eye-tracking) permettront d’analyser les liens entre la médiation et les stratégies d’exploration visuelle des participants.

Cette recherche, combinée à d’autres, pourrait avoir différentes implications : favoriser la synergie entre politiques culturelles et de santé ; concevoir des expériences muséales au plus près du fonctionnement humain ; ouvrir sur de nouvelles perspectives comme le rôle de l’exposition à l’art dans le maintien en bonne santé, avec la possibilité à plus long terme d’envisager des recherches sur d’autres arts ; ouvrir à d’autres études du même type associant binômes patients-aidants, jeunes-seniors, etc.

The Conversation

Le projet « Art, bien-être, cerveau, une rencontre essentielle ou l’ABC d’une rencontre » est financé par le GIP Millénaire de Caen (à l’occasion du millénaire de la ville de Caen, un Groupement d’intérêt public (GIP) Millénaire a été constitué à l’échelle du territoire avec la volonté d’associer à ce projet la Communauté urbaine Caen la mer, mais aussi le département du Calvados, la région Normandie, l’université Caen Normandie et la Chambre de commerce de l’industrie).

ref. Art, bien-être et cerveau : étudier les effets de visites au musée – https://theconversation.com/art-bien-etre-et-cerveau-etudier-les-effets-de-visites-au-musee-259710

Avec Machiavel, penser la liberté politique dans un monde en guerre

Source: The Conversation – France in French (3) – By Jérôme Roudier, Professeur de philosophie politique, Institut catholique de Lille (ICL)

_Portrait posthume de Nicolas Machiavel_ (1500), par le peintre florentin Santi di Tito (1536-1603), huile sur toile, Palazzo Vecchio, Florence (Toscane).

Notre démocratie est en crise, comment la réinventer ? Que nous enseignent ceux qui, au cours des âges, furent ses concepteurs ? Troisième volet de notre série consacrée aux philosophes et à la démocratie avec Nicolas Machiavel (1469-1527). Pour le Florentin, la conflictualité est un horizon politique indépassable : le « peuple » doit être armé pour ne pas subir la tyrannie des « Grands » et les républiques doivent être puissantes pour ne pas subir l’impérialisme des États voisins.


Machiavel est un penseur qui fait de la survie et de la fondation des États un enjeu fondamental. Pour celui qui exerça les fonctions de haut fonctionnaire de la République florentine, la question du régime politique est donc subordonnée à celle de la survie dans un contexte toujours marqué par l’horizon de la guerre.

Le meilleur régime est forcément celui qui assure à la fois la liberté et la puissance et qui permet de fonder l’État dans la durée. La science politique qu’il inaugure ainsi n’est plus une réflexion théorique, mais bien un programme politique articulant l’idéal au pragmatisme.

Un républicanisme originel et fondateur

Machiavel n’est pas à proprement parler un penseur de la démocratie. C’est un républicain convaincu. Les républicains de son époque entendent élargir la base du gouvernement et intégrer cette classe moyenne dans une vie politique qui, traditionnellement, est réservée aux aristocrates. Le choix, par Machiavel et par ses contemporains voire par la tradition florentine de parler de « République », indique un régime où, comme sous Rome, tout le monde n’est pas forcément citoyen.

Pour les républicains, jusqu’au milieu du XIXe siècle, l’élargissement voire l’universalisation de la citoyenneté constituera une question essentielle. Étant donné que la classe moyenne augmente peu à peu dans le temps pour atteindre une proportion très importante, voire majoritaire, de la population européenne, le républicanisme, dans ces conditions, s’articule avec une citoyenneté universellement attribuée aux membres de la société et peut alors se proposer comme le fondement théorique des démocraties modernes puis contemporaines.

L’horizon de la puissance

Du point de vue intérieur, Machiavel estime que la division sociale est inévitable et que le rôle d’un système légal consiste à la laisser s’exprimer tout en l’arrêtant dans ses manifestations les plus extrêmes. Comme il le souligne, les Grands veulent naturellement dominer, il faut donc les arrêter pour qu’ils ne tyrannisent pas. Le « peuple » (entendre les « classes moyennes ») veut seulement ne pas être dominé, par conséquent, il faut lui donner les armes qui lui permettront de constituer un contre-pouvoir envers la tyrannie potentielle des Grands.

Le monde de Machiavel est belliciste, la puissance est à la fois le gage de la survie et l’outil pour conquérir. Si le peuple peut se contenter de n’être pas asservi, une société, dans un monde instable, se doit d’être puissante. La politique se constitue dans l’articulation bien pensée à la fois de ce qu’elle est sur le fond, la recherche d’un vivre-ensemble viable, et de sa situation dans le monde, composée par ses interactions inévitables avec les autres entités politiques.

Pour Machiavel, le monde politique n’est pas chrétien : son fondement, celui de toute société, reste l’appétit de chacun. Si nous étions tous des saints chrétiens, la politique n’existerait tout simplement pas. Or, le désir de dominer, parfaitement naturel et donc inévitable, structure toute collectivité et la divise en trois : ceux qui veulent dominer (les Grands), ceux qui accepteraient cette domination par nécessité de survie (la populace, la plèbe) et ceux qui ne veulent ni l’un ni l’autre (le peuple, la « classe moyenne »). Ce point de départ, le système politique républicain l’assume. Il accepte l’inégalité fondamentale des conditions et des désirs, dans sa tripartition même.

Dès lors, Machiavel place au centre du dispositif à la fois la loi, que chacun doit avant tout respecter, mais aussi les armes. Le Florentin n’imagine pas une seconde que les Grands arrêteront d’eux-mêmes leur soif de domination et de reconnaissance. Il anticipe ainsi les libéraux, en particulier Montesquieu sur ce point, en estimant que seul le pouvoir arrête le pouvoir. Dans la vision machiavélienne et pragmatique des choses, l’arrêt d’une domination qui risquerait d’être tyrannique ne peut se faire par la Loi seule. Il convient que le peuple de citoyens soit armé pour imposer le respect de la Loi aux Grands.

Pour le Florentin, cette dynamique initiale ne débouche pas sur la guerre civile mais sur l’évolution de la soif de domination des Grands qui vont, par la force des choses, tourner leurs désirs vers l’extérieur. Plutôt que tyrans, ils vont avoir un double intérêt à devenir généraux et hommes d’État. Ce point est très visible à travers le plan des Discours sur la première décade de Tite-Live, livre méconnu du grand public mais très lu par les républicains ultérieurs. Pour Machiavel, le système politique républicain, dans ses turbulences et son instabilité fondamentale, offre la possibilité de la puissance à l’extérieur et d’une certaine forme d’impérialisme.

« Si vis pacem… »

Pour Machiavel, toute situation de paix correspond à ce moment qui précède une nouvelle guerre. Par conséquent, il faut préparer la guerre, au mieux pour ne pas avoir à la faire. La vie du Secrétaire se déroula pendant les guerres d’Italie où la guerre était omniprésente et inévitable. De son point de vue, un pacifisme qui pourrait présider à une compétition aux armements pour défendre les démocraties en assumant le risque de guerre est toujours préférable à un désarmement qui ne pourrait qu’augurer d’une invasion à venir.

La question de la paix, pour Machiavel, nous est ainsi restituée comme celle d’une tension très difficile à atteindre et non comme d’un projet idéal rationnel. Ainsi, l’effort kantien pour promouvoir la paix perpétuelle via une extension de l’État de droit à toutes les entités politiques est à l’opposé de la pensée machiavélienne. Selon le Florentin, pour obtenir la paix, il convient qu’une puissance impériale républicaine soit limitée par une autre puissance impériale équivalente. Nous pourrions dire que, dans notre monde contemporain, ce fut le cas en Europe depuis 1945, sous la domination de la puissance impériale américaine face à l’URSS. Dès lors que la première puissance n’est plus, il convient de lui substituer une puissance suffisante pour dissuader toute agression extérieure.

Mourir pour la liberté ?

Machiavel lierait sans doute cette question à une autre, plus essentielle pour lui et qui fonderait sans doute, à ses yeux, l’ensemble du problème démocratique : sommes-nous prêts à mourir pour la liberté, c’est-à-dire pour ce qui la permet, à savoir la patrie et son régime politique ?

Cette question simple et cruciale, pour Machiavel, ne devrait jamais sortir de l’horizon d’une société qui souhaite perdurer. La liberté, pour Machiavel, c’est la puissance : seul un peuple en armes est libre et capable de maintenir sa liberté face aux Grands comme face à l’ambition des voisins, en imposant la crainte.

Nombre de voix se font entendre, aujourd’hui, sur le caractère sacré de la vie. Dans une perspective machiavélienne, qui retrouve les pensées philosophiques antiques préchrétiennes, en particulier stoïcienne, la vie ne saurait être sacrée. Elle n’est pas le don ineffable du Créateur, mais un fait qui nous projette dans un univers collectif au sein duquel nous devons faire des choix et apporter un sens qui n’est pas donné d’avance et qui n’est pas extérieur à ce monde. Il y a ici tout un questionnement à approfondir, un sens à donner au politique dans nos sociétés, à la fois christianisées et désenchantées, pour reprendre le terme de Max Weber.

Machiavel apporte une réponse républicaine sans aucune ambiguïté, impliquant une réponse radicale à la question de savoir si nous voulons vivre à tout prix, y compris sous une tyrannie. Ce premier penseur de la modernité écartait clairement toute perspective chrétienne pour privilégier, d’une manière très singulière à son époque, une « religion civique » sur le modèle romain pré-chrétien. La réflexion que suscite la lecture de Machiavel pour nos démocraties libérales, renvoie à la place de la politique dans nos vies. Pour le Florentin, la vie ne vaut que si elle est politiquement libre.


Jérôme Roudier est l’auteur de Machiavel par lui-même (PUF, 2025).

The Conversation

Jérôme Roudier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Avec Machiavel, penser la liberté politique dans un monde en guerre – https://theconversation.com/avec-machiavel-penser-la-liberte-politique-dans-un-monde-en-guerre-259122

Nana-Benz du Togo : comment les importations chinoises de tissus africains ont nui aux célèbres commerçantes

Source: The Conversation – in French – By Fidele B. Ebia, Postdoctoral fellow, Duke Africa Initiative, Duke University

La fabrication des tissus imprimés africains s’est déplacée vers la Chine au XXIe siècle. Bien qu’ils soient largement consommés dans les pays africains et symbolisent le continent, l’essor du « made in China » a porté un coup dur aux commerçantes africaines qui ont longtemps dominé la vente et la distritbution des ces tissus.

Pendant plusieurs décennies, Vlisco, le groupe textile néerlandais fondé en 1846 et dont les produits étaient fournis à l’Afrique de l’Ouest par des maisons de commerce européennes depuis la fin du XIXe siècle, a dominé la fabrication de ces tissus. Mais au cours des 25 dernières années, des dizaines d’usines chinoises ont commencé à fournir des tissus imprimés africains aux marchés d’Afrique de l’Ouest. Qingdao Phoenix Hitarget Ltd, Sanhe Linqing Textile Group et Waxhaux Ltd sont parmi les plus connues.

Nous avons mené une étude afin de déterminer comment l’essor des tissus fabriqués en Chine a affecté le commerce des tissus imprimés africains. Nous nous sommes concentrés sur le Togo. Bien que ce soit un petit pays avec une population de seulement 9,7 millions d’habitants, la capitale, Lomé, est la plaque tournante du commerce textile en Afrique de l’Ouest.

Nous avons mené plus de 100 entretiens avec des commerçants, des vendeurs de rue, des agents portuaires ou des courtiers, des représentants du gouvernement et des représentants d’entreprises manufacturières afin de comprendre comment leurs activités ont évolué.

Les textiles africains imprimés « Made in China » sont nettement moins chers et plus accessibles à une population plus large que les tissus Vlisco. Nos observations sur le célèbre marché Assigamé de Lomé ont révélé que les textiles africains imprimés chinois coûtent environ 9 000 CFA (16 dollars américains) pour six mètres, soit une tenue complète. Le wax hollandais (50 000 CFA ou 87 dollars américains) coûte plus de cinq fois plus cher.

Les données sont difficiles à obtenir, mais nos estimations suggèrent que 90 % des importations de ces tissus au port de Lomé en 2019 provenaient de Chine.

Un commerçant togolais résume ainsi l’attrait de ces produits :

Qui pourrait résister à un tissu qui ressemble au vrai Vlisco, mais qui coûte beaucoup moins cher ?

Notre étude montre comment l’arrivée des tissus fabriqués en Chine a fait perdre à Vlisco sa position dominante sur le marché. Elle a aussi brisé le monopole qu’avaient les commerçantes togolaises sur le commerce des tissus néerlandais.

Ces commerçantes, surnommés les Nana-Benz en raison des voitures de luxe qu’elles conduisaient, avaient, en dépit de leur petit nombre, un poids économique et politique énorme. Leur influence politique était telle qu’elles étaient les principaux soutiens du premier président du Togo, Sylvanus Olympio, lui-même ancien directeur de la United Africa Company, qui distribuait des tissus néerlandais.

En échange, Olympio et le général Gnassingbé Eyadéma, au pouvoir pendant de longues années, leur accordèrent des avantages politiques, tels que des impôts réduits, afin de soutenir leurs activités commerciales. Dans les années 1970, le commerce des tissus africains imprimés était considéré comme aussi important que l’industrie du phosphate, principal produit d’exportation.

Les Nana-Benz ont depuis été évincées, leur nombre passant de 50 à environ 20. De nouvelles commerçantes togolaises, connues sous le nom de Nanettes ou « petites Nanas », ont pris leur place. Si elles se sont taillé une place dans le commerce du textile avec la Chine, elles ont toutefois un statut économique et politique moins important. À leur tour, elles sont de plus en plus menacées par la concurrence chinoise, notamment dans le domaine du commerce et de la distribution.




Read more:
Wax : les femmes togolaises derrière le succès du tissu


La Chine supplante les Pays-Bas

Depuis l’époque coloniale, les femmes commerçantes africaines ont joué un rôle essentiel dans la vente en gros et la distribution de tissus néerlandais sur les marchés d’Afrique de l’Ouest. À partir des années 1950, lorsque de nombreux pays de la région ont accédé à l’indépendance, le Grand Marché de Lomé – ou Assigamé – est devenu la plaque tournante du commerce des tissus imprimés africains.

Alors que les pays voisins, comme le Ghana, limitaient les importations dans le cadre de leurs efforts pour promouvoir l’industrie locale, les commerçantes togolaises avaient obtenu des conditions très avantageuses : faibles taxes et accès direct au port de Lomé.

Les commerçantes togolaises connaissaient mieux les goûts de la clientèle majoritairement féminine d’Afrique de l’Ouest que les créateurs néerlandais, principalement masculins. Les Nana-Benz ont activement participé au processus de production et de création des textiles imprimés africains. Elles choisissaient les motifs, donnaient des noms aux tissus, et savaient exactement ce qui faisait vendre leurs tissus.

Ce commerce leur a permis d’acquérir une telle richesse qu’elles ont été surnommées les « Nana-Benz » en référence aux voitures qu’elles achetaient pour collecter et transporter leurs marchandises.

L’exclusivité des Nana-Benz sur le commerce et la vente au détail de tissus imprimés africains sur les marchés d’Afrique de l’Ouest a été remise en cause. Alors que Vlisco a réagi à la baisse de ses revenus (plus de 30 % au cours des cinq premières années du XXIe siècle) due à la concurrence chinoise, le rôle des commerçantes togolaises dans la chaîne d’approvisionnement des tissus néerlandais a été réduit.

Le monopole de Nana-Benz a été aussi sur le commerce et la distribution des tissus hollandais. Avec l’arrivée massive des tissus chinois, les ventes de Vlisco ont chuté de plus de 30 % au début du 21e siècle. Cette situation a affaibli le rôle des commerçantes togolaises dans la chaîne d’approvisionnement des tissus néerlandais.

Vlisco a ouvert plusieurs boutiques en Afrique occidentale et centrale, à commencer par Cotonou (2008), Lomé (2008) et Abidjan (2009). Les Nana-Benz qui ont survécu – environ 20 sur les 50 d’origine – sont devenues des revendeuses sous contrat. Elles doivent désormais respecter des règles strictes sur les prix et les ventes.

Si les nouveaux négociantes togolaises, connues sous le nom de Nanettes, sont impliquées dans l’approvisionnement en textiles en provenance de Chine, leur poids économique et politique est moindre. Elles sont environ 60 à exercer cette activité.

Anciennes vendeuses de textiles et d’autres petits articles dans la rue, les Nanettes ont commencé à se rendre en Chine au début des années 2000 pour s’approvisionner en textiles imprimés africains. Elles participent à la commande et au conseil pour la fabrication de textiles imprimés africains en Chine et à leur distribution en Afrique.

Si beaucoup de Nanettes commandent des marques chinoises courantes, certaines possèdent et commercialisent leurs propres marques. Parmi celles-ci figurent des modèles désormais bien connus à Lomé et en Afrique de l’Ouest, tels que « Femme de Caractère », « Binta », « Prestige », « Rebecca Wax », « GMG » et « Homeland ».

Contrairement à leurs prédécesseurs (les Nana-benz), les Nanettes se taillent une plus petite part du marché en vendant des tissus chinois moins chers. Bien que les volumes commercialisés soient importants, les marges sont plus faibles en raison du prix de vente final beaucoup plus bas que celui des tissus néerlandais.

Après s’être approvisionnées en tissus imprimés africains en Chine, les Nanettes vendent en gros à des commerçants locaux indépendants ou « vendeurs », ainsi qu’à des commerçants des pays voisins. Ces derniers divisent leurs stocks et les revendent par petites quantités aux vendeurs de rue.

Tous les tissus imprimés africains provenant de Chine arrivent en Afrique de l’Ouest sous forme de produits incomplets, c’est-à-dire sous forme de rouleaux de tissus de six ou douze mètres. Les tailleurs et couturières locaux confectionnent ensuite des vêtements selon les goûts des consommateurs. Certains créateurs de mode ont également ouvert des boutiques où ils vendent des vêtements prêt-à-porter confectionnés à partir de rouleaux de tissus imprimés africains et adaptés au goût local. Ainsi, même si le monopole des Nana-Benz s’est affrité, une partie de la valeur ajoutée est captée au niveau local.

Depuis la pandémie de COVID-19, les acteurs chinois se sont davantage impliqués dans les activités commerciales, et pas seulement dans la fabrication. Cette évolution pourrait marginaliser des acteurs locaux, déjà exclus de la fabrication, du commerce et de la distribution, qui constituent les maillons de la chaîne de valeur. Le maintien de leur rôle, qui consiste à adapter les produits à la culture et aux tendances locales et à relier l’économie formelle et informelle, est essentiel non seulement pour les commerçants togolais, mais aussi pour l’économie dans son ensemble.

The Conversation

Rory Horner bénéficie d’une bourse de la British Academy Mid-Career Fellowship. Il est également chercheur associé au département de géographie, gestion environnementale et études énergétiques de l’université de Johannesburg.

Fidele B. Ebia does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Nana-Benz du Togo : comment les importations chinoises de tissus africains ont nui aux célèbres commerçantes – https://theconversation.com/nana-benz-du-togo-comment-les-importations-chinoises-de-tissus-africains-ont-nui-aux-celebres-commercantes-261813

Faut-il jeter l’eau de la bouilloire entre chaque usage ? Voici ce que dit la science

Source: The Conversation – in French – By Faisal Hai, Professor and Head of School of Civil, Mining, Environmental and Architectural Engineering, University of Wollongong

La bouilloire est un appareil ménager indispensable dans de nombreux foyers. Comment ferait-on sans elle pour nos boissons chaudes ?

Mais peut-on réutiliser l’eau restée dans la bouilloire après la précédente utilisation ?

Bien que l’eau portée à ébullition soit désinfectée, vous avez peut-être entendu dire que faire bouillir l’eau plusieurs fois rendrait l’eau nocive et qu’il fallait donc vider la bouilloire à chaque nouvelle utilisation.

Ces affirmations s’appuient souvent sur l’idée que l’eau réchauffée entraînerait l’accumulation de substances prétendument dangereuses, notamment des métaux tels que l’arsenic ou des sels tels que les nitrates et le fluorure.

Ce n’est pas vrai. Pour comprendre pourquoi, examinons la composition de l’eau du robinet et ce qui se passe réellement lorsque nous la faisons bouillir.

Que contient l’eau du robinet ?

Prenons l’exemple de l’eau du robinet fournie par Sydney Water, le plus grand service public d’approvisionnement en eau d’Australie, qui alimente Sydney, les Blue Mountains et la région d’Illawarra.

D’après les données accessibles au public pour le trimestre janvier-mars 2025 pour la région d’Illawarra, voici les résultats moyens de la qualité de l’eau :

  • Le pH était légèrement alcalin.

  • La teneur en solides dissous totaux était suffisamment faible pour éviter l’entartrage des canalisations et des appareils électroménagers.

  • La teneur en fluorure était appropriée pour améliorer la santé dentaire.

  • Il s’agissait d’une eau « douce » avec une dureté totale inférieure à 40 mg de carbonate de calcium par litre.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


L’eau contenait des traces de métaux tels que le fer et le plomb, des niveaux de magnésium suffisamment faibles pour ne pas être perceptibles au goût, et des niveaux de sodium nettement inférieurs à ceux des boissons gazeuses courantes.

Ces paramètres, ainsi que tous les autres paramètres de qualité surveillés, étaient bien inférieurs aux directives australiennes sur l’eau potable pendant cette période.

Même si vous utilisiez cette eau pour faire du thé, la faire bouillir à nouveau ne poserait aucun problème pour la santé. Voici pourquoi.




À lire aussi :
Voici comment éliminer certains polluants éternels de votre eau potable à domicile


Il est difficile de concentrer des niveaux aussi faibles de produits chimiques

Pour concentrer des substances dans l’eau, il faudrait évaporer une partie du liquide tout en conservant les produits chimiques. L’eau s’évapore à n’importe quelle température, mais la majorité de l’évaporation se produit au point d’ébullition, lorsque l’eau se transforme en vapeur.

Pendant l’ébullition, certains composés organiques volatils peuvent s’échapper dans l’air, mais la quantité de composés inorganiques (tels que les métaux et les sels) reste inchangée.

Même si porter l’eau à ébullition peut légèrement augmenter la concentration de certains composés inorganiques, les preuves montrent que ce n’est pas le cas dans des proportions suffisantes pour être dangereux.

Supposons que vous fassiez bouillir un litre d’eau du robinet dans une bouilloire le matin et que votre eau du robinet ait une teneur en fluorure de 1 mg par litre, ce qui est conforme aux directives australiennes.

Vous préparez une tasse de thé avec 200 ml d’eau bouillie. Vous préparez ensuite une autre tasse de thé dans l’après-midi en faisant bouillir à nouveau l’eau restante.

Dans les deux cas, si le chauffage a été arrêté peu après le début de l’ébullition, la perte d’eau par évaporation serait faible et la teneur en fluorure dans chaque tasse de thé serait similaire.

Mais supposons que lorsque vous préparez la deuxième tasse, vous laissez l’eau bouillir jusqu’à ce que 100 ml de l’eau contenue dans la bouilloire se soient évaporés. Même dans ce cas, la quantité de fluorure que vous consommeriez avec la deuxième tasse (0,23 mg) ne serait pas significativement plus élevée que celle que vous avez consommée avec la première tasse de thé (0,20 mg).

Il en va de même pour tous les autres minéraux ou substances organiques que l’eau du robinet pourrait contenir. Prenons l’exemple du plomb : l’eau fournie dans la région d’Illawarra, comme mentionné ci-dessus, avait une concentration en plomb inférieure à 0,0001 mg par litre. Pour atteindre une concentration en plomb dangereuse (0,01 mg par litre, selon les directives australiennes) dans une tasse d’eau, il faudrait faire bouillir environ 20 litres d’eau du robinet pour obtenir cette tasse de 200 ml.

Dans la pratique, cela est peu probable, car la plupart des bouilloires électriques sont conçues pour bouillir brièvement avant de s’éteindre automatiquement. Tant que votre eau est conforme aux normes de potabilité, vous ne pouvez pas vraiment la concentrer à des niveaux nocifs dans votre bouilloire.

Mais qu’en est-il du goût ?

Le fait que l’eau réchauffée affecte ou non le goût de vos boissons dépend entièrement des spécificités de votre approvisionnement en eau local et de vos préférences personnelles.

La légère modification de la concentration en minéraux, ou la perte d’oxygène dissous dans l’eau pendant l’ébullition peuvent affecter le goût de l’eau pour certaines personnes, bien qu’il existe de nombreux autres facteurs qui contribuent au goût de l’eau du robinet.

En conclusion, tant que l’eau contenue dans votre bouilloire était initialement conforme aux directives relatives à la potabilité de l’eau, elle restera potable même après avoir été bouillie à plusieurs reprises.

La Conversation Canada

Faisal Hai ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Faut-il jeter l’eau de la bouilloire entre chaque usage ? Voici ce que dit la science – https://theconversation.com/faut-il-jeter-leau-de-la-bouilloire-entre-chaque-usage-voici-ce-que-dit-la-science-261839

La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance

Source: The Conversation – in French – By Raphael Seguin, Doctorant en écologie marine, en thèse avec l’Université de Montpellier et BLOOM, Université de Montpellier

Les aires marines protégées sont-elles vraiment efficaces pour protéger la vie marine et la pêche artisanale ? Alors que, à la suite de l’Unoc-3, des États comme la France ou la Grèce annoncent la création de nouvelles aires, une étude, parue ce 24 juillet dans la revue Science, montre que la majorité de ces zones reste exposée à la pêche industrielle, dont une large part échappe à toute surveillance publique. Une grande partie des aires marines ne respecte pas les recommandations scientifiques et n’offre que peu, voire aucune protection pour la vie marine.


La santé de l’océan est en péril, et par extension, la nôtre aussi. L’océan régule le climat et les régimes de pluie, il nourrit plus de trois milliards d’êtres humains et il soutient nos traditions culturelles et nos économies.

Historiquement, c’est la pêche industrielle qui est la première source de destruction de la vie marine : plus d’un tiers des populations de poissons sont surexploitées, un chiffre probablement sous-estimé, et les populations de grands poissons ont diminué de 90 à 99 % selon les régions.

À cela s’ajoute aujourd’hui le réchauffement climatique, qui impacte fortement la plupart des écosystèmes marins, ainsi que de nouvelles pressions encore mal connues, liées au développement des énergies renouvelables en mer, de l’aquaculture et de l’exploitation minière.

Les aires marines protégées, un outil efficace pour protéger l’océan et l’humain

Face à ces menaces, nous disposons d’un outil éprouvé pour protéger et reconstituer la vie marine : les aires marines protégées (AMP). Le principe est simple : nous exploitons trop l’océan, nous devons donc définir certaines zones où réguler, voire interdire, les activités impactantes pour permettre à la vie marine de se régénérer.

Les AMP ambitionnent une triple efficacité écologique, sociale et climatique. Elles permettent le rétablissement des écosystèmes marins et des populations de poissons qui peuvent s’y reproduire. Certaines autorisent uniquement la pêche artisanale, ce qui crée des zones de non-concurrence protégeant des méthodes plus respectueuses de l’environnement et créatrices d’emplois. Elles permettent aussi des activités de loisirs, comme la plongée sous-marine. Enfin, elles protègent des milieux qui stockent du CO2 et contribuent ainsi à la régulation du climat.

Trois photos : en haut à gauche, un banc de poissons ; en bas à gauche, un herbier marin ; à droite, trois hommes sur une plage tire une barque à l’eau
Les aires marines protégées permettent le rétablissement des populations de poissons, protègent des habitats puits de carbone comme les herbiers marins et peuvent protéger des activités non industrielles comme la pêche artisanale ou la plongée sous-marine.
Jeff Hester, Umeed Mistry, Hugh Whyte/Ocean Image Bank, Fourni par l’auteur

Dans le cadre de l’accord mondial de Kunming-Montréal signé lors de la COP 15 de la biodiversité, les États se sont engagés à protéger 30 % de l’océan d’ici 2030. Officiellement, plus de 9 % de la surface des océans est aujourd’hui sous protection.

Pour être efficaces, toutes les AMP devraient, selon les recommandations scientifiques, soit interdire la pêche industrielle et exclure toutes les activités humaines, soit en autoriser certaines d’entre elles, comme la pêche artisanale ou la plongée sous-marine, en fonction du niveau de protection. Or, en pratique, une grande partie des AMP ne suivent pas ces recommandations et n’excluent pas les activités industrielles qui sont les plus destructrices pour les écosystèmes marins, ce qui les rend peu, voire pas du tout, efficaces.

Réelle protection ou outil de communication ?

En effet, pour atteindre rapidement les objectifs internationaux de protection et proclamer leur victoire politique, les gouvernements créent souvent de grandes zones protégées sur le papier, mais sans réelle protection effective sur le terrain. Par exemple, la France affirme protéger plus de 33 % de ses eaux, mais seuls 4 % d’entre elles bénéficient de réglementations et d’un niveau de protection réellement efficace, dont seulement 0,1 % dans les eaux métropolitaines.

Lors du Sommet de l’ONU sur l’océan qui s’est tenu à Nice en juin 2025, la France, qui s’oppose par ailleurs à une réglementation européenne visant à interdire le chalutage de fond dans les AMP, a annoncé qu’elle labelliserait 4 % de ses eaux métropolitaines en protection forte et qu’elle y interdirait le chalutage. Le problème, c’est que la quasi-totalité de ces zones se situe dans des zones profondes… où le chalutage de fond est déjà interdit.

La situation est donc critique : dans l’Union européenne, 80 % des aires marines protégées en Europe n’interdisent pas les activités industrielles. Pis, l’intensité de la pêche au chalutage de fond est encore plus élevée dans ces zones qu’en dehors. Dans le monde, la plupart des AMP autorisent la pêche, et seulement un tiers des grandes AMP sont réellement protégées.

De plus, l’ampleur réelle de la pêche industrielle dans les AMP reste largement méconnue à l’échelle mondiale. Notre étude s’est donc attachée à combler en partie cette lacune.

La réalité de la pêche industrielle dans les aires protégées

Historiquement, il a toujours été très difficile de savoir où et quand vont pêcher les bateaux. Cela rendait le suivi de la pêche industrielle et de ses impacts très difficile pour les scientifiques. Il y a quelques années, l’ONG Global Fishing Watch a publié un jeu de données basé sur le système d’identification automatique (AIS), un système initialement conçu pour des raisons de sécurité, qui permet de connaître de manière publique et transparente la position des grands navires de pêche dans le monde. Dans l’Union européenne, ce système est obligatoire pour tous les navires de plus de 15 mètres.

Le problème, c’est que la plupart des navires de pêche n’émettent pas tout le temps leur position via le système AIS. Les raisons sont diverses : ils n’y sont pas forcément contraints, le navire peut se trouver dans une zone où la réception satellite est médiocre, et certains l’éteignent volontairement pour masquer leur activité.

Pour combler ce manque de connaissance, Global Fishing Watch a combiné ces données AIS avec des images satellites du programme Sentinel-1, sur lesquelles il est possible de détecter des navires. On distingue donc les navires qui sont suivis par AIS, et ceux qui ne le sont pas, mais détectés sur les images satellites.

Carte du monde sur fond noir représentant les bateaux transmettant leur position GPS et ceux qui ne l’émettent pas
Global Fishing Watch a analysé des millions d’images satellite radar afin de déterminer l’emplacement des navires qui restent invisibles aux systèmes de surveillance publics. Sur cette carte de 2022 sont indiqués en jaune les navires qui émettent leur position GPS publiquement via le système AIS, et en orange ceux qui ne l’émettent pas mais qui ont été détectés via les images satellites.
Global Fishing Watch, Fourni par l’auteur

Les aires sont efficaces, mais parce qu’elles sont placées là où peu de bateaux vont pêcher au départ

Notre étude s’intéresse à la présence de navires de pêche suivis ou non par AIS dans plus de 3 000 AMP côtières à travers le monde entre 2022 et 2024. Durant cette période, deux tiers des navires de pêche industrielle présents dans les AMP n’étaient pas suivis publiquement par AIS, une proportion équivalente à celle observée dans les zones non protégées. Cette proportion variait d’un pays à l’autre, mais des navires de pêche non suivis étaient également présents dans les aires marines protégées de pays membres de l’UE, où l’émission de la position via l’AIS est pourtant obligatoire.

Entre 2022 et 2024, nous avons détecté des navires de pêche industrielle dans la moitié des AMP étudiées. Nos résultats, conformes à une autre étude publiée dans le même numéro de la revue Science, montrent que la présence de navires de pêche industrielle était en effet plus faible dans les AMP réellement protégées, les rares qui interdisent toute activité d’extraction. C’est donc une bonne nouvelle : lorsque les réglementations existent et qu’elles sont efficacement gérées, les AMP excluent efficacement la pêche industrielle.

En revanche, nous avons tenté de comprendre les facteurs influençant la présence ou l’absence de navires de pêche industrielle dans les AMP : s’agit-il du niveau de protection réel ou de la localisation de l’AMP, de sa profondeur ou de sa distance par rapport à la côte ? Nos résultats indiquent que l’absence de pêche industrielle dans une AMP est plus liée à son emplacement stratégique – zones très côtières, reculées ou peu productives, donc peu exploitables – qu’à son niveau de protection. Cela révèle une stratégie opportuniste de localisation des AMP, souvent placées dans des zones peu pêchées afin d’atteindre plus facilement les objectifs internationaux.

Exemple de détections de navires de pêche industrielle suivis par AIS (en bleu) ou non suivis (en beige), le long de la côte atlantique française, à partir des données de l’ONG Global Fishing Watch. Les délimitations des aires marines protégées, selon la base de données WDPA, sont en blanc. Les images satellites du programme Sentinel-1 servent de fond de carte.
Raphael Seguin/Université de Montpellier, Fourni par l’auteur

Une pêche méconnue et sous-estimée

Enfin, une question subsistait : une détection de navire de pêche sur une image satellite signifie-t-elle pour autant que le navire est en train de pêcher, ou bien est-il simplement en transit ? Pour y répondre, nous avons comparé le nombre de détections de navires par images satellites dans une AMP à son activité de pêche connue, estimée par Global Fishing Watch à partir des données AIS. Si les deux indicateurs sont corrélés, et que le nombre de détections de navires sur images satellites est relié à un plus grand nombre d’heures de pêche, cela implique qu’il est possible d’estimer la part de l’activité de pêche « invisible » à partir des détections non suivies par AIS.

Nous avons constaté que les deux indicateurs étaient très corrélés, ce qui montre que les détections par satellites constituent un indicateur fiable de l’activité de pêche dans une AMP. Cela révèle que la pêche industrielle dans les AMP est bien plus importante qu’estimée jusqu’à présent, d’au moins un tiers selon nos résultats. Pourtant, la plupart des structures de recherche, de conservation, ONG ou journalistes se fondent sur cette seule source de données publiques et transparentes, qui ne reflète qu’une part limitée de la réalité.

De nombreuses interrogations subsistent encore : la résolution des images satellites nous empêche de voir les navires de moins de 15 mètres et rate une partie importante des navires entre 15 et 30 mètres. Nos résultats sous-estiment donc la pêche industrielle dans les aires protégées et éludent complètement les petits navires de moins de 15 mètres de long, qui peuvent également être considérés comme de la pêche industrielle, notamment s’ils en adoptent les méthodes, comme le chalutage de fond. De plus, les images satellites utilisées couvrent la plupart des eaux côtières, mais pas la majeure partie de la haute mer. Les AMP insulaires ou éloignées des côtes ne sont donc pas incluses dans cette étude.

Vers une véritable protection de l’océan

Nos résultats rejoignent ceux d’autres études sur le sujet et nous amènent à formuler trois recommandations.

D’une part, la quantité d’aires marines protégées ne fait pas leur qualité. Les définitions des AMP doivent suivre les recommandations scientifiques et interdire la pêche industrielle, faute de quoi elles ne devraient pas être considérées comme de véritables AMP. Ensuite, les AMP doivent aussi être situées dans des zones soumises à la pression de la pêche, pas seulement dans des zones peu exploitées. Enfin, la surveillance des pêcheries doit être renforcée et plus transparente, notamment en généralisant l’usage de l’AIS à l’échelle mondiale.

À l’avenir, grâce à l’imagerie satellite optique à haute résolution, nous pourrons également détecter les plus petits navires de pêche, afin d’avoir une vision plus large et plus complète des activités de pêche dans le monde.

Pour l’heure, l’urgence est d’aligner les définitions des aires marines protégées avec les recommandations scientifiques et d’interdire systématiquement les activités industrielles à l’intérieur de ces zones, pour construire une véritable protection de l’océan.

The Conversation

Raphael Seguin est membre de l’association BLOOM.

David Mouillot a reçu des financements de l’ANR.

ref. La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance – https://theconversation.com/la-majorite-de-la-peche-industrielle-dans-les-aires-marines-protegees-echappe-a-toute-surveillance-261595

Loi Duplomb : un grand bond en arrière environnemental et sanitaire ?

Source: The Conversation – in French – By François Dedieu, Directeur de recherche en sociologie, Inrae

En moins de quinze jours, une pétition demandant l’abrogation de la loi Duplomb a obtenu presque 2 millions de signatures – un record depuis la création de la plateforme de pétitions de l’Assemblée nationale. Les pétitionnaires refusent la réintroduction de pesticides dangereux alors que certains agriculteurs réclament le droit de les utiliser. Ces points de vue sont-ils irréconciliables ? Les recherches en agronomie montrent que protéger l’environnement et la santé, tout en assurant la compétitivité des productions agricoles, est possible.


La contestation de la loi Duplomb adoptée le 8 juillet s’est manifestée par une pétition recueillant plus de 1,8 million de signatures (en date du 24 juillet) – de quoi permettre l’ouverture d’un nouveau débat à l’Assemblée nationale. Les principaux points de contestation portent sur la réintroduction de deux pesticides controversés (l’acétamipride et le flupyradifurone) et sur le grignotage des prérogatives de l’Agence nationale de sécurité sanitaire de l’alimentation (Anses) dans la mise sur le marché des pesticides.

Face à cette mobilisation inédite, le porteur de la loi, le sénateur LR Laurent Duplomb, a déclaré que les centaines de milliers de signatures recueillies « ne lui inspire(nt) pas grand-chose », considérant que sa loi est « diabolisée et instrumentalisée par la gauche.

Un débat sur les pesticides fortement polarisé

Pour les écologistes et la gauche, soutenus par une partie de la communauté scientifique, la dangerosité des pesticides concernés n’est plus à démontrer. Ils sont multirisques pour la biodiversité, en particulier pour les abeilles, et suscitent de sérieux doutes quant à leurs effets neurodéveloppementaux sur la santé humaine selon l’European Food Agency. La ré-autorisation de l’acétamipride, interdite en France en 2023, mais toujours autorisée en Europe, apparaît inacceptable. Elle revient à privilégier les intérêts économiques au détriment de la santé humaine et environnementale.

De l’autre côté, pour les agriculteurs et leurs représentants, en particulier pour les producteurs de betteraves et de noisettes, l’acétamipride constitue le seul moyen efficace pour lutter contre le puceron vert qui transmet la maladie redoutable de la jaunisse. En 2020, celle-ci a provoqué la chute du tiers de la production de betteraves, entraînant une hausse des importations de sucre brésilien et allemand traités à l’acétamipride. Au final pourquoi l’agriculture française, effrayée par sa perte actuelle de compétitivité, devrait-elle payer le prix de son interdiction ?

Protéger la betterave sans pesticides, c’est possible

Ces deux positions clivées apparaissent aujourd’hui irréconciliables. Qu’en dit la science ? Tout d’abord, les preuves sont désormais suffisamment robustes pour établir que les dangers des néonicotinoïdes pour l’homme et l’environnement sont trop préoccupants et trop diffus pour penser les contrôler.

La technique d’enrobage (c’est-à-dire le processus par lequel des poudres et des liquides sont utilisés pour former une enveloppe autour de la graine) ne permet pas de limiter l’impact du pesticide. Outre ses dangers pour les abeilles, l’acétamipride s’insère durablement dans l’environnement. Le produit est soluble dans l’eau et possède une forte mobilité dans les sols, ce qui présente des risques énormes pour la biodiversité démontrés par l’expertise collective Inrae/Ifremer, de 2022.

Mais est-il pour autant possible de laisser les producteurs dans la situation consistant à être écrasés par la concurrence de denrées importées et remplies de substances interdites sur leur sol ? Tout le défi politique consiste ainsi à réunir « biodiversité » et « agriculture ». Or, les travaux d’expertise de l’Inrae montrent que l’agriculture peut s’appuyer sur la biodiversité pour obtenir des performances tout à fait satisfaisantes.

Cette approche avait été choisie par le plan pour la filière betteravière 2020 à 2023 pour faire face à l’interdiction des néonicotinoïdes. Le ministère de l’agriculture avait alors mis en place avec l’Inrae et l’Institut technique de la betterave, un « plan » permettant de trouver des substituts aux néonicotinoïdes.

Une autre manière de protéger les cultures était proposée : il ne s’agissait plus de s’attaquer au puceron qui provoque la jaunisse mais aux foyers propices à son apparition. Les résultats étaient probants : supprimer ces réservoirs permettait d’obtenir des rendements équivalents à ceux obtenus avec les traitements chimiques. Cette solution restait imparfaite puisque les pesticides pouvaient être utilisés en dernier recours (mais dans des quantités bien moindres), mais uniquement lorsque des solutions sans chimie échouaient. Par ailleurs, des solutions n’ont pas encore été trouvées pour toutes les cultures, notamment pour la noisette.

La loi Duplomb, une réponse simpliste et rétrograde

La loi Duplomb s’inscrit théoriquement dans la lignée de ces plans mais prend en réalité le chemin inverse : elle maintient la chimie comme solution prioritaire et ne pense les alternatives qu’en surface, et dans le plus grand flou. Les décrets de dérogations à l’usage des néonicotinoïdes seront, selon la loi, accordés moyennant « la recherche d’un plan d’alternative ». Mais comment le nouveau Comité d’appui à la protection des cultures prévu par le texte et placé sous la tutelle du ministère de l’agriculture pensera-t-il ces alternatives ? Avec quels moyens et quelle temporalité, alors que les décrets d’autorisation sont signés en parallèle au pas de course ?

La loi Duplomb nourrit finalement un puissant effet pervers : en allant au plus simple, elle retarde la recherche d’alternatives aux pesticides.

Pourquoi un tel recul ? Sans doute pour répondre au mouvement des agriculteurs de 2024 qui exprimait un « ras-le-bol » face aux normes environnementales et qui menace sans cesse de reprendre. Mais ces revendications masquent un problème profond que j’ai cherché à identifier dans mes travaux : l’incompatibilité entre normes environnementales et exigences commerciales qui peut conduire les producteurs à enfreindre la loi lorsqu’ils utilisent les pesticides (en dépassant la dose-hectare fixée par le réglementation, par exemple).

Mais la loi Duplomb répond à cette colère de manière doublement simpliste. Elle reprend sans discussion les revendications du mouvement de 2024 – demande de maintien des pesticides sans alternatives, souplesse dans l’autorisation des produits phytopharmaceutiques, ou assouplissement des formalités encadrant la taille des élevages et l’accès à l’eau (mégabassines).

En revanche, la loi ne traite nullement des réelles contraintes administratives qui pèsent sur les producteurs (déclarations, formalités en tous genres). Surtout, elle ne s’attaque pas à la racine des distorsions de concurrences qui se jouent au niveau supranational.

La réduction de la distorsion devrait passer par une possibilité d’harmoniser la décision d’homologation au niveau européen et non plus uniquement à l’échelle nationale. L’instauration de « clauses miroirs » dans les accords commerciaux internationaux permettrait d’interdire l’importation de denrées alimentaires produites avec des substances phytosanitaires interdites en Europe.

Menaces sur l’Anses

La loi Duplomb n’est-elle qu’une énième loi conçue pour envoyer des signaux symboliques aux agriculteurs ou est-elle l’outil d’une politique régressive plus profonde sur le terrain environnemental ?

Une disposition de la loi justifie cette inquiétude. Elle concerne les prérogatives de l’Agence nationale de sécurité sanitaire de l’alimentation (Anses) sur la commercialisation des pesticides.

Pour rappel, avant 2014, le ministère de l’agriculture délivrait les autorisations des pesticides après une évaluation scientifique réalisée par l’agence. À cette date, Stéphane Le Foll, alors ministre de l’agriculture, avait transféré cette compétence à l’Anses afin d’offrir de meilleures garanties contre la collusion d’intérêt pouvant exister entre le ministère de l’agriculture et les intérêts des filières agricoles.

Les concepteurs de la loi Duplomb ont envisagé plusieurs pistes pour réduire le pouvoir de l’Anses et pour restaurer les prérogatives du ministère de l’agriculture. Finalement, devant la menace d’une démission du directeur de l’agence, une solution de compromis a été trouvée : l’Anses devra désormais rendre davantage de comptes à ses ministères de tutelle en cas de rejet d’un pesticide.

Le texte prévoit aussi une liste des « usages prioritaires » de ravageurs menaçant le potentiel de production national. L’Anses devra donc considérer les priorités du ministère de l’agriculture lorsqu’elle établira son calendrier d’examen des autorisations de mise sur le marché. En somme, l’Anses conserve ses prérogatives mais avance désormais plus sous contrôle, quand il ne devrait être question que de renforcer ses compétences.

Ces dernières années, le ministère de l’agriculture a multiplié les tentatives de mise à mal de son expertise. En 2023, le ministère demandait expressément à l’Anses de revenir sur l’interdiction des principaux usages de l’herbicide S-métolachlore. Tout imparfaite que soit l’évaluation des risques, l’agence réalise un travail considérable de consolidation des savoirs scientifiques sur les dangers des pesticides, notamment à l’aide d’un réseau de phytopharmacovigilance unique en Europe.

Ainsi, la loi Duplomb semble bel et bien signer la volonté de revenir à l’époque où le ministère cogérait avec les syndicats toute la politique agricole du pays, comme il y a soixante ans avec le Conseil de l’agriculture française (CAF). Ceci au prix de la suspension des acquis scientifiques en santé-environnement s’ils contreviennent à court terme à la compétitivité agricole ? Les futures décisions politiques permettront de répondre avec plus de certitude à cette question.

The Conversation

Membre du comité de Phytopharmacovigilance de l’ANSES (2015-2024)

ref. Loi Duplomb : un grand bond en arrière environnemental et sanitaire ? – https://theconversation.com/loi-duplomb-un-grand-bond-en-arriere-environnemental-et-sanitaire-261733

Le pouvoir des petits changements : ce que nous enseigne Atomic Habits

Source: The Conversation – in French – By Gerardo Meneses, Profesor Primaria, Profesor asociado URV. Profesor Universidad Internacional de la Rioja. Profesor colaborador UOC, Universitat Rovira i Virgili

Dave Brailsford, directeur de l’équipe cycliste britannique, a mis en place dès 2003 une série de petits changements qui ont permis à son équipe de briller. (Raffaele Conti 88/Shutterstock)

Cet article fait partie de notre série Les livres qui comptent, où des experts de différents domaines décortiquent les livres de vulgarisation scientifique les plus discutés.


Le coussin de selle d’un cycliste peut-il vraiment faire la différence sur ses performances ? Suffisamment pour remporter un Tour de France ou améliorer nettement ses résultats ?

La réponse est oui, mais à condition de l’intégrer à de nombreux autres petits ajustements : revoir la conception des sièges, appliquer de l’alcool sur les roues pour augmenter la traction, porter des collants chauffants pour maintenir une température musculaire optimale, utiliser de capteurs pour surveiller la réponse de chaque cycliste à l’entraînement, tester des tissus plus légers et plus aérodynamiques… jusqu’à repeindre en blanc l’intérieur du camion de transport des vélos pour détecter pour repérer la moindre particule de de poussière.

C’est ce que Dave Brailsford, directeur de l’équipe cycliste britannique, a mis en place en 2003. Résultat : une équipe qui, en 100 ans, n’avait jamais brillé aux Jeux olympiques ni sur le Tour de France, a remporté entre 2007 et 2012 pas moins de 178 médailles aux championnats du monde, 66 médailles olympiques et paralympiques et cinq victoires au Tour de France.

L’idée derrière cette transformation? Améliorer chaque élément de 1 % au quotidien. Et c’est précisément ce principe qu’explore James Clear dans son livre, Atomic Habits (Un rien peut tout changer), devenu best-seller de la liste du New York Times avec plus de 15 millions d’exemplaires écoulés.

Devenir meilleur, un petit geste à la fois

Pour James Clear, la clé pour atteindre ses objectifs réside dans la formation d’habitudes simples, basiques – « atomiques » – et régulières. Accumulés, ces petits gestes finissent par produire des changements puissants dans nos carrières, nos relations et notre qualité de vie.

Son livre se veut un mode d’emploi pour devenir la personne que l’on souhaite être. Son approche s’appuie sur un modèle cognitivo-comportemental et repose sur quatre principes :

  1. Rendre l’habitude évidente

  2. La rendre attrayante

  3. La garder simple

  4. La rendre satisfaisante

Une fois que nous avons déterminé qui on veut devenir, il faut traduire cet objectif en une action réalisable en deux minutes et choisir un moment et un lieu précis pour l’« ancrer » dans notre quotidien. Il est également essentiel d’adapter son environnement et de limiter les obstacles. En se concentrant sur une action claire et en s’entourant d’un soutien social et de récompenses.

La règle des deux minutes

L’idée est de commencer par de petits objectifs, réduits à leur version la plus simple : une action qui prend deux minutes ou moins.

Par exemple :

  • Lire avant de dormir devient lire une page

  • Faire 30 minutes de yoga devient déplier son tapis

  • Écrire un livre revient à écrire une phrase

  • Courir 10 kilomètres commence par enfiler ses chaussures

Loin des clichés de la pensée positive

Atomic Habits ne se présente pas comme un simple ouvrage de développement personnel, mais comme un plan structuré pour améliorer ses habitudes progressivement. Clear ne nous dit pas que « rien n’est impossible » mais plutôt que « certaines choses finissent par être impossibles. » Autrement dit, la pensée positive seule ne fait pas disparaître les problèmes.

C’est une position qui est également défendue par le psychologue Buenanventura del Charco Olea dans Hasta los cojones del pensamiento positivo, où il décrit le « positivisme forcé et simple » comme un nouveau « dogme » qui finit par devenir oppressant.

Objectif : ce que nous voulons être, pas ce que nous voulons obtenir

James Clear soutient que la meilleure manière de changer nos habitudes n’est pas de se concentrer sur ce que nous voulons accomplir, mais plutôt sur la personne que nous voulons devenir. Comme le dit le personnage du « Commendatore » (Enzo Ferrari, fondateur de l’écurie Ferrari) dans le film Ferrari à propos de la rivalité entre Jaguar et Ferrari : « Jaguar gagne des courses pour vendre des voitures. Nous vendons des voitures pour gagner des courses. »

Pour construire ces habitudes, il est important de donner du sens à ce que l’on fait. Par exemple, deux personnes qui souhaitent arrêter de fumer peuvent réagir de deux manières différentes à l’offre d’une cigarette :

  1. « Non merci. J’essaie d’arrêter de fumer. »

  2. « Non merci. Je ne fume pas. »

Dans le second cas, la personne a déjà intégré ce changement à son identité : elle ne se considère plus comme un fumeur. De la même façon, il ne s’agit pas seulement de lire un livre, mais de devenir lecteur; pas seulement de courir un marathon, mais de devenir un coureur ; pas seulement d’apprendre à jouer d’un instrument, mais de devenir musicien. Nos comportements et nos habitudes construisent notre identité.

Atomic Habits ne propose rien de nouveau. Auparavant, Aristote ou Saint Thomas d’Aquin enseignaient déjà comment la répétition des bonnes actions est essentielle pour atteindre la vertu.

Croissance du personnel dans le domaine de l’éducation

Dans le milieu éducatif, la notion d’habitude est essentielle au développement personnel. Promouvoir certaines habitudes intellectuelles et morales peut rendre notre vie plus épanouissante. Les habitudes sont une extension de notre nature première ; elles rendent notre existence plus « vivable » et nous donnent accès à une plus grande liberté.

À l’école, la répétition d’actions simples – commencer une activité à temps, la mener à bien, aider un camarade de classe – peut être essentielle au développement des valeurs.

Dans deux chapitres téléchargeables, Jame Clear propose des applications concrètes de sa méthode dans le cadre de la parentalité et l’éducation des enfants et dans le monde des affaires.

Comme le chantait l’auteur-compositeur-interprète catalan Joan Manuel Serrat lors de son concert d’adieu : « Aujourd’hui peut être un grand jour… cela dépend en partie de vous ».

La Conversation Canada

Gerardo Meneses ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le pouvoir des petits changements : ce que nous enseigne Atomic Habits – https://theconversation.com/le-pouvoir-des-petits-changements-ce-que-nous-enseigne-atomic-habits-254671

La misogynie, leitmotiv des manifestes extrémistes

Source: The Conversation – in French – By Karmvir K. Padda, Researcher and PhD Candidate, Sociology, University of Waterloo

Fin juin, un adolescent a été arrêté en France, soupçonné d’avoir projeté d’attaquer des femmes au couteau. Au Canada, où l’on observe une augmentation des actes violents motivés par la haine de genre, une chercheuse de l’Université de Waterloo – où, il y a deux ans, un homme a poignardé des participants à un cours d’études sur le genre – a analysé plus de 100 manifestes extrémistes au Canada et aux États-Unis notamment. Conclusion : la misogynie est une référence récurrente des assaillants isolés. Décryptage.


Il y a deux ans, un ancien étudiant de 24 ans est entré dans une salle où se tenait un cours d’études sur le genre à l’Université de Waterloo (province d’Ontorio, au Canada), et a poignardé une professeure ainsi que deux étudiants.

L’attaque a profondément secoué le campus et provoqué une vague d’indignation à travers le Canada. Si beaucoup l’ont perçue comme un acte de violence aussi choquant qu’isolé, une lecture attentive du manifeste de 223 mots rédigé par l’assaillant laisse entrevoir une rhétorique que l’on retrouve dans nombre d’autres passages à l’acte de ce type.

Ce qui en ressort, de manière glaçante, est la manière dont une misogynie profondément ancrée, dissimulée sous le masque du ressentiment et de l’indignation morale, peut mener à une violence idéologique. Bien que court, le manifeste est saturé de rhétorique antiféministe et conspirationniste.

En tant que chercheuse travaillant sur l’extrémisme numérique et la violence fondée sur le genre, j’ai analysé plus de 100 manifestes rédigés par des personnes ayant commis des fusillades de masse, des attaques au couteau, des attaques à la voiture-bélier et d’autres actes d’extrémisme violent motivés par l’idéologie, la politique ou la religion au Canada, aux États-Unis et ailleurs.

Ces assaillants n’appartiennent peut-être pas à des organisations terroristes formelles, mais leurs écrits révèlent des schémas idéologiques récurrents. L’un d’eux ressort nettement : la misogynie.

La misogynie comme « drogue d’initiation »

L’attaque de Waterloo n’est pas un cas isolé. Elle est le reflet d’une augmentation des actes violents motivés principalement par la haine de genre. Des rapports de l’Institute for Strategic Dialogue (un think tank) et de Sécurité publique Canada (le ministère chargé de la sécurité du Canada) montrent que l’extrémisme misogyne est en hausse au Canada. Il est souvent mâtiné de nationalisme blanc, de haine anti-LGBTQIA+ et d’hostilité envers l’État.

Selon la sociologue Yasmin Wong, la misogynie agit désormais comme une « drogue d’initiation » [une expression désignant l’usage de certaines drogues comme porte d’entrée vers des drogues plus dures, ndlr] vers des idéologies extrémistes plus larges. C’est particulièrement vrai en ligne, où la haine et les ressentiments sont cultivés de manière algorithmique.

Dans mon analyse des manifestes recueillis entre 1966 et 2025, la violence fondée sur l’identité de genre apparait dans près de 40 % des textes, soit comme la motivation principale, soit comme une motivation secondaire importante. On retrouve dans ces écrits des expressions directes de haine envers les femmes, les personnes transgenres et queer, ainsi que des références aux mouvements féministes ou LGBTQIA+.

L’extrémisme « à la carte »

L’assaillant de Waterloo ne s’est pas explicitement identifié comme « incel » (contraction en anglais de « involuntary celibate » – célibataire involontaire – désignant une sous-culture en ligne caractérisée par une haine des féministes, accusées d’entraver leur accès sexuel aux femmes), mais les termes utilisés dans son manifeste font étroitement écho à ceux que l’on trouve dans le discours incel et plus largement dans la « manosphère ».

Le féminisme y est présenté comme dangereux, les études de genre comme un endoctrinement idéologique, et les universités comme des champs de bataille dans une prétendue guerre culturelle.




À lire aussi :
Projet d’attentat « incel » déjoué : décrypter le danger masculiniste


L’assaillant de Waterloo a détruit un drapeau LGBTQIA+ durant l’attaque, a qualifié la professeure ciblée de « marxiste » et a déclaré à la police qu’il espérait que son geste servirait de « signal d’alarme ».

Il a également fait l’éloge de dirigeants comme le premier ministre hongrois Viktor Orban et l’homme politique canadien d’extrême droite Maxime Bernier en les qualifiant de « based Chads » – un terme d’argot utilisé dans les milieux extrémistes en ligne pour qualifier les hommes dominants et affirmés.




À lire aussi :
Masculinité et politique à l’ère du trumpisme


Au-delà de la rhétorique antiféministe, les écrits de l’assaillant reprennent des narratifs d’extrême droite classiques : peur du « marxisme culturel », mépris pour les élites libérales, et conviction que la violence est nécessaire pour réveiller le public. Il a mentionné des attaques de masse antérieures, dont le massacre d’Utoya et d’Oslo en Norvège en 2011 et l’attaque contre deux mosquées à Christchurch, en Nouvelle-Zélande, en 2019. Ces deux événements sont fréquemment célébrés dans les espaces d’extrême droite.

Ces références l’inscrivent dans une sous-culture numérique transnationale où la misogynie, la suprématie blanche et la violence idéologique sont valorisées.

Cela reflète un « extrémisme à la carte » : une vision du monde où l’on mélange misogynie, nationalisme blanc, haine du gouvernement et pensée conspirationniste pour justifier la violence.

Déshumanisation des féministes, des universitaires et des personnes LGBTQ+

Les auteurs de manifestes sont souvent considérés comme des « fous » – des personnes dérangées ou socialement instables.

Mais ces manifestes sont des documents précieux pour comprendre comment ces individus justifient la violence et d’où viennent leurs idées. Ils révèlent aussi le rôle des communautés numériques dans la formation de ces croyances.

Les chercheurs peuvent les utiliser pour cartographier des écosystèmes idéologiques. Ces analyses peuvent servir à élaborer des stratégies de prévention.

Le manifeste de Waterloo ne fait pas exception. Il puise dans une trame idéologique bien connue – celle qui déshumanise les féministes, les universitaires et les personnes LGBTQIA+, tout en présentant la violence comme à la fois juste et nécessaire.




À lire aussi :
Extrême droite et antiféminisme : pourquoi cette alliance séduit tant de jeunes hommes


Ce ne sont pas des idées isolées ; ce sont les symptômes d’un écosystème numérique plus vaste, fondé sur la haine en ligne et le conditionnement idéologique.

Attaques délibérées et motivées par l’idéologie

Bien qu’une évaluation psychologique de l’agresseur ait soulevé des questions sur une possible rupture psychotique, aucun diagnostic clinique de psychose n’a été posé. Ses actions – planifier l’attaque, rédiger et publier un manifeste, choisir une cible précise – étaient délibérées et motivées par une idéologie.

Pourtant, l’accusation de terrorisme portée contre lui par les procureurs fédéraux a finalement été abandonnée. Le juge a estimé que ses convictions étaient « trop éparpillées et disparates » pour constituer une idéologie cohérente.

Mais son manifeste reprenait le langage et les cadres idéologiques reconnaissables dans les communautés incel, antiféministes et d’extrême droite. L’idée selon laquelle cela ne constituerait pas une « idéologie » illustre à quel point les cadres juridiques et politiques peuvent être dépassés.

Faire face à un danger persistant

La misogynie ne constitue pas seulement un point de vue, un problème culturel ou émotionnel. Elle fonctionne de plus en plus comme une porte d’entrée idéologique, reliant des frustrations personnelles à des appels plus larges à la violence.

À une époque de hausse des attentats commis par des individus isolés, elle constitue un puissant et redoutable moteur de l’extrémisme.

Si nous continuons à traiter la haine sexiste comme un phénomène périphérique ou personnel, nous continuerons à mal comprendre la nature de la radicalisation violente au Canada. Il faut nommer cette menace et la prendre au sérieux, car c’est la seule façon de nous préparer à ce qui nous attend.

The Conversation

Karmvir K. Padda ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La misogynie, leitmotiv des manifestes extrémistes – https://theconversation.com/la-misogynie-leitmotiv-des-manifestes-extremistes-260276