Les villes canadiennes de taille moyenne privilégient une croissance urbaine dense et compacte

Source: The Conversation – in French – By Rylan Graham, Assistant Professor, University of Northern British Columbia

Les villes canadiennes de taille moyenne, comme Regina, cherchent à freiner l’étalement urbain en revitalisant leurs centres-villes, avec plus ou moins de succès. (28thegreat/Wikimedia Commons), CC BY

Les villes canadiennes de taille moyenne, c’est-à-dire celles qui comptent entre 50 000 et 500 000 habitants, ont longtemps été caractérisées comme peu denses, dispersées et décentralisées. Dans ces villes, les voitures dominent, les transports en commun sont limités et les habitants préfèrent l’espace et l’intimité des quartiers suburbains.

Plusieurs problèmes croissants, allant du changement climatique et de la crise du logement abordable au déficit croissant en infrastructures, poussent les municipalités à repenser cette approche.

Les villes adoptent des stratégies de gestion de la croissance qui favorisent la densité et cherchent à limiter, plutôt qu’à encourager, l’étalement urbain. La clé réside dans la densification, une stratégie qui privilégie la construction de nouveaux logements dans les quartiers existants et matures plutôt que l’expansion vers la périphérie de la ville.

Les centres-villes sont souvent au cœur des stratégies de densification, compte tenu de l’abondance de terrains vacants ou sous-utilisés. L’augmentation du nombre d’habitants soutient les efforts de revitalisation du centre-ville, tout en freinant l’étalement urbain.


Cet article fait partie de notre série Nos villes d’hier à demain. Le tissu urbain connait de multiples mutations, avec chacune ses implications culturelles, économiques, sociales et – tout particulièrement en cette année électorale – politiques. Pour éclairer ces divers enjeux, La Conversation invite les chercheuses et chercheurs à aborder l’actualité de nos villes.

Les défis de la densification

Malgré l’adoption de politiques audacieuses, nos recherches montrent que la mise en œuvre reste un défi. En 2013, Regina s’est fixé un objectif de densification exigeant que 30 % des logements construits chaque année soient situés dans les quartiers matures et établis de la ville. Mais entre 2014 et 2021, cet objectif n’a pas été atteint chaque année, et la quasi-totalité de la croissance s’est produite à la périphérie de la ville sous la forme de nouveaux développements suburbains.

Ce décalage n’est pas particulièrement unique et est souvent appelé « écart entre les paroles et les actes », où les résultats du développement diffèrent des intentions. Cela pose de réels défis aux villes qui tentent de passer d’une croissance suburbaine à faible densité à un développement à plus forte densité.

Le Canada étant un pays suburbain, les villes moyennes denses et compactes sont atypiques. Une série d’obstacles renforce encore cette situation, notamment la faible demande pour un mode de vie urbain à forte densité, les difficultés à rassembler des terrains, le vieillissement des infrastructures et les règles et processus d’urbanisme trop rigides qui étouffent l’innovation.

L’incapacité à mettre en œuvre un développement à plus forte densité soulève la question suivante : l’intensification dans les villes de taille moyenne est-elle plus ambitieuse que viable ?

Exemples de réussite

Plusieurs villes de taille moyenne ont récemment connu un succès en matière de densification. Cela s’est traduit par une vague d’activités de développement dans les centres-villes, avec notamment la construction de nouveaux immeubles en copropriété et de tours locatives.

Entre 2016 et 2021, le nombre de résidents du centre-ville dans les villes canadiennes a augmenté de 11 %, dépassant largement la croissance de 4,6 % enregistrée au cours des cinq années précédentes.

Parmi les exemples de réussite, on peut citer Halifax, qui a connu une augmentation de 25 %, soit la croissance la plus rapide du centre-ville au Canada. Kelowna n’est pas loin derrière, avec une augmentation de 23 % de la population résidentielle de son centre-ville.

D’autres villes de taille moyenne, notamment Kingston, Victoria, London, Abbotsford, Kamloops et Moncton, ont également connu une croissance supérieure à la moyenne au cours de cette période. Dans les villes de taille moyenne du Québec, le succès de l’augmentation de la population du centre-ville a été mitigé. Par exemple, Gatineau a connu une croissance importante, la cinquième plus forte du pays avec 17 %. Trois-Rivières, Sherbrooke et Drummondville ont également connu une croissance, bien que plus lente que la moyenne nationale. À l’inverse, Québec et Saguenay ont vu leur population du centre-ville diminuer.

L’évolution des centres-villes

La croissance des centres-villes peut être attribuée à plusieurs facteurs. L’un des plus importants est la qualité de vie dans ces quartiers, autrement dit la présence d’équipements et de services qui répondent aux besoins des habitants. De nombreux centres-villes ont évolué pour répondre principalement aux besoins des employés de bureau pendant la journée, au détriment des résidents qui vivent – ou aimeraient vivre – dans le centre-ville.

La ville Kelowna, en Colombie-Britannique, offre cependant une expérience alternative façonnée par des efforts délibérés pour rendre le centre-ville accueillant pour les résidents. Son tissu urbain se caractérise par une mixité fonctionnelle remarquable : établissements de restauration, cafés, cliniques médicales, installations sportives et même une épicerie proposant l’ensemble des denrées nécessaires au quotidien se côtoient. Cette offre alimentaire complète constitue une exception dans le paysage des villes moyennes, dont de nombreux centres-villes sont devenus des déserts alimentaires.

Les équipements culturels et civiques, notamment la bibliothèque centrale, la mairie, les musées, les galeries et les lieux de divertissement, dont une arène de 7 000 places, se trouvent dans le centre-ville. Le centre-ville borde également le lac Okanagan, offrant ainsi un accès à des équipements récréatifs et naturels. Au-delà de la commodité, la diversité des équipements et des services à Kelowna contribue à rendre le centre-ville dynamique, ce qui est essentiel pour renforcer l’attrait de la vie en centre-ville.

une rue du centre-ville au crépuscule
Bernard Avenue, dans le centre-ville de Kelowna, offre un mélange d’équipements et de services, notamment un accès facile aux rives du lac Okanagan. Ces caractéristiques améliorent la qualité de vie et renforcent l’attrait du centre-ville en tant que lieu de résidence.
(Nathan Pachal/Flickr), CC BY

D’autres villes peuvent s’inspirer de Kelowna en repensant et en remodelant leur centre-ville pour en faire un quartier urbain dynamique. Drummondville pourrait notamment suivre cet exemple. La ville prévoit de densifier et de verdir son centre-ville, et d’intégrer ce projet à un développement à usage mixte à proximité d’une gare ferroviaire régionale.

Réformer et clarifier les réglementations

Nos recherches montrent que si de nombreux promoteurs soutiennent en principe la densification, ils privilégient souvent les aménagements suburbains à faible densité, car ils offrent des rendements et des processus d’approbation plus prévisibles que les aménagements mixtes du centre-ville. De nombreux promoteurs ne disposent pas non plus de l’expertise nécessaire pour se lancer dans ces projets plus complexes et plus risqués.

Sans surprise, les promoteurs immobiliers des villes de taille moyenne veulent la même chose que ceux des grandes villes : des règles plus claires, des autorisations plus rapides et des incitations financières pour construire des aménagements plus denses dans les endroits préconisés par les urbanistes, comme les centres-villes. Alors que les promoteurs plaident depuis longtemps en faveur de ces changements, les gouvernements réagissent désormais avec plus d’urgence.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Le fonds d’accélération du logement, introduit par le gouvernement fédéral en 2023, fournit aux municipalités des millions de dollars pour soutenir la construction de logements. En échange, les municipalités ont réformé les règlements de zonage, introduit des incitations fiscales et accéléré le processus d’approbation.

En Colombie-Britannique, une loi provinciale a été adoptée afin d’autoriser jusqu’à quatre logements sur des parcelles qui n’accueillaient auparavant que des maisons individuelles ou jumelées, et jusqu’à six logements sur des terrains plus grands situés dans des zones résidentielles proches des transports en commun. L’obligation d’organiser des audiences publiques pour chaque site a également été supprimée.

Dans les grandes villes de la Colombie-Britannique, une loi a été adoptée afin de supprimer les minimums de stationnement et d’autoriser la construction d’immeubles plus hauts et une densité de logements plus élevée autour des pôles de transport en commun.

Les réformes réglementaires et l’amélioration des processus d’approbation visent à rationaliser le développement. Bien qu’il s’agisse de changements importants pour rendre les villes de taille moyenne plus denses et plus compactes, l’écart entre les idéaux d’urbanisme et les réalités du marché reste important.

Un facteur majeur concerne l’opposition des résidents et des conseillers municipaux, qui s’opposent souvent au développement dense en raison de leurs perceptions et de leurs préoccupations concernant l’augmentation du bruit et du trafic et la baisse de la valeur des propriétés. Cela suggère qu’il y a du travail à faire au-delà des investissements dans les centres-villes et des réformes réglementaires et d’approbation pour faciliter davantage l’intensification.




À lire aussi :
From NIMBY to YIMBY: How localized real estate investment trusts can help address Canada’s housing crisis


Des villes en mutation

Néanmoins, l’essor récent des activités de développement et la croissance démographique des centres-villes – à Halifax, Kelowna et ailleurs – reflètent des étapes importantes dans l’évolution des villes de taille moyenne.

Cela marque une rupture notable avec le discours traditionnel qui décrit ces villes comme des villes à faible densité avec des centres-villes délabrés.

Les développements récents donnent des raisons d’être prudemment optimiste quant à un avenir où les villes de taille moyenne du Canada deviendront plus denses et plus compactes, avec des centres-villes dynamiques et agréables à vivre.

La Conversation Canada

Rylan Graham reçoit un financement du CRSH et de la British Columbia Real Estate Foundation.

Jeffrey Biggar reçoit des subventions du CRSH, du MITACS et de la province de Nouvelle-Écosse.

ref. Les villes canadiennes de taille moyenne privilégient une croissance urbaine dense et compacte – https://theconversation.com/les-villes-canadiennes-de-taille-moyenne-privilegient-une-croissance-urbaine-dense-et-compacte-266116

La course à pied use-t-elle le corps des sportifs, professionnels comme amateurs ?

Source: The Conversation – France in French (3) – By Sylvain Durand, Professeur de physiologie humaine au département STAPS, chercheur au laboratoire Motricité, Interactions, Performance, Le Mans Université

Les situations des sportifs amateurs et celles des athlètes professionnels qui s’adonnent à la course à pied ne sont pas comparables, en termes de sollicitations physiques mais aussi d’encadrement pour les accompagner. Pour autant, ni les uns ni les autres ne sont à l’abri d’une usure de leurs corps due à la pratique de cette activité physique. Explications.


La course à pied fait partie des activités sportives les plus à la mode actuellement. La course commence même parfois avant la compétition en elle-même, certaines épreuves voyant leur jauge d’inscription se remplir en seulement quelques heures. On parle de « course au dossard… ».

Dès lors, alors que la course à pied conserve pour beaucoup l’image d’une activité bonne pour la santé, la simple considération du stress ressenti par certains pour simplement avoir un dossard, ou plus concrètement l’état de fatigue apparent à l’arrivée de courses comme le marathon ou le trail doit amener à nous questionner sur son retentissement sur la santé, dans ses différentes dimensions, que l’on soit coureur assidu ou intermittent. Prêt ? Partez !

L’intensité des entraînements des athlètes professionnels

On pourrait facilement mettre dans deux cases différentes les coureurs à pied professionnels et les amateurs. Et oui, ça s’entraîne un athlète professionnel, durement… jusqu’à trois fois par jours dans certaines phases de préparation ! Une vie d’ascète, manger, courir, dormir, qui laisse peu de place à l’improvisation. En effet, même si les épreuves semblent multiples, aux quatre coins du monde, la concurrence est forte dans un sport aussi universel et il faut mettre son corps à rude épreuve pour le faire progresser jusqu’à sa limite.

Les carrières à haut niveau sont ainsi souvent courtes, cinq ou six années peut-être, et les cas comme celui d’Eliud Kipchoge, premier homme à avoir couru (dans des conditions non homologables) un marathon en moins de deux heures, seize ans après avoir été champion du monde du 5 000 mètres sur piste, restent des exceptions.

La charge mécanique importante inhérente à la pratique affecte les muscles, les tendons, le squelette. Les phases de repos sont parfois courtes et il devient de plus en plus courant de voir, lors des retransmissions télévisées, des athlètes se blesser en pleine compétition, signe d’usure physique et mentale… D’aucuns pourraient considérer ces éléments comme plutôt classiques, après tout, ce sont des sportifs de haut niveau…

Des points communs entre pros et amateurs

Une question toutefois se pose : le champion du monde, le champion du coin et le coureur lambda sont-ils si différents de cela ? La partie émergée de l’iceberg amène à une évidence… il ne court pas à la même vitesse et donc le temps d’effort varie… mais quid de la partie immergée : la phase de préparation d’avant course, l’entraînement… l’investissement et l’abnégation des individus ? Quand on veut battre un record, son record, ne court-on pas à 100 % physiquement et mentalement ?

Considérons les chiffres du marathon de Paris en 2025 : 56 950 inscrits à la course, 55 499 arrivants… Une épreuve de masse… mais un même défi : 42,195 km pour la cinquantaine d’athlètes peut-être considérés comme étant de haut niveau et tous les autres qui doivent composer avec leur activité professionnelle, leur vie de famille, etc.

Ainsi, quel que soit son niveau, sa vitesse de course, il y a de nombreuses ressemblances dans les modalités de préparation d’un marathon, des charges identiques. Illustrations : une préparation type marathon s’étale classiquement sur dix à douze semaines avec des incontournables comme « la sortie longue », un entraînement d’une trentaine de kilomètres recommandé une fois par semaine…

Cette séance particulière, tout le monde y passe ! Et on peut trouver toute une gamme d’ouvrages grand public pour accompagner les pratiquants, qui s’appuient sur les données scientifiques.

Mais avec l’usure potentielle liée à l’entraînement, la lassitude qui va avec, le risque de blessures augmente…

Préparation marathon ou trail : un risque de blessures majoré chez les amateurs

D’ailleurs, c’est le plus souvent au niveau des amateurs que l’on voit profusion de blessures caractéristiques d’une forme d’usure, de sursollicitation de son corps

Un athlète de haut niveau ne consulte pas nécessairement un médecin du sport. Pourquoi cela ? Parce qu’il s’est construit sa carrière au fil des années, il présente des caractéristiques génétiques spécifiques qui lui font bien mieux accepter de fortes charges d’entraînement. Il suit une programmation spécifique incluant mesures diététiques, phase et processus de récupération…

Un sportif professionnel bénéficie d’un bien meilleur suivi général et médical qu’un coureur néophyte ou amateur qui, par défi individuel ou collectif, se lance dans un projet type marathon ou trail. C’est ainsi qu’une coureuse comme Christelle Daunay, après quinze années de pratique et des débuts modestes au niveau national, a su patiemment se construire jusqu’à remporter le championnat d’Europe de marathon en 2014 à Zurich.

Christelle Daunay lors des championnats d’Europe d’athlétisme 2014 à Zurich
Christelle Daunay remporte le marathon lors des championnats d’Europe d’athlétisme à Zurich en 2014.
Erik van Leeuwen, CC BY

La question de l’usure du corps chez les pros

La question de « l’usure du corps » est posée depuis longtemps. Dans les années 1990, on décrivait déjà que le seul fait de courir quarante-cinq minutes plutôt que trente minutes par jour pouvait aller jusqu’à multiplier par deux la fréquence des blessures. Et que le fait de passer de trois à cinq séances hebdomadaires avait des effets semblables.

Christelle Daunay n’y a pas échappé. Elle a ainsi souffert d’une fracture de fatigue en 2018 qui l’a empêchée de défendre son titre de championne d’Europe du marathon en 2014. À noter qu’on appelle « fracture de fatigue » une atteinte osseuse, comparable à une fissure, qui peut être provoquée par la répétition de la foulée.

Des risques accrus de fatigue psychique et physique avec l’ultra-trail ?

Le développement récent du trail, ou course à pied pratiquée en pleine nature, ne fait que renforcer les considérations sur le sujet, car en plus des lieux géographiques, le côté « ultra » séduit.




À lire aussi :
Ultra-trail : ce que révèle la science sur ce sport extrême


Cependant, le trail a sa propre particularité, la variation du terrain sollicitant des mouvements articulaires et musculaires différents et donc une concentration plus marquée que sur la route. Ajoutez-y des durées d’effort de quelques heures à une journée complète et plus, les problématiques de l’alimentation, de la gestion de l’effort, des dommages musculaires qui s’immiscent à la longue… et l’on comprend facilement pourquoi ces épreuves sont propices à nourrir fatigue psychique et physique non seulement durant l’épreuve, mais aussi sur du long terme.

Les conditions de l’usure du corps associée à la pratique d’un sport comme la course à pied sont donc multiparamétriques et ses traductions variables selon la personne. La recherche d’une performance physique peut relever d’une vitesse de course ou de la réalisation d’un objectif kilométrique.

User le corps à un instant t pour augmenter sa résistance… à l’usure

Quelle que soit cette orientation, les personnes s’engagent souvent dans des préparations particulières car une progression physique, physiologique s’appuie sur les capacités d’adaptation phénoménale du corps humain.

Notez ici le paradoxe. Un des principes de l’entraînement est de stimuler son corps, de « l’user » à un instant t afin qu’il engage les processus physiologiques qui vont conduire à l’amélioration de ses capacités, la lutte contre la fatigue… et, finalement, à l’augmentation de la résistance à l’usure.

Ce processus fondamental est ainsi à la base des programmes de réhabilitation/réadaptation physiques qui font de plus en plus foi dans les contextes physiopathologiques, par exemple pour prendre en charge les artériopathies périphériques ou l’obésité.

Cependant, dans ses dimensions les plus intenses, l’entraînement peut nécessiter un engagement mental, une résistance à la lassitude, une volonté affirmée pour poursuivre les efforts dans le temps malgré la fatigue.

L’usure peut donc aussi être mentale. C’est peut-être là la différence majeure entre l’amateur et le professionnel qui n’a pas d’autre choix que d’user fortement son corps pour progresser dans la hiérarchie du haut niveau.

Pros ou amateurs, de l’importance d’être bien encadrés

Chercher à repousser ses limites physiques et mentales peut conduire tout coureur à se sentir « usé ». Tous ces éléments soulignent l’importance d’être bien encadré et conseillé (par des coachs, dans un clubs, etc.) pour faire les entraînements avec une certaine progression, tant dans la quantité que dans l’intensité et adapter son rythme de vie.

Pas besoin de matériel technique pour courir, un avantage de cette activité idéale pour ressentir son corps, dès lors que l’on a conscience des risques et limites associés aux épreuves. Et rassurez-vous, si malgré tout, vous n’appréciez pas ce sport, l’offre est suffisamment large pour que vous trouviez chaussure à votre pied et bénéficiiez des bienfaits de la pratique physique sur la santé… l’important reste de bouger !

Extrait d’Autoportrait de l’auteur en coureur de fond, Haruki Murakami (éditions Belfond, 2009) :

« Les êtres humains continuent naturellement à faire ce qu’ils aiment et cessent ce qu’ils n’aiment pas. Voilà pourquoi je ne conseille jamais aux autres de courir. Le marathon ne convient pas à tout le monde. De même, tout le monde ne peut pas devenir romancier. »


Benoît Holzerny, coach athlé santé, et Cédric Thomas, entraîneur d’athlète de haut niveau (notamment de Christelle Daunay, championne d’Europe de marathon en 2014), sont coauteurs de cet article.

The Conversation

Sylvain Durand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La course à pied use-t-elle le corps des sportifs, professionnels comme amateurs ? – https://theconversation.com/la-course-a-pied-use-t-elle-le-corps-des-sportifs-professionnels-comme-amateurs-266968

Maria Corina Machado, Nobel de la paix : et si Trump avait finalement gagné ?

Source: The Conversation – France in French (3) – By Thomas Posado, maître de conférences en civilisation latino-américaine contemporaine, Université de Rouen Normandie

Maria Corina Machado est certes une personnalité courageuse et déterminée, qui combat depuis des années le régime autoritaire en place dans son pays, le Venezuela. Mais certaines de ses prises de position semblent peu compatibles avec l’obtention d’un prix Nobel de la paix. La récompense qui lui a été attribuée, le 10 octobre 2025, pourrait apaiser Donald Trump, qui soutient depuis longtemps son action et qui se trouve engagé dans un bras de fer de plus en plus tendu avec le pouvoir vénézuélien dirigé par Nicolás Maduro.


La campagne de Donald Trump pour l’obtention du prix Nobel de la paix a été aussi inédite que pressante. La désignation de Maria Corina Machado a beaucoup surpris.

Certes, elle vient couronner une lutte infatigable contre le gouvernement autoritaire de Nicolás Maduro ; mais le profil de la lauréate est davantage celui d’une militante opposée à la dictature de son pays que d’une pacifiste. Cela reflète la tendance du Comité Nobel norvégien à davantage récompenser, ces dernières années, des promoteurs de la démocratie dans des régimes opposés aux intérêts géopolitiques occidentaux que des personnalités ayant « ayant le plus ou le mieux contribué au rapprochement des peuples, à la suppression ou à la réduction des armées permanentes, à la réunion et à la propagation des progrès pour la paix » comme le souhaitait Alfred Nobel dans son testament.

Ainsi, Maria Corina Machado s’inscrit dans la lignée du journaliste russe Dmitri Mouratov, lauréat en 2021, du militant des droits humains biélorusse Ales Bialiatski et de l’ONG russe Mémorial, célébrés en 2022, ou encore de Narges Mohammadi, militante des droits humains iranienne récompensée en 2023.

Qui est Maria Corina Machado ?

Le rapport à la paix de Maria Corina Machado mérite d’être questionné. En effet, outre son soutien à la tentative de coup d’État d’avril 2002 contre Hugo Chavez, alors président démocratiquement élu (soutien partagé par de larges secteurs de l’opposition vénézuélienne), Machado, âgée aujourd’hui de 58 ans, incarne les fractions les plus radicales des détracteurs d’Hugo Chavez puis de son successeur (depuis 2013) Nicolás Maduro et les plus subordonnées aux stratégies les plus brutales des États-Unis contre le gouvernement vénézuélien.

Ainsi, elle a été reçue par George W. Bush dans le bureau Ovale, le 31 mai 2005, en pleine guerre en Irak. En 2019, au moment de l’auto-proclamation de Juan Guaido comme chef de l’État vénézuélien alternatif, qui sera reconnu par une soixantaine de pays, elle en appelait à une intervention militaire étrangère contre le Venezuela parce que « les démocraties occidentales doivent comprendre qu’un régime criminel ne sera chassé du pouvoir que par la menace crédible, imminente et grave d’un recours à la force ».

Plus récemment encore, début octobre, à l’antenne de Fox News, elle remerciait Donald Trump pour les assassinats ciblés qu’il commet dans la mer des Caraïbes et pour ses menaces militaires contre son propre pays.

Si d’autres lauréats, aux positionnements idéologiques variés, tels Henry Kissinger, Nelson Mandela, Yasser Arafat, Yitzhak Rabin, Shimon Peres ou Juan Manuel Santos, avaient pu commettre ou appeler à commettre des actes violents avant leur désignation, ils avaient rompu avec cette orientation au moment de leur prix ou participé au règlement d’un conflit, aussi provisoirement que ce soit. Ce n’est pas le cas de Maria Corina Machado.

Grâce à ce positionnement intransigeant à l’encontre d’un gouvernement jugé responsable du tournant autoritaire et de l’effondrement économique du pays depuis 2013, elle bénéficie d’une aura importante dans la population vénézuélienne. Le Venezuela a vu son PIB baisser de 74 % entre 2014 et 2020, pour moitié du fait de la mauvaise gestion économique d’Hugo Chavez puis de Nicolás Maduro (en particulier une politique monétaire particulièrement négligente) et pour autre moitié à cause des mesures coercitives unilatérales édictées par Donald Trump durant son premier mandat et soutenues par Maria Corina Machado.

Dans ce marasme, Nicolás Maduro se maintient au pouvoir en dépit d’un soutien électoral minoritaire, à travers l’utilisation des institutions électorales, judiciaires et militaires, ce qui lui a permis de déposséder l’Assemblée nationale, où l’opposition était alors majoritaire, de ses prérogatives en 2015 ; de réprimer, au prix de plus d’une centaine de morts, une vague de manifestations en 2017 ; de réaliser une fraude massive pour inverser les résultats du scrutin présidentiel en 2024

La popularité de Maria Corina Machado est aujourd’hui puissante : elle a remporté les primaires de l’opposition vénézuélienne en octobre 2023 avec 92,3 % des suffrages exprimés (après le retrait de plusieurs candidats qui n’avaient aucune chance). Après avoir été frappée d’inéligibilité par les institutions pro-Maduro, elle a parcouru le pays en faveur d’un illustre inconnu devenu candidat de l’opposition, Edmundo González Urrutia, suscitant un réel enthousiasme à travers le pays, avec une promesse qui a eu un fort impact : la réunification des familles dans un pays meurtri par l’exode de plus de huit millions de ses compatriotes, soit plus d’un quart de la population nationale.

Nicolás Maduro, en menant à l’échec tous les processus de négociations avec une opposition plus modérée, en limitant drastiquement le droit à la candidature des différentes personnalités, a paradoxalement propulsé son antithèse : libérale économiquement (quoique Maduro mène désormais une politique de dollarisation rampante de son économie) et alignée géopolitiquement sur les États-Unis.

Quelles conséquences pour le Venezuela ?

Les conséquences de ce prix Nobel seront sans doute limitées au Venezuela. Maria Corina Machado a déjà reçu, en octobre 2024, le prix des droits de l’homme Václav-Havel de l’Assemblée parlementaire du Conseil de l’Europe et, en décembre 2024, le prix Sakharov pour la liberté de l’esprit du Parlement européen, à l’initiative des groupes parlementaires de droite et d’extrême droite.

Cela n’a pas changé les conditions de clandestinité dans lesquelles elle vit ni empêché sa brève arrestation en janvier 2025 à l’issue d’une apparition dans une manifestation lors de l’investiture de Nicolás Maduro pour ce nouveau mandat frauduleux.

L’octroi du prix Nobel augmente le coût de sa répression, mais ne change pas la configuration politique vénézuélienne. Dans les conditions de répression que connaît le Venezuela, le Nobel se « célèbre en silence » parmi les nombreux mécontents du gouvernement Maduro.

Parmi les conséquences concrètes de ce prix, on note la fermeture de l’ambassade du Venezuela à Oslo dans le cadre d’une « restructuration intégrale » de ses représentations à l’étranger, alors que la Norvège est médiateur des négocations entre le gouvernement Maduro et l’opposition depuis 2019.

La victoire d’une alliée de Donald Trump

L’octroi de ce prix Nobel de la paix à Maria Corina Machado est aussi une manière de récompenser Donald Trump sans le dire. Dans le contexte actuel, récompenser une institution défendant le droit international, telles la Cour pénale internationale (CPI) ou la Cour internationale de justice (CIJ), aurait été perçu comme un signal d’irrévérence à l’égard du président états-unien. En revanche, choisir une opposante vénézuélienne qui soutient sa politique dans les Caraïbes est une légitimation de son action.

Depuis août 2025, Donald Trump a déployé la quatrième flotte des États-Unis (l’US Navy) dans la mer des Caraïbes sous le prétexte de lutte contre le narcotrafic.
À la date du 16 octobre 2025, cinq navires ont été détruits par les troupes états-uniennes au large des côtes vénézuéliennes, coûtant la vie à 27 personnes au total.

L’administration Trump avait jusqu’alors privilégié une approche de négociations promue par son conseiller pour les missions spéciales Richard Grenell, sur une base d’échange contractuelle « maintien des licences pétrolières » contre « acceptation des déportations de retour de Vénézuéliens ». La licence de la firme multinationale Chevron a été suspendue en mai pour être rétablie sous d’autres modalités en juillet. Le jour même de l’obtention du prix Nobel par Maria Corina Machado, Shell a obtenu de l’administration de Washington l’autorisation d’extraire du gaz dans la zone Dragon à l’intérieur des eaux vénézuéliennes. Cependant, quelques jours auparavant, Donald Trump avait demandé à Richard Grenell de cesser ses communications avec Nicolás Maduro.

Le locataire de la Maison Blanche semble opter pour une stratégie de changement de régime, portée de longue date par le secrétaire d’État Marco Rubio. Pour autant, une guerre ouverte entre les États-Unis et le Venezuela ne semble pas pour l’heure d’actualité. La dernière intervention directe de Washington en Amérique latine date de 1989, au Panama, déjà au nom de la répression de la complicité des autorités du pays avec le narcotrafic – complicité en l’occurrence avérée.

Toutefois, le Panama représentait en termes militaires une cible mineure par rapport à ce que constitue l’État vénézuélien aujourd’hui, même après une décennie de crise économique. Une campagne militaire, telle que l’opération Midnight Hammer à l’encontre de l’Iran en juin 2025, ne saurait être exclue, d’autant que l’administration Trump vient d’autoriser des actions secrètes de la CIA au Venezuela. Même un journal historique de l’opposition libérale, El Nacional, redoute une telle intervention, considérant qu’il s’agirait d’un cataclysme.

En récompensant Maria Corina Machado, au moment où les menaces états-uniennes contre le Venezuela sont maximales, le Comité Nobel légitime la politique de changement de régime de Donald Trump. Si Maria Corina Machado a dédié son prix au président états-unien, c’est que cette récompense est aussi un peu la sienne.

The Conversation

Thomas Posado ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Maria Corina Machado, Nobel de la paix : et si Trump avait finalement gagné ? – https://theconversation.com/maria-corina-machado-nobel-de-la-paix-et-si-trump-avait-finalement-gagne-267662

Les chiens au Moyen Âge : ce que les écrits médiévaux nous apprennent sur les animaux de compagnie de nos ancêtres

Source: The Conversation – in French – By Emily Savage, Associate lecturer in the school of art history, St Andrews Institute of Medieval Studies, University of St Andrews

Un détail de miniature du _Livre de la chasse_ (v. 1406), de Gaston III (1331-1391), dit Gaston Phébus, comte de Foix et vicomte de Béarn. On y voit les chiens examinés et soignés par des gardiens de chenil. The Morgan Library and Museum/Faksimile Verlag Luzern

Les écrits médiévaux, des traités spécialisés aux bestiaires, associent différentes caractéristiques aux chiens, parfois loués pour leur loyauté, parfois décriés comme impurs ou vulgaires, mais souvent choyés.


Au Moyen Âge, la plupart des chiens avaient un travail.

Dans son ouvrage De Canibus, le médecin et érudit anglais du XVIe siècle John Caius (1510-1573) décrit une hiérarchie des chiens, qu’il classe avant tout en fonction de leur rôle dans la société humaine. Au sommet se trouvaient les chiens de chasse spécialisés, notamment les lévriers, connus pour leur « incroyable rapidité », et les chiens de chasse, dont l’odorat puissant les poussait à « parcourir de longues allées, des chemins sinueux et des sentiers fatigants » à la poursuite de leur proie.

Mais même les « bâtards », qui occupaient les échelons inférieurs de l’échelle sociale canine, étaient caractérisés en fonction de leur travail ou de leur statut. Par exemple, comme artistes de rue ou tournebroches dans les cuisines, courant sur des roues qui faisaient tourner la viande à rôtir.

Un chien avec un collier à pointes et un lévrier avec une longue laisse
Un chien avec un collier à pointes et un lévrier avec une longue laisse, tirés du Helmingham Herbal and Bestiary (vers 1500).
Yale Centre for British Art, Paul Mellon Collection, CC BY-SA

La place des chiens dans la société a changé lorsque la chasse est devenue un passe-temps aristocratique plutôt qu’une nécessité. Parallèlement, les chiens ont été accueillis dans les maisons des nobles, en particulier par les femmes. Dans les deux cas, les chiens étaient des signes distinctifs du rang social élitiste.

Dessin manuscrit représentant une religieuse tenant un chien de compagnie
Une religieuse avec son chien de compagnie.
British Library

En effet, dans son classement, Caius place les chiens d’intérieur « délicats, soignés et jolis » en dessous des chiens de chasse, mais au-dessus des bâtards de basse extraction, en raison de leur association avec les classes nobles. Quant aux chiots : « Plus ils sont petits, plus ils procurent de plaisir. »

Même si l’Église désapprouvait officiellement les animaux de compagnie, les ecclésiastiques eux-mêmes possédaient souvent des chiens. Comme ceux des femmes, les chiens des ecclésiastiques étaient généralement des chiens de compagnie, parfaitement adaptés à leurs activités d’intérieur.




À lire aussi :
Cats in the middle ages: what medieval manuscripts teach us about our ancestors’ pets


Éloge des chiens

Tout le monde n’éprouvait pas une telle affection pour les chiens. Préoccupées par les risques de violence, les autorités urbaines anglaises ont réglementé la détention de chiens de garde ainsi que les divertissements populaires violents, tels que la chasse au sanglier, à l’ours et au taureau. Dans la Bible, les chiens sont souvent décrits comme des charognards répugnants. Dans les Proverbes 26:11, il est raconté comment ils ingèrent leur propre vomi…

Une miniature de Sir Lancelot, en conversation avec une dame tenant un petit chien
Une miniature représentant Lancelot, en conversation avec une dame tenant un petit chien (vers 1315-1325).
British Library

D’autre part, l’histoire de saint Roch dans la Légende dorée, de l’archevêque de Gênes (Italie) Jacques de Voragine (v. 1228-1298), recueil sur la vie des saints très populaire au XIIIe siècle, raconte l’histoire d’un chien qui apporta du pain au saint affamé, puis qui guérit ses blessures en les léchant. L’un des attributs de saint Roch, motif permettant aux spectateurs de le reconnaître, est un chien dévoué.

Le trope des chiens défendant leurs maîtres ou déplorant leurs morts remonte à la période classique, à des textes comme l’Histoire naturelle de l’auteur romain Pline l’Ancien (Ier siècle de notre ère).

Ce thème est repris dans la tradition médiévale du bestiaire, un recueil moralisateur de connaissances sur les animaux réels et mythiques. Une des histoires que l’on y trouve raconte celle du légendaire roi des Garamantes qui, capturé par ses ennemis, est retrouvé et sauvé par ses fidèles chiens. Une autre histoire raconte qu’un chien a identifié publiquement le meurtrier de son maître et l’a attaqué.

L’histoire d’un lévrier, Guinefort, a même inspiré un culte non officiel de saint. Selon cette légende, le chien s’était attaqué à un serpent qui voulait mordre l’enfant de ses maîtres, châtelains de Villars-les-Dombes, en Auvergne. Son maître le passa au fil de l’épée en voyant l’enfant ensanglanté gisant à terre, imputant d’abord à son chien les blessures apparentes du nourrisson. Les gens du lieu, puis d’autres attribuent bientôt au lévrier martyr des pouvoirs miraculeux, notamment ceux de guérir des enfants.

Des chiens dans une bataille contre des rois
Le roi des Garamantes, ancien peuple berbère de Cyrénaïque (sur le territoire actuel de la Libye), sauvé par ses chiens. Détail de miniature du Bestiaire de Rochester (vers 1230).
British Library

Bien que l’histoire ait pour but originel de révéler le péché et la folie de la superstition, elle souligne néanmoins ce que les gens du Moyen Âge percevaient comme les qualités particulières qui distinguaient les chiens des autres animaux.
Selon le Bestiaire d’Aberdeen (vers 1200) :

« Aucune créature n’est plus intelligente que le chien, car les chiens ont plus de compréhension que les autres animaux ; eux seuls reconnaissent leur nom et aiment leur maître. »

L’association entre les chiens et la loyauté est également exprimée dans l’art de l’époque, notamment en relation avec le mariage. Dans les monuments funéraires, les représentations de chiens indiquent la fidélité d’une épouse à son mari qui repose à ses côtés.

Dans le cas des tombes ecclésiastiques, cependant, elles peuvent suggérer la foi du défunt, comme celle de l’archevêque William Courtenay (mort en 1396), enterré dans la chapelle de la Trinité de la cathédrale de Canterbury. L’effigie en albâtre de Courtenay repose sur un cercueil funéraire situé du côté sud de la chapelle. L’archevêque porte la robe et la mitre de sa fonction, et deux anges soutiennent sa tête reposant sur un coussin. Un chien aux longues oreilles, portant un collier à clochettes, est couché docilement à ses pieds.

Bien qu’il soit tentant de penser que le chien représenté sur la tombe de Courtenay fut l’animal de compagnie de l’archevêque, ce n’était pas forcément le cas : le collier à clochettes était une convention populaire de l’iconographie contemporaine, en particulier pour les chiens de compagnie.

Des toutous choyés

Une peinture représentant une femme nue se regardant dans un miroir. À ses pieds se trouve un chien blanc qui a l’air choyé
Allégorie de la vanité par Hans Memling (vers 1490).
Musée des Beaux-Arts de Strasbourg

À l’instar de leurs homologues modernes, les propriétaires de chiens médiévaux fortunés équipaient leurs compagnons d’une variété d’accessoires, notamment des laisses, des manteaux et des coussins fabriqués à partir de matériaux raffinés.

Cet investissement matériel était central dans la culture aristocratique du « vivre noblement », où la consommation délibérée de produits de luxe permettait d’afficher publiquement son statut social.

La perception populaire de la possession d’un chien et des accessoires qui l’accompagnent a également alimenté les stéréotypes liés au genre. Alors que les hommes étaient plus enclins à posséder des chiens actifs pour protéger leur vie et leurs biens, les femmes préféraient les chiens de compagnie qu’elles pouvaient bercer et choyer. Les chiens de compagnie pouvaient donc également être associés à l’oisiveté et au vice dits féminins, comme le montre le tableau de Hans Memling Allégorie de la vanité (vers 1485).

Mais même les chiens de travail avaient besoin de soin et d’attention pour donner le meilleur d’eux-mêmes. La miniature d’une somptueuse copie du XVe siècle du livre influent de Gaston Phébus, le Livre de la Chasse, montre des gardiens de chenil examinant les dents, les yeux et les oreilles des chiens, tandis qu’un autre lave les pattes d’un « bon chienchien ».

The Conversation

Emily Savage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les chiens au Moyen Âge : ce que les écrits médiévaux nous apprennent sur les animaux de compagnie de nos ancêtres – https://theconversation.com/les-chiens-au-moyen-age-ce-que-les-ecrits-medievaux-nous-apprennent-sur-les-animaux-de-compagnie-de-nos-ancetres-266615

Les sneakers : passion de collectionneur ou placement financier ?

Source: The Conversation – France (in French) – By Benoît Faye, Full Professor Inseec Business School, Chercheur associé LAREFI Université de Bordeaux Economiste des marchés du vin, de l’art contemporain et Economiste urbain, INSEEC Grande École

Créés pour faire du sport, les sneakers sont devenus la chaussure tout-terrain. Certaines paires sont même devenues des objets de collection, voire d’investissement. Mais que vaut ce placement ? Quels risques présente-t-il pour quel rendement ?


Pour diversifier leur patrimoine, les ménages peuvent acquérir des objets de collections en anticipant un gain à la revente. Si les œuvres d’art et l’horlogerie de luxe ont pu tenir ce rôle à travers les générations, les jeunes ménages ont aujourd’hui d’autres totems. Après les skins CSGO, les cryptos ou les NFT, émerge depuis dix ans un nouvel objet de collection : les chaussures de sport, aussi appelées sneakers. S’agit-il d’un simple effet de mode culturel ou d’un investissement pertinent ?

Les sneakers ont parcouru un long chemin depuis les Keds de 1916. D’abord chaussures utilitaires, puis sportives, elles sont devenues un symbole culturel, indissociable des mouvements urbains, comme le hip-hop. Cette évolution s’est accélérée dans les années 1980, notamment avec la collaboration entre Nike et la star du basket-ball Michael Jordan, donnant naissance à l’iconique Air Jordan.

Plus d’un milliard de dollars de chiffre d’affaires en 2019

Aujourd’hui, les marques de sneakers s’associent avec des icônes de la musique, du sport et du web, créant des éditions limitées très convoitées. Un marché secondaire est même né et StockX, sa plateforme leader, a dépassé le milliard de dollars américains de chiffre d’affaires en 2019.

Si la plupart des paires se vendent quelques centaines d’euros, certains modèles rares atteignent des sommets aux enchères. En 2021, une paire de Nike Air Yeezys s’est vendue 1,8 million de dollars. Un an plus tard, des Nike Air Force 1 signés par Virgil Abloh ont rapporté 25,3 millions de dollars lors d’une vente aux enchères chez Sotheby’s. Ces exemples attirent l’attention des investisseurs. Cependant, les sneakers peuvent-ils désormais être considérés comme une véritable classe d’actifs ?




À lire aussi :
Entre le luxe et le sport, un mariage risqué ?


L’approche scientifique : construire un indice de prix

Pour répondre à cette question, nous avons analysé dans un article à paraître dans le Journal of Alternative Investment le marché des sneakers sur une période allant de décembre 2015 à avril 2023, en utilisant les données de StockX (plus de 2 000 paires fabriquées avant 2016 – Adidas, Jordan et Nike notamment), l’une des plus grandes plates-formes de revente en ligne.

L’analyse de la performance de ce type d’actif est complexe. Contrairement aux actions ou obligations, qui ont des prix standardisés, chaque paire de sneakers possède des caractéristiques uniques (modèle, taille, couleur, année de sortie, etc.) qui influencent sa valeur. Nous utilisons donc la même méthode que celle de l’indice des prix immobilier, en tenant compte des différences de caractéristiques des logements pour extraire une tendance de prix, un indice hédonique. Cette méthode est utile pour étudier l’évolution de la valeur d’un marché au cours du temps lorsque les caractéristiques des biens échangés peuvent être différentes d’une période à l’autre.

Graphique 1 : Évolution de l’indice de prix hédonique des sneakers (trimestriel)


auteurs, Fourni par l’auteur

La tendance générale est clairement à la hausse, avec une accélération des prix postCovid-19. Cependant, l’analyse des rendements sur l’ensemble de la période montre que le marché est loin d’être un long fleuve tranquille. En effet, les sneakers présentent un profil assez proche de celui d’autres objets de collection, possédant à la fois des rendements élevés mais aussi une volatilité importante. Cela signifie que leurs prix peuvent fluctuer fortement et rapidement. Malheur à celui qui achète en position haute et revend en position basse.

Un marché en pleine maturation

Nous montrons cependant l’existence d’une rupture structurelle, survenue mi 2019, dans les rendements du marché des sneakers. Avant cette date, le marché était en pleine émergence, caractérisé par des rendements très élevés et une forte volatilité. C’était l’époque des spéculateurs et des collectionneurs passionnés, où chaque sortie de modèle exclusif pouvait générer un engouement démesuré.

Après mi 2019, nos données indiquent une baisse progressive des rendements, mais aussi une diminution du risque (volatilité). Cette évolution est un signe de la maturité croissante du marché. Le développement des plateformes, comme StockX, Goat, Stadium goods, a professionnalisé la revente, augmenté la fréquence des ventes et réduit l’incertitude des prix (liquidité). Ce marché devient plus structuré, moins sujet à des variations extrêmes, et donc plus prévisible pour les investisseurs.

Les atouts des sneakers

Pour évaluer le potentiel des sneakers, comparons leurs rendements et leur risque à ceux d’autres actifs, qu’ils soient traditionnels (actions-MSCI world, or) ou alternatifs (art, vin, immobilier). Toutefois, prenons soin de distinguer les performances pré et post Covid-19.

Lors de la première période (graphique 2) les sneakers affichent le profil traditionnel des objets de collection : un rendement élevé (environ 50 %) compensant le risque démesuré (150 %) auquel s’expose l’investisseur. La deuxième période (post-Covid) montre une maturité croissante des sneakers avec un risque désormais plus proche des autres actifs (40 %) pour un rendement qui se réduit mécaniquement. Toutefois, rapporté au risque, le rendement postCovid des sneakers se rapproche de celui de l’immobilier et surpasse celui de l’or.

Mais le plus grand atout des sneakers réside dans leur potentiel de diversification de portefeuille. Nous constatons une très faible corrélation entre les rendements des sneakers et ceux des marchés financiers traditionnels (actions, obligations) ou des autres collectibles. Nos simulations montrent que l’inclusion de sneakers dans un portefeuille diversifié, en particulier pour un investisseur à la recherche de rendements élevés (ou profil « agressif »), peut significativement augmenter les rendements tout en contrôlant la prise de risque.

Euronews, 2021.

Risques et perspectives

Le marché des sneakers, bien que plus mature, est encore jeune et présente des spécificités. La liquidité reste limitée, le risque de contrefaçon élevé et le manque de données historiques exhaustives peuvent aussi être des freins.

De plus, l’investissement dans les sneakers repose sur des dynamiques culturelles, des préférences changeantes. La valeur d’un modèle dépend de sa popularité, de sa rareté, et des collaborations avec des personnalités influentes. Un revirement de tendance, une altération de l’image des partenaires ou une surabondance de modèles « limités » pourraient éroder la valeur de l’exclusivité.

Parier sur les baskets peut donc être un bon moyen de diversifier son portefeuille… à condition d’accepter que, comme sur un terrain de basket, le jeu soit rapide, parfois chaotique, et réservé aux joueurs les plus audacieux.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Les sneakers : passion de collectionneur ou placement financier ? – https://theconversation.com/les-sneakers-passion-de-collectionneur-ou-placement-financier-265921

Pour Claude Lefort, la conflictualité est le moteur de la démocratie

Source: The Conversation – France in French (3) – By Nicolas Poirier, Docteur en science politique (2009, Université Paris-Diderot) ; Habilité à diriger les recherches en philosophie contemporaine (2021, Université Paris Nanterre), Institut catholique de Paris (ICP)

Notre démocratie est en crise, comment la réinventer ? Suite de notre série consacrée aux philosophes et à la démocratie avec le Français Claude Lefort (1924-2010). Selon lui, la démocratie ne vise pas l’unité fusionnelle du peuple et du chef, elle est au contraire fondée sur une conflictualité constitutive et indépassable qui crée la dynamique politique.


Après avoir milité au sein du groupe de gauche révolutionnaire anti-léniniste et anti-stalinien Socialisme ou barbarie, jusqu’à la fin des années 1950, Claude Lefort (1924-2010) a cherché à repenser la démocratie comme régime politique fondé sur la conflictualité. Alors que son compagnon de lutte Cornelius Castoriadis (1922-1997) estimait qu’il fallait travailler à démocratiser le pouvoir, pour le rendre participable par tous, Lefort a imaginé une autre forme d’agir démocratique. Il s’agissait, pour lui, de contester le pouvoir en revendiquant des droits contre lui, mais sans se donner pour objectif de l’exercer, en tout cas pas directement.

La conflictualité démocratique

Ainsi, à partir de la lecture de Maurice Merleau-Ponty (1908-1961) et de Machiavel (1469-1527), mais aussi sous l’influence du psychanalyste Jacques Lacan (1901-1981), Lefort repense la société sur la base d’un clivage structurel. Cette idée de « division du social » lui permet de mieux cerner le phénomène politique, et d’en tirer des conséquences cruciales. En effet, lorsqu’on reconnaît la division de la société, il n’est plus possible de donner pour objectif à l’action politique le dépassement définitif de ces clivages. Ce que pouvait encore envisager le marxisme ou même, sous une autre forme, l’idéal républicain fondé sur l’existence d’un Bien commun.

De quoi est fait cet antagonisme social indépassable ? À suivre Machiavel, d’une division première entre deux humeurs : le désir des Grands de commander et d’opprimer le peuple ; le désir du peuple de n’être ni commandé ni opprimé par les Grands. Si ce conflit est originaire, c’est qu’il n’est pas assimilable à une opposition d’intérêts, dû à un partage inégal des positions sociales et des richesses, mais qu’il renvoie à une division plus fondamentale entre deux tendances constitutives de la cité. C’est la confrontation de celles-ci qui fait naître cette dynamique historique qu’est la politique.

Il ne faut donc pas le prendre comme un état de fait dommageable. Ce conflit, s’il est aussi porteur d’une menace de dissolution, forme la matrice d’une dynamique où les luttes pour la liberté et l’égalité engendrent un ordre qui se nourrit de ce désordre. Ainsi, c’est en vertu de ces tumultes que la cité romaine a pu instaurer des lois qui donnent forme à cet appétit de liberté.

Le lieu vide du pouvoir

La République française étant conçue comme « une et indivisible », l’idée de division est aujourd’hui souvent ramenée au risque de sédition. On tend parfois à assimiler le conflit à une sorte de guerre, certes larvée, qui conduirait au morcellement de la société et au communautarisme. Pour Lefort, c’est précisément en vertu de la division qui la scinde que la société est une politiquement : pour pouvoir entretenir un rapport avec l’autre, il faut être séparé de lui, ou alors on court le risque de la dérive fusionnelle.

C’est ici que le pouvoir entre en jeu : si les différentes composantes de la société tiennent ensemble, c’est grâce à la figuration symbolique qu’il opère à travers des procédures formelles ou des rituels institutionnels. L’unité existe via la référence à des lois communes. Elle n’est pas une identité figée sous la figure d’un chef inamovible qui incarnerait en sa chair le peuple, et auquel les citoyens seraient donc tenus de s’identifier. Une démocratie digne de ce nom doit refuser la représentation d’un « peuple-Un » (unité close sur elle-même en un sens ethnique, idéologique ou bien religieux) au nom duquel les dirigeants exerceraient le pouvoir sans y ménager aucun vide.

De ce point de vue, la démocratie doit se comprendre en tant que forme de société où le pouvoir ne relève pas de la transcendance religieuse mais est reconnu comme une instance inappropriable. Celle-ci dessine les contours d’un « lieu vide » à partir desquels peut se développer la vie politique.

C’est pourquoi Lefort parle de la démocratie comme du « régime de l’indétermination » : rien n’est jamais donné une fois pour toutes en termes d’institutions aussi bien que d’orientations politiques. Tout est virtuellement susceptible d’être remis en question. La conséquence la plus notable de cette indétermination radicale se trouve dans ce que Lefort nomme « la dissolution des repères de la certitude ».

La politique des droits de l’homme

À cet égard, l’idée d’un lieu vide du pouvoir signifie qu’un régime démocratique doit aménager une place pour le pouvoir qui ne soit appropriable par aucune force. On s’aperçoit vite qu’on en est encore loin : la démocratie apparaît à l’heure actuelle comme travaillée par de lourds mécanismes de captation et de confiscation oligarchique du pouvoir, que ce soit sur le plan politique ou sur le plan économique.

Faute d’une figuration symbolique du pouvoir, les conflits empruntent actuellement des formes plus virulentes, qui peuvent donner l’impression d’une rechute dans un état de désordre permanent. Le problème tient sans doute précisément, et paradoxalement, au refus de ces institutions de donner sa place véritable au conflit.

Claude Lefort ne propose certes rien de très concret concernant ce qu’il faudrait faire pour rendre l’appropriation du pouvoir impossible : les seules ressources à cet égard sont celles manifestées par l’inventivité démocratique. Et celle-ci ne part pas de rien : elle tire son origine, et sa force, du radicalisme démocratique porté par la révolution des droits de l’homme. Selon le philosophe, les droits de l’homme et du citoyen proclamés en 1789 se dérobent justement à tout pouvoir qui prétendrait s’en emparer – religieux ou mythique, monarchique ou populaire :

« Ils sont en conséquence, en excès sur toute formulation advenue : ce qui signifie encore que leur formulation contient l’exigence de leur reformulation ou que les droits acquis sont nécessairement appelés à soutenir des droits nouveaux. »

L’intérêt des analyses de Lefort à ce sujet consiste à faire ressortir la dimension politique des droits de l’homme. Ces derniers ne sont pas seulement des droits de l’individu opposés et opposables au pouvoir de l’État : ils sont inséparables de l’espace social démocratique. Preuve en est, ils ont été les générateurs d’un approfondissement et d’une radicalisation des institutions républicaines dans le sens de la démocratie sociale. C’est en effet en leur nom que se sont multiplié des luttes pour la conquête de droits de nature économique et sociale (droit de grève, droit de se syndiquer, droit relatif au travail et à la Sécurité sociale), mais également sur d’autres terrains, comme les droits des femmes, des immigrés, des détenus, des homosexuels, etc. Ces revendications transgressent les frontières légitimes du cadre à l’intérieur desquelles les problèmes d’ordre public étaient à l’origine censés se poser, indiquant un sens du droit et un souci pour la justice bien plus aigus que par le passé.

Le double refus de dominer et d’être dominé

Ainsi, en dépit de ses limites avérées, en tout cas dans le contexte historique de sa proclamation, la déclaration de 1789 inaugure une histoire de la contestation politique soucieuse de radicaliser les principes de l’État de droit, en cherchant à poser dans l’espace public des problèmes que les institutions républicaines ont pendant longtemps refoulés. À travers la récusation d’un pouvoir arbitraire, la Déclaration des droits de l’homme fait vaciller la représentation d’un monde absolument hiérarchisé : aucune revendication n’étant plus en soi illégitime, tous les termes du débat politique pourront faire l’objet d’une redéfinition et d’une recomposition sans fin.

De ce point de vue, le grand mérite de Lefort est d’avoir fourni la définition politique par excellence de la démocratie. On doit en effet, d’après lui, se former une représentation du peuple entendu « non comme unité souveraine indivise, non comme affirmation d’une identité communautaire, non comme hostilité à un ennemi intérieur défini selon les besoins de la construction de l’unité nationale, mais comme partage d’un simple affect fondamental qui est le refus d’être dominé et de dominer, ou encore comme ensemble hétéroclite de ceux qui n’ont pas besoin d’autre unité que leur commun désir de se soustraire au désir de domination dont ils sont l’objet de la part des « Grands » et des possédants ».

C’est cette détermination fondamentale qui se trouve investie dans les récentes mobilisations démocratiques contre le recul des droits et la régression vers l’autoritarisme, notamment les graves atteintes à l’État de droit et aux contre-pouvoirs par le gouvernement de Donald Trump aux États-Unis. En ce sens, il est tout à fait loisible de voir dans la pensée de Lefort de quoi nourrir une exigence de démocratie « intégrale ».

The Conversation

Nicolas Poirier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pour Claude Lefort, la conflictualité est le moteur de la démocratie – https://theconversation.com/pour-claude-lefort-la-conflictualite-est-le-moteur-de-la-democratie-261216

Au Japon aussi, la neutralité des médias est au cœur des débats

Source: The Conversation – France in French (3) – By César Castellvi, Sociologue, maître de conférences en études japonaises, Université Paris Cité

Croyant que son micro était éteint, un caméraman d’une grande agence de presse a laissé entendre qu’il ferait son possible pour nuire à la nouvelle cheffe du principal parti du Japon, et donc probable future première ministre. Le scandale qui s’est ensuivi a remis au premier plan une question qui existe aussi dans bien d’autres pays, à commencer par la France : celle de la neutralité des médias.


Samedi 4 octobre 2025, le monde apprenait la victoire de Sanae Takaichi à l’élection interne de la direction du Parti libéral-démocrate (PLD) japonais. Cette victoire met la principale intéressée en position de devenir la première femme premier ministre de l’histoire du Japon, nouvelle qui n’a pas manqué de faire réagir la communauté internationale.

Dans le tumulte des conférences de presse données par la possible future cheffe du gouvernement, un scandale a éclaté le 7 octobre dernier.

Lors d’une réunion de discussion sur le futur de la coalition entre le PLD et son allié traditionnel, la formation d’obédience bouddhiste Komeitō, les propos d’un caméraman de l’agence de presse Jiji présent sur place et disant à un de ses interlocuteurs, alors qu’il ignorait que son micro était ouvert, « je vais faire baisser sa cote de popularité » et « je ne publierai que des photos qui la feront baisser », ont été diffusés en direct sur la page YouTube de la chaîne Nippon TV, la principale chaîne commerciale du pays.

Malgré le caractère informel de la conversation d’origine, il n’en fallait pas plus pour que la tempête se lève et que soit lancée une chasse aux sorcières sur les réseaux sociaux pour identifier la personne à l’origine de ces commentaires. Le quotidien Asahi Shimbun relevait ainsi que la vidéo avait été vue plus de 37 millions de fois en quelques heures et suscité de très nombreux commentaires indignés.

Dès le 8 octobre, plusieurs responsables de l’agence de presse ont pris la parole à travers des communiqués afin de s’excuser publiquement et d’annoncer que le caméraman avait reçu un blâme pour son manque de professionnalisme. L’un des principaux responsables de la rédaction déplorait également le fait que ces commentaires « avaient semé le doute sur l’impartialité et la neutralité du travail journalistique ».

Si Sanae Takaichi elle-même n’a pas encore réagi, la porte-parole et responsable de la communication du PLD, Suzuki Takako, a publié le même jour un message sur le réseau social X dans lequel elle déclarait que « même si cela devait être une plaisanterie, au regard du principe de neutralité et d’impartialité politique qui s’impose à la presse, ces propos sont profondément regrettables ».

La question de la neutralité et de l’impartialité de la presse a régulièrement été mise en avant depuis le début de ce scandale. Mais qu’impliquent exactement ces notions dans le contexte japonais ?

La « neutralité politique » des médias japonais

Au moment de leur naissance, dans les années 1870, les premiers quotidiens japonais (dont un nombre important sont toujours en activité) se sont créés sur la base de rattachements partisans et militants. Il s’agissait de journaux d’opinion défendant les positions politiques des différentes factions, réformatrices ou conservatrices, qui débattaient alors de la direction à prendre pour moderniser le pays.

Moment lecture d’un journal dans le métro à Tokyo. Août 2024.
Fourni par l’auteur

Cette affiliation partisane assumée va rapidement s’effacer au fur et à mesure de l’industrialisation de la presse. Les « petits journaux » qui, comme en France, fondaient leur modèle économique sur les faits divers, les divertissements et les annonces commerciales vont d’abord prendre le pas sur les journaux d’opinion, au point de les faire disparaître.

Surtout, le contexte politique des premières décennies du XXe siècle, d’abord à la suite d’autres affaires, puis de la période nationaliste des années 1930, va pousser la plupart des rédactions à réfuter les affiliations partisanes et à proclamer leur neutralité à l’égard des partis politiques, à travers l’expression « neutralité et impartialité politiques » (fuhen futō), revenue au premier plan ces derniers jours à la suite du scandale mentionné provoqué par les propos du caméraman de Jiji. Cette formule est présente dans les chartes déontologiques de nombreux médias contemporains.

À la fin de la Seconde Guerre mondiale, les forces d’occupation américaines vont réinscrire ce principe dans leur politique de censure et d’encadrement des principaux journaux, accusés d’avoir contribué à la montée du nationalisme d’avant-guerre (sans que cela débouche sur le démantèlement des principaux quotidiens), en tentant de faire la promotion des valeurs journalistiques en vigueur de l’autre côté du Pacifique.

Quelques mois après que le Japon a recouvré son autonomie politique, la loi sur la radiodiffusion (Hōsō hō) de 1950 va elle aussi imposer ce principe de « neutralité et d’impartialité politiques » à l’ensemble des chaînes de télévision, publiques et privées, qui vont progressivement être créées durant les années qui vont suivre.

La neutralité politique au cœur de l’information

Durant la formidable expansion de la presse écrite japonaise entre les années 1960 et 1990, l’absence de position partisane dans la presse a été au cœur du mode de fonctionnement des journaux, dans un contexte de domination sans partage du Parti libéral-démocrate. Cela ne signifiait pas que les journaux ne disposaient pas de lignes éditoriales propres. Mais le soutien clair ou direct à une faction politique a très largement été proscrit, alors que l’opposition politique a perdu l’accès au pouvoir pendant plusieurs décennies.

Lecture dans le froid autour de la gare de Yokohama.
Fourni par l’auteur

La logique d’expansion des journaux s’est surtout faite sur des campagnes d’abonnement très incitatives, la promotion des événements sportifs ou encore une place très importante donnée à la couverture des faits divers. La couverture du monde politique, elle, s’est concentrée sur le suivi des stratégies internes des partis, bien plus que sur le journalisme d’investigation. Mais plus encore que la presse, c’est la télévision qui a été marquée par le principe de neutralité.

En effet, ce principe constitue une obligation légale à laquelle sont astreintes toutes les chaînes, sous peine de se voir retirer leur licence d’émission. Ainsi, les apparitions de personnalités politiques lors d’émissions télévisées ou la gestion des spots de campagne lors d’élections locales ou nationales sont, en principe, strictement encadrées.

Toutefois, le diable se cache dans les détails. Alors qu’en France ou aux États-Unis le contrôle du respect de ces règles est normalement assuré par des agences officiellement indépendantes des gouvernements (l’Arcom dans le cas français et la Federal Communications Commission aux États-Unis), au Japon l’attribution des licences comme le contrôle des contenus sont des tâches dont la charge revient au ministère des Affaires intérieures et des Communications.

Cela met ainsi tout l’audiovisuel sous le contrôle des différents gouvernements au pouvoir. Et comme nous allons le voir, un certain nombre d’affaires récentes ont montré que le pouvoir politique n’hésitait pas à rappeler sa position de force aux médias audiovisuels ne respectant pas sa conception de la « neutralité politique ».

L’injonction à la neutralité comme moyen de pression

La décennie 2010, au cours de laquelle Shinzo Abe a dirigé le Japon, a été marquée par une période de forte pression à l’encontre des médias nippons. La chute du Japon dans le classement de la liberté de la presse de Reporters sans frontières en est un des indices les plus frappants, le pays étant passé de la 11ᵉ à la 66ᵉ place en quelques années. En 2017, le rapporteur des Nations unies pour la liberté d’information et d’expression s’était d’ailleurs alarmé de la situation à l’époque, dans un rapport très largement commenté.

Revenons un moment à Sanae Takaichi. Les observateurs internationaux l’ont généralement découverte dans les années 2010, lorsqu’elle était ministre des affaires intérieures et des communications dans plusieurs des gouvernements d’Abe. Réputée proche de l’ancien premier ministre, elle a occupé cette position entre 2014 et 2017, puis entre 2019 et 2020.

Elle s’est alors fait remarquer en mentionnant lors d’une session parlementaire à la Diète, en 2016, que le gouvernement se gardait le droit de couper l’accès aux ondes des chaînes de télévision qui ne respectaient pas sa vision de « la neutralité et de l’impartialité politique ». À l’époque, cette menace s’adressait notamment aux chaînes commerciales TV Asahi et TBS, dont certains propos et émissions étaient, aux yeux d’Abe et de ses proches, trop critiques à l’encontre du gouvernement.

Bâtiment de la chaîne Asahi, à Tokyo.
C. Castellvi, Fourni par l’auteur

L’argument de Takaichi, déjà à l’époque, était celui de l’obligation de respecter le principe de « neutralité et d’impartialité » des contenus, sans que personne ne soit véritablement capable d’en définir les critères. Cela fait pourtant longtemps que le flou entoure ces principes. Malgré le tollé qu’avaient alors suscité les menaces de la ministre, les chaînes de télévision avaient fini par plier, en remplaçant certains journalistes jugés trop critiques et en modifiant leurs programmes.

Les conséquences du scandale dans un contexte de défiance à l’encontre des médias

Les propos diffusés par mégarde il y a quelques jours constituent sans conteste une faute professionnelle malheureuse de la part du caméraman qui ne pensait pas être en ligne au moment de la tenue de ses propos. Pour le moment, c’est dans l’anonymat de l’espace public numérique que la plupart des critiques se font entendre. Mais dans un contexte de défiance grandissante à l’encontre des médias d’information, la moindre erreur peut être utilisée par le monde politique pour justifier, au minimum, des prises d’initiative, au pire, des actions concrètes.

Parmi les premiers exemples, le politicien Shinji Ishimaru, connu pour son score remarqué aux élections municipales de Tokyo en juillet 2024 et ses positions critiques à l’encontre des journalistes, en a appelé aux principaux médias pour « laver leur honte en prenant leurs responsabilités ». Dans le contexte français, on a vu comment l’enregistrement des journalistes de Radio France avait ensuite été réutilisé contre le média public, en jouant sur l’argument du biais journalistique. Alors que personne ne sait encore quelle sera la politique menée par la probable future première ministre à l’égard des médias, il ne serait guère surprenant que le rapport de force qui s’était instauré entre Shinzo Abe et les médias libéraux refasse surface.

The Conversation

César Castellvi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Au Japon aussi, la neutralité des médias est au cœur des débats – https://theconversation.com/au-japon-aussi-la-neutralite-des-medias-est-au-coeur-des-debats-267284

La rivière qui cache la forêt ? L’importance de protéger les ripisylves, précieuses face aux changements globaux

Source: The Conversation – France (in French) – By Simon Dufour, Enseignant chercheur, Université Rennes 2

On parle ainsi de ripisylves pour décrire la flore qui peuple les rives et de forêts alluviales pour parler des forêts qui jouxtent les cours d’eau (et qui sont souvent des « forêts inondables »). Riches d’une biodiversité précieuse, les ripisylves rendent un grand nombre de services écosystémiques. Tout du moins, lorsque les pressions exercées par les activités humaines ne les ont pas dégradées…

Comment mieux gérer ces milieux fragiles et pourtant protecteurs, notamment face au changement climatique ? Une question à laquelle répond l’ouvrage paru en octobre 2025 aux éditions Quae, librement accessible en ligne. Dans le texte ci-dessous, ses coordinateurs scientifiques expliquent pourquoi et comment protéger ces bijoux méconnus de biodiversité.


Ripisylves et forêts alluviales, ouvrage coordonné par Marc Villar, Richard Chevalier et Simon Dufour.
Éditions Quae (2025)

Parlez de rivières, de fleuves, de ruisseaux… les images qui viennent à l’esprit sont presque systématiquement des images avec de l’eau, ou au contraire de chenaux à sec.

Pourtant, les cours d’eau ne sont pas que des tuyaux qui transportent de l’eau, ce sont aussi des forêts. En conditions naturelles, une végétation particulière pousse en effet sur leurs berges, à laquelle on donne plusieurs noms : ripisylve, forêt alluviale, boisement riverain, cordon riparien, forêt-galerie, etc.

Ces forêts méritent d’être mieux connues : elles représentent en effet un atout important pour la gestion durable des territoires dans le contexte des changements globaux (changement climatique, déclin de la biodiversité, etc.) que nous vivons.




À lire aussi :
« Méandres ou la rivière inventée » : comment refaire monde avec les rivières ?


Une forêt pas comme les autres

Quel que soit le nom que l’on donne à ces forêts, cette végétation est particulière, car elle est connectée au cours d’eau.

Lors des inondations par exemple, de l’eau passe du chenal vers la forêt, et avec elle aussi des sédiments, des graines, des nutriments, etc. Il en résulte des conditions écologiques différentes du paysage alentour. Par exemple, la végétation a accès à davantage d’eau et pousse plus vite.

Mais elle doit également s’adapter à la présence de l’eau. Celle-ci peut engorger le substrat pendant plusieurs semaines, et les crues qui peuvent éroder les sédiments – et, par la même occasion, arracher le substrat sur lequel elle pousse.

Les forêts de bord de cours d’eau sont donc des écosystèmes uniques : ni complètement aquatiques ni complètement terrestres, composés d’une végétation particulière avec des espèces adaptées comme les saules, les aulnes, les peupliers, etc.

Un saule pleureur sur l’Ognon en Franche-Comté.
Arnaud 25/WikiCommons, CC BY-SA

Non seulement elles abritent des espèces spécifiques, ce qui augmente la biodiversité à l’échelle régionale, mais elles en accueillent aussi une grande quantité sur des surfaces relativement petites. En effet, les conditions sont localement très variables (de très humides à très sèches), ce qui crée des mosaïques d’habitats.

Des observations réalisées sur une trentaine de sites couvrant seulement 7,2km2 le long de l’Adour (dans le sud-ouest de la France, ndlr) recensent ainsi près de 1 500 espèces végétales pour ce seul cours d’eau. Cela représente environ 15 % de la flore vasculaire – un groupe de plantes qui recoupe les angiospermes (ou, plantes à fleurs), les gymnospermes, les monilophytes et les lycophytes – de France métropolitaine, alors que la surface couverte ne représente que 0,0013 % du territoire français.

Le cours d’eau influence donc la végétation des rives, mais les forêts des bords de cours d’eau influencent aussi grandement le fonctionnement de ce dernier en retour.

De multiples services rendus à la société

Les forêts alluviales et les ripisylves ne sont pas seulement des viviers de biodiversité : elles fournissent également des services écosystémiques précieux pour nos sociétés.

Elles participent ainsi aux stratégies d’atténuation face au changement climatique, en stockant du carbone en grande quantité. Du fait des conditions humides, leur croissance et leur biomasse sont parfois aussi importantes que celles des forêts tropicales. En été, elles limitent la hausse de la température de l’eau des petites rivières jusqu’à 5 °C, ce qui est précieux pour la faune aquatique. En outre, elles piègent des sédiments, des nutriments et des substances qui dégradent la qualité physico-chimique des cours d’eau.

Dans certaines conditions, elles contribuent par ailleurs à ralentir la propagation et à réduire l’ampleur des ondes de crues entre l’amont et l’aval des bassins versants.

https://commons.wikimedia.org/wiki/File:CastoridaeCastorfiber1.jpg
Les ripisylves sont appréciées de nombreuses espèces, comme le castor, mais également des promeneurs.
Nasser Halaweh/Wikimédia, CC BY-SA

Au-delà de leur biodiversité végétale propre, elles fournissent des ressources alimentaires, des habitats et des corridors de déplacement à de nombreuses espèces aquatiques, semi-aquatiques et terrestres, telles que les poissons, le castor, les chauves-souris, etc. Elles participent, enfin, à former un paysage agréable, apprécié des différents usagers des cours d’eau (promeneurs, pêcheurs, cyclistes, etc.).

Ces forêts ne sont toutefois pas miraculeuses. La qualité de l’eau dépend également d’autres éléments, comme les pressions sur la biodiversité qui s’exercent dans le bassin versant.

Si la présence de ces forêts est un réel atout, elle n’est pas un blanc-seing qui permettrait de faire l’impasse sur les effets de certaines activités humaines, comme l’artificialisation des sols, l’agriculture intensive, les rejets de stations d’épuration ou le relargage de plastiques, sur la qualité des cours d’eau. Historiquement, les cours d’eau et leurs abords ont en effet souvent concentré ces impacts délétères.

Un joyau sous pression

À l’échelle de l’Europe, on estime que seuls 30 % des zones riveraines de cours d’eau sont encore boisées, alors qu’elles pourraient l’être à plus de 95 %.

Ce chiffre cache toutefois une très grande variabilité entre pays : ce taux peut atteindre une moyenne de 50 % en Scandinavie et descendre à 10 % en Angleterre et en Irlande. Dans certaines régions de moyenne montagne ou de déprise rurale, les superficies augmentent, mais à l’échelle continentale, ces milieux continuent de régresser. Entre 2012 et 2018, 9 000 hectares ont disparu chaque année, en Europe. Près de 50 % de ces étendues ont été réaffectées en surfaces bâties, 25 % en parcelles cultivées et 25 % en praires.

Une ripisylve sous pression (route, autoroute, voie ferrée, gravière, usine, carrière, habitations, etc.), la vallée l’Arc au niveau de Saint-Jean-de-Maurienne (Savoie).
Marc Villar, Fourni par l’auteur

Lorsqu’ils existent, ces boisements subissent en outre d’autres pressions : perte de caractère humide du fait des prélèvements en eau et du changement climatique, présence d’espèces exotiques envahissantes, propagation de maladies touchant les arbres comme le phytophthora ou la chalarose, mauvaises pratiques d’entretien, etc.

Résultat : ils sont parmi les habitats semi-naturels européens dans le plus mauvais état de conservation, puisque seulement 5 % sont considérés comme dans un état favorable. Or, il a été démontré que le faible boisement des berges et leur dégradation limitent drastiquement leur qualité écologique et leur capacité à rendre les services écosystémiques mentionnés plus haut.

Dépasser la volonté de « faire propre »

Reconnaître toute la valeur des forêts des bords de cours d’eau doit amener à définir comme objectifs prioritaires des politiques environnementales trois grandes stratégies :

  • conserver l’existant,
  • restaurer ce qui est dégradé,
  • et améliorer les pratiques quotidiennes de gestion.
Vidéo de sensibilisation à la préservation des ripisylves destinée aux élus et aux propriétaires riverains.

Mais il ne suffit pas d’énoncer ces grands principes. Leur mise en œuvre concrète et à large échelle peut s’avérer complexe du fait de la coexistence d’enjeux multiples, qui relèvent de plusieurs échelles spatiales et impliquent de nombreux acteurs : inondations, biodiversité, quantité et qualité de l’eau, usages divers, espèces envahissantes, obstacles à l’écoulement, etc.

Grande plaine inondable boisée par une large forêt alluviale dans le bassin de l’Èbre en Espagne.
Patricia Rodríguez-González, CC BY-NC-SA

Heureusement, des solutions existent : plan pluriannuel de gestion, diagnostic et gestion sectorisés, techniques de génie végétal, méthodes et indicateurs de suivi adaptés, outils de conception des actions de restauration ou des mesures de conservation, etc.

Beaucoup reste à faire : la gestion des forêts alluviales et des ripisylves s’appuie parfois plus sur l’habitude ou sur la volonté de « faire propre » que sur l’évaluation factuelle des enjeux. Elle doit aussi être considérée comme suffisamment prioritaire pour que des moyens humains et financiers suffisants lui soient consacrés et que les bonnes pratiques soient plus largement partagées.

Mais c’est une logique payante pour relever les enjeux environnementaux contemporains, notamment en matière de moyens financiers et humains, car ces forêts apportent de nombreux bénéfices alors même qu’elles occupent une superficie réduite et qu’elles ont été très dégradées. À l’interface entre l’eau et la terre, les ripisylves et les forêts alluviales souffrent d’une faible visibilité, aussi bien dans les politiques environnementales que dans le grand public, ce qui constitue un frein à leur prise en compte. Il s’agit donc de travailler à faire (re)connaître leurs valeurs, leurs fonctions et leurs spécificités.

The Conversation

Simon Dufour a reçu des financements des programmes européens COST Action CA 16208 et Horizon 2020.

Marc Villar a reçu des financements principalement du Ministère de l’Agriculture (MASA) et de la Région Centre-Val de Loire pour ses recherches sur le programme national de conservation des ressources génétiques du Peuplier noir.

Richard Chevalier est ingénieur retraité de l’INRAE (UR EFNO), il continue à utiliser cette affiliation pour des valorisations concernant ses activités de recherche antérieures. Il exerce de l’expertise, du conseil, de l’appui technique et de l’enseignement en phytoécologie dans le cadre de son auto-entreprise CHEPHYTEC. Il exerce aussi du conseil et de l’appui technique bénévoles en phytoécologie pour des associations naturalistes : Conservatoire d’espaces naturels Centre-Val de Loire (CEN CVL), Loiret Nature Environnement (LNE) et Cultur’AuxBarres (MLC Nogent-sur-Vernisson)

ref. La rivière qui cache la forêt ? L’importance de protéger les ripisylves, précieuses face aux changements globaux – https://theconversation.com/la-riviere-qui-cache-la-foret-limportance-de-proteger-les-ripisylves-precieuses-face-aux-changements-globaux-265076

Stethoscope, meet AI – helping doctors hear hidden sounds to better diagnose disease

Source: The Conversation – USA – By Valentina Dargam, Research Assistant Professor of Biomedical Engineering, Florida International University

The basic premise of the stethoscope has been around for centuries, largely unchanged. Jonathan Kitchen/DigitalVision via Getty Images

When someone opens the door and enters a hospital room, wearing a stethoscope is a telltale sign that they’re a clinician. This medical device has been around for over 200 years and remains a staple in the clinic despite significant advances in medical diagnostics and technologies.

The stethoscope is a medical instrument used to listen to and amplify the internal sounds produced by the body. Physicians still use the sounds they hear through stethoscopes as initial indicators of heart or lung diseases. For example, a heart murmur or crackling lungs often signify an issue is present. Although there have been significant advances in imaging and monitoring technologies, the stethoscope remains a quick, accessible and cost-effective tool for assessing a patient’s health.

Though stethoscopes remain useful today, audible symptoms of disease often appear only at later stages of illness. At that point, treatments are less likely to work and outcomes are often poor. This is especially the case for heart disease, where changes in heart sounds are not always clearly defined and may be difficult to hear.

We are scientists and engineers who are exploring ways to use heart sounds to detect disease earlier and more accurately. Our research suggests that combining stethoscopes with artificial intelligence could help doctors be less reliant on the human ear to diagnose heart disease, leading to more timely and effective treatment.

History of the stethoscope

The invention of the stethoscope is widely credited to the 19th-century French physician René Theophile Hyacinthe Laënnec. Before the stethoscope, physicians often placed their ear directly on a patient’s chest to listen for abnormalities in breathing and heart sounds.

In 1816, a young girl showing symptoms of heart disease sought consultation with Laënnec. Placing his ear on her chest, however, was considered socially inappropriate. Inspired by children transmitting sounds through a long wooden stick, he instead rolled a sheet of paper to listen to her heart. He was surprised by the sudden clarity of the heart sounds, and the first stethoscope was born.

Wooden tube with writing wrapped around one side
One of René Laënnec’s original wooden stethoscopes.
Science Museum London/Science and Society Picture Library, CC BY-NC-SA

Over the next couple of decades, researchers modified the shape of this early stethoscope to improve its comfort, portability and sound transmission. This includes the addition of a thin, flat membrane called a diaphragm that vibrates and amplifies sound.

The next major breakthrough occurred in the mid-1850s, when Irish physician Arthur Leared and American physician George Philip Cammann developed stethoscopes that could transmit sounds to both ears. These binaural stethoscopes use two flexible tubes connected to separate earpieces, allowing clearer and more balanced sound by reducing outside noise.

These early models are remarkably similar to the stethoscopes medical doctors use today, with only slight modifications mainly designed for user comfort.

Listening to the heart

Medical schools continue to teach the art of auscultation – the use of sound to assess the function of the heart, lungs and other organs. Digital models of stethoscopes, which have been commercially available since the early 2000s, offer new tools like sound amplification and recording – yet the basic principle that Laënnec introduced endures.

When listening to the heart, doctors pay close attention to the familiar “lub-dub” rhythm of each heartbeat. The first sound – the lub – happens when the valves between the upper and lower chambers of the heart close as it contracts and pushes blood out to the body. The second sound – the dub – occurs when the valves leading out of the heart close as the heart relaxes and refills with blood.

Diagram of stethoscope
The diaphragm and bell of a stethoscope transmit different sound frequencies to the listener.
Jarould/Wikimedia Commons, CC BY-SA

Along with these two normal sounds, doctors also listen for unusual noises – such as murmurs, extra beats or clicks – that can point to problems with how blood is flowing or whether the heart valves are working properly.

Heart sounds can vary greatly depending on the type of heart disease present. Sometimes, different diseases produce the same abnormal sound. For example, a systolic murmur – an extra sound between first and second heart sounds – may be heard with narrowing of either the aortic or pulmonary valve. Yet the very same murmur can also appear when the heart is structurally normal and healthy. This overlap makes it challenging to diagnose disease based solely on the presence of murmurs.

Teaching AI to hear what people can’t

AI technology can identify the hidden differences in the sounds of healthy and damaged hearts and use them to diagnose disease before traditional acoustic changes like murmurs even appear. Instead of relying on the presence of extra or abnormal sounds to diagnose disease, AI can detect differences in sound that are too faint or subtle for the human ear to detect.

To build these algorithms, researchers record heart sounds using digital stethoscopes. These stethoscopes convert sound into electronic signals that can be amplified, stored and analyzed using computers. Researchers can then label which sounds are normal or abnormal to train an algorithm to recognize patterns in the sounds it can then use to predict whether new sounds are normal or abnormal.

Doctor holding stethoscope to patient's chest
Stethoscopes can capture diagnostic information the human ear alone cannot hear.
Drs Producoes/E+ via Getty Images

Researchers are developing algorithms that can analyze digitally recorded heart sounds in combination with digital stethoscopes as a low-cost, noninvasive and accessible tool to screen for heart disease. However, a lot of these algorithms are built on datasets of moderate-to-severe heart disease. Because it is difficult to find patients at early stages of disease, prior to when symptoms begin to show, the algorithms don’t have much information on what hearts in the earliest stages of disease sound like.

To bridge this gap, our team is using animal models to teach the algorithms to analyze heart sounds to find early signs of disease. After training the algorithms on these sounds, we assess its accuracy by comparing it with image scans of calcium buildup in the heart. Our research suggests that an AI-based algorithm can classify healthy heart sounds correctly over 95% of the time and can even differentiate between types of heart disease with nearly 85% accuracy. Most importantly, our algorithm is able to detect early stages of disease, before cardiac murmurs or structural changes appear.

We believe teaching AI to hear what humans can’t could transform how doctors diagnose and respond to heart disease.

The Conversation

Valentina Dargam receives funding from Florida Heart Research Foundation and National Institute of Health.

Joshua Hutcheson receives funding from the Florida Heart Research Foundation, the American Heart Association, and the National Heart, Lung, and Blood Institute of the National Institutes of Health.

ref. Stethoscope, meet AI – helping doctors hear hidden sounds to better diagnose disease – https://theconversation.com/stethoscope-meet-ai-helping-doctors-hear-hidden-sounds-to-better-diagnose-disease-267373

Why and how does personality emerge? Studying the evolution of individuality using thousands of fruit flies

Source: The Conversation – USA – By Shraddha Lall, Ph.D. Candidate in Organismic and Evolutionary Biology, Harvard University

Even fruit flies have personal preferences. Antagain/E+ via Getty Images

As a Ph.D. student, I wanted to understand the evolution of individual differences in fruit fly behavior – the building blocks of personality. My experiments involved measuring how my tiny subjects acted in a maze.

So each day in the lab began with using a thin paintbrush to lift a single, anesthetized fruit fly and transfer it into a simple maze. After it woke up and had explored the maze, I’d place the fly – careful not to let it escape in transit – back into a tube where it could eat and hang out while I decided its fate.

My labmates and I repeated that process again and again, ultimately measuring the behavior of 900 individual flies daily.

white net cubes with bugs visible inside
As many as 1,500 flies live in each of these Drosophila population cages. The bottles inside contain the food medium they eat and lay eggs on. Researchers can reach in the side to extract fruit flies.
Shraddha Lall

I listened to countless podcasts and audiobooks over many days of moving lots of flies around by hand and keeping track of their individual identities, but this wasn’t how I’d originally planned this experiment. I had been excited to work with MAPLE, my lab’s robot, to automate the first and last steps of the process. MAPLE would grab individual flies, safely move them into their own tiny mazes, and back out after I’d measured their behaviors.

I’d been trying for months to modify MAPLE’s code. I finally got it running smoothly – and then on Day 1 of my 500-day experiment, MAPLE did not work.

MAPLE hard at work moving flies into Y-mazes.

After a little bit of panic, and a lot of deep breathing, I decided to power through without the robot’s help. MAPLE’s refusal to cooperate was the first of many obstacles I faced as I continued my experiment for the next year and a half. During this time, I learned a lot about the building blocks of personality – as well as the challenges of doing scientific research and how to work around them.

Animals have personalities

As an evolutionary biologist who studies animal behavior, I’m fascinated that no two individuals are completely alike. Think about the animal friends in your life — cats and dogs have unique personalities and idiosyncrasies, whether it’s a specific food they hate or a particular way they like to nap.

All animals – from the smallest worm to the biggest whale – have personalities: individual behavioral preferences that remain more or less stable throughout their lifetime. In Drosophila melanogaster, the fruit flies I worked with, individuality is evident in simple binary behaviors. Individual flies show a preference for turning left or right, choosing a hot or cool environment, preferring brightly lit areas or the shade, and many other idiosyncrasies.

Both nature and nurture influence animal personality. The environment during development can play a crucial role in some instances. In others, genes inherited from parents can drive preferences. In certain populations of fruit flies, for example, parents that like hot temperatures increase the chances that offspring prefer hot temperatures.

extreme closeup of a fruit fly headon, with big red eyes
All animals, including fruit flies, have individual preferences that are the building blocks of their personalities.
vasekk/iStock via Getty Images Plus

It is also possible for genes to influence how much individuals differ from each other. For instance, certain combinations of genes can lead individual fruit flies to have widely different temperature preferences, with some liking colder temperatures and others preferring it warm. These genes determine how wide the range of temperatures an individual’s preferences are drawn from.

Scientists have found genes that influence variation in traits in many animals and plants, so evolution seems to have kept them around for a reason. But what’s the benefit of a gene that makes individuals within a group different from each other?

The benefits of variation

An evolutionary theory called bet-hedging suggests that in an unpredictable environment, having options can be less risky. When conditions are fluctuating, there is no one behavior that is best suited for the environment. Variability-influencing genes can be adaptive in this situation.

Take temperature preference, for example.

Imagine that an organism can have either a low temperature-variability gene, which I will call low-var, or a high temperature-variability gene, high-var. Animals with the low-var gene have similar temperature preferences and can all survive and reproduce when the environment has stable, average temperatures. Comparatively, animals with high-var have very different temperature preferences from each other.

When the environment has average, stable temperatures, the preference of some animals with the high-var gene may be a good fit for conditions. They’ll be able to reproduce, but many other high-var individuals may not.

However, if temperatures fluctuate unpredictably, going below or above the average, all the low-var animals will be unfit and unable to pass on their genes. The low-var population would completely collapse.

In the high-var group, no matter how the environment fluctuates, there would be some individuals whose particular temperature preference makes them able to survive, reproduce and pass on the high-var gene.

alt
Bet-hedging theory explains how a gene increasing variability can be beneficial when the environment fluctuates. In the first generation, the low- and high-variability flies are well-suited to a warm environment. In the second generation, the environment is cool and the low-variability offspring aren’t fit for the conditions, while at least one fly from the high-variability line is.
Shraddha Lall

The competition underlying evolution is a fight for which genes win out and are able to persist over time. In fluctuating environments, a gene that makes the individuals variable across a certain trait, such as temperature preference, has a better chance of persisting long term. Populations with these kinds of bet-hedging genes can therefore have a higher chance of surviving in unpredictable environments.

How can evolution shape this variation, and what kinds of genes are involved? To answer this question, I turned to artificial selection. This process is akin to how humans have domesticated plants and animals for millennia. An experimenter screens individuals from a population for a trait of interest, and only those that meet a certain threshold are allowed to reproduce to create the next generation. Instead of nature deciding who survives, the researcher chooses.

Variability in behavior responds to evolution

To evolve high variability, I picked a simple behavior: turn bias. When given a choice to turn left or right in a Y-shaped maze, some flies almost always choose left, others almost always choose right, and others choose left sometimes and right sometimes. These preferences remain stable over their lifetime, and their genetic background plays a role in determining it.

a fly is at the top of a white upside-down Y in a circular container
Which way will the fruit fly go, left or right?
Shraddha Lall

While the particular turn bias is not inherited – a left-turning mom and a left-turning dad don’t necessarily make left-turning fly babies – the variability in turn bias can be influenced by genes. This potential for variability can be considered the fly’s “personality” – whether that’s a strong preference for one direction or a more flexible approach.

For 21 generations, I used video and a type of AI called computer vision to track thousands of flies. I focused on siblings that shared a mother. If a sibling group made very similar turn choices, they likely had low-variability genes. If a group of siblings was mixed in terms of how biased they were for turning left or right, it was likely their lineage had a high-variability gene.

The next step was the artificial selection. I’d choose the families most likely to have the high-variability genes to mate and produce the next generation.

Computer vision can track individual flies in mazes and record their movements.

At the end of my experiment, I had evolved populations with very high levels of turn-bias variability. My results showed that variability in traits and increased individuality in behaviors can evolve in response to selection, definitely in the lab and potentially also in nature.

Now, I’m working on figuring out what happened to their genes as the flies evolved, and how their bodies and brains might have changed when I forced them onto this evolutionary path.

Creating a world where bet-hedging dominates

I now knew that increased behavioral individuality can evolve. That is, flies can evolve differing personalities driven by selection. Could I recreate in the lab the environmental conditions that would lead to this evolution in nature?

Fruit flies are ectotherms, meaning they need to get heat from external sources. Their temperature preference ensures that they find a suitable environment to live and lay eggs in. In a world with increasing unpredictability in temperatures, bet-hedging strategies may evolve as animals adapt.

Based on bet-hedging theory, I hypothesized that evolving in an unpredictable thermal environment in the lab, with temperatures fluctuating over generations, would lead to the evolution of higher variability in temperature preferences.

With this in mind, a labmate and I began creating houses for flies where we could control temperatures of different areas and change them over time. Unfortunately, time and logistics stopped this experiment, and it sits in storage now. I hope to continue this work someday.

My fly experiments taught me a lot about how animal behavior evolves, and also a lot about the process of doing research. There have been two constants – first, sometimes things don’t work out, and that’s OK. And second, regardless of the challenges – including broken robots, long hours and paused experiments – I want to keep exploring how evolution can shape personality as animals adapt to changing environments.

The Conversation

Shraddha Lall was affiliated with The Conversation U.S. as a AAAS Mass Media Science Fellow for summer 2025.

ref. Why and how does personality emerge? Studying the evolution of individuality using thousands of fruit flies – https://theconversation.com/why-and-how-does-personality-emerge-studying-the-evolution-of-individuality-using-thousands-of-fruit-flies-261615