China and the US are in a race for critical minerals. African countries need to make the rules

Source: The Conversation – Africa – By James Boafo, Lecturer in Sustainability and Fellow of Indo Pacific Research Centre, Murdoch University

Critical minerals such as lithium, cobalt, nickel, copper, rare earth elements, and platinum group metals are essential for modern technologies. They are key to industries ranging from electronics and telecommunications to renewable energy, defence, and aerospace systems.

The global demand for these minerals has been growing, as has the competition for them.

The supply and production of these minerals is largely concentrated in the global South. Most of the world’s cobalt is produced in the Democratic Republic of Congo (DRC). It produces almost three-quarters of the global cobalt output. Australia produces nearly half of the world’s lithium. Chile accounts for another quarter of global lithium production, with China following at 18%.

China dominates the supply chain through massive investments in mining operations, particularly in Africa. It is responsible for refining 90% of rare earth elements and graphite, and 60-70% of lithium and cobalt. The United States and European Union — long-term trading partners with African nations — have also adopted policies to secure access to Africa’s resources.

The question is what African countries are doing to take advantage of this demand for these critical minerals, especially to drive their own development.

As development researchers we address this question in a special publication on the rising significance of critical minerals in Africa by the Indian Council of World Affairs. In another publication, we look at how emerging resource diplomacy may reinforce Africa’s position in the global economy as a mere source of raw materials.

We recommend that African countries determine for themselves how to benefit from this global competition. This includes developing national strategies that emphasise local value addition and benefits. Also, national strategies should begin positioning African countries to gain from their resources beyond value addition.

The competition for Africa’s critical minerals underscores the urgency of governance reforms and regional cooperation to transform mineral wealth into sustainable prosperity, avoiding another “resource curse.”

The emerging ‘New World Order’

A Chinese-led ‘New World Order’ is emerging to counter the US-led Western influence. Eastern and global South countries demonstrate this shift through groupings like BRICS and South-South cooperation in technology and development. China has strengthened its influence in the global South through initiatives such as the Belt and Road Initiative.

Launched in 2013, the Belt and Road Initiative is an ambitious infrastructure project that connects continents by land and sea. Since then, over 200 agreements have been signed with over 150 countries and 30 international organisations. The initiative has expanded China’s access to resources. This is often in exchange for infrastructure development that links mining regions to ports.

In Africa, China has invested heavily in mining and infrastructure. Its firms have spent about US$4.5 billion in lithium projects in Zimbabwe, the DRC, Mali, and Namibia. China’s strategic focus includes resource-rich countries such as the DRC, Zimbabwe, Zambia, South Africa and Ghana.

China recently marked the 80th anniversary of the end of World War II with a military parade. The parade projected China’s military strength with President Xi warning that China is “unstoppable.”

China is emboldened by its influence and access to critical minerals. This has strengthened its ability to acquire military hardware and other advanced technologies.

Competition for Africa’s critical minerals

Africa holds about 30% of the world’s critical mineral deposits, making it central to geopolitical contest. The US and EU have sought agreements to secure supplies and reduce reliance on China.

The EU has strategic partnerships on minerals with the DRC, Rwanda, Namibia and Zambia. China has bilateral agreements with eleven African countries in the mining sector. The US also has a trilateral agreement with the DRC and Zambia. Its purpose is to support an integrated value chain for electric vehicle (EV) batteries. It also recently signed a ‘Minerals for Peace’ deal with the DRC and Rwanda to help end decades of conflict in eastern Congo.

Although African countries need support to turn their resources into prosperity, our research found that these partnerships risk reinforcing Africa’s marginal position in the global value chain. They often reproduce conditions reminiscent of colonialism: dependency, resource extraction, and power imbalances.

The way forward

Our research argues that the struggle between the US-led and Chinese-led world orders will hinge on a few things. One is control over emerging technologies. These include renewable energy, defence, aerospace, and AI — all of which depend on critical minerals. Expanded access to, and control of, these minerals and their supply chains will be a key determinant of global power.

Competition between the US and China for critical minerals will intensify. Yet it is crucial that African countries remain neutral. They must engage only in meaningful, mutually beneficial partnerships that genuinely advance their countries and its economies.

African countries must explicitly define their priorities in the extractives sector. Without clear strategies, external powers will continue to dictate Africa’s future. The continent will be locked into dependency rather than enabling it to capture real value from its mineral wealth.

Finally, rather than just competing for Africa’s critical minerals, China, the US, and the EU should equitably engage with African countries in the extractives sector to ensure just development across the continent.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. China and the US are in a race for critical minerals. African countries need to make the rules – https://theconversation.com/china-and-the-us-are-in-a-race-for-critical-minerals-african-countries-need-to-make-the-rules-265318

Diane Keaton thrived in the world of humour – and had the dramatic acting chops to back it up

Source: The Conversation – Global Perspectives – By Chris Thompson, Lecturer in Theatre, Australian Catholic University

In the chilling final scene of Francis Ford Coppola’s 1972 masterpiece, The Godfather, the door to Michael Corleone’s office is closed in the face of his wife, Kay. It simultaneously signified the opening of many more doors for the career of actor Diane Keaton.

In that film, so heavily dominated by male actors, Keaton more than holds her own. For someone who would become known for her daffy, comic style, it showed us she also had serious dramatic acting chops.

The multi-award-winning actor, producer and director has died at the age of 79. She leaves behind a legacy of memorable roles in films that include classics such as The Godfather and Annie Hall, spanning genres from comedy to drama.

First steps on stage

Keaton started life in Los Angeles as Diane Hall on January 5 1946. The eldest child of Dorothy and Jack Hall, she was the only one of her siblings – brother Randy and sisters Robin and Dorrie – to show interest in the theatre. It came about in an unconventional way.

When she was “eight or nine”, she told NPR’s Fresh Air in 2004, her mother won “Mrs Los Angeles”

I remember sitting down [in the audience] watching her being crowned. It was that she was the perfect homemaker. […] I did not want to be a happy homemaker, that did not appeal to me. But I did want to go on stage. I saw that that was something that did appeal to me. There she was in the theatre, and I saw the curtain open and there was my mother. And I thought, ‘I think I like that for myself’.

Her career began as a teenage Blanche in Santa Ana High School’s production of A Streetcar Named Desire.

In her 2011 memoir, Then Again, she remembers her father coming backstage:

I could tell he was surprised by his awkward daughter – the one who’d flunked algebra and smashed the new Ford station wagon. For one thrilling moment, I was his Seabiscuit, Audrey Hepburn, and Wonder Woman rolled into one.

She began drama studies at nearby Santa Ana College but soon dropped out, took her mother’s maiden name – Keaton – and travelled to New York to study at the Neighbourhood Playhouse.

In a mini-dress wearing a beret.
Diane Keaton photographed in 1969.
Nick Machalaba/WWD/Penske Media via Getty Images

In 1968, after a stint in summer stock, she was cast as an understudy in Hair on Broadway. She was 19 and famously refused to do the nude scene.

“It wasn’t for any sort of philosophical reason,” she told the New York Times in 1972, “It was just that I was too scared.”

Silver screen breakout

Her heart was set on the big screen which, of course, meant starting out on the small screen in shows like The FBI (“The worst thing I have ever done,” she told the New York Times. “I was unanimously, resoundingly bad!”) and Night Gallery.

Instead, it was theatre that led to her breakout screen roles.

In 2023, Francis Ford Coppola revealed to Hollywood Reporter he had seen Keaton in Hair.

He later told Keaton he cast her in The Godfather because,

although you were to play the more straight/vanilla wife, there was something more about you, deeper, funnier, and very interesting. (I was right).

Allen plays a guitar while Keaton watches.
Woody Allen and Diane Keaton in a scene from Allen’s 1971 film Play It Again, Sam.
FilmPublicityArchive/United Archives via Getty Images

Then she auditioned for a new theatrical comedy, Play it Again, Sam, by up-and-coming comedian Woody Allen. That turned out to be what’s known in romantic comedies as a meet cute.

It led not only to their much-publicised relationship, but to a significant collaboration in eight films including the 1977 hit Annie Hall.

For that role, Keaton won the Oscar for best actress. And her costume, designed by Ruth Morley, made her a fashion icon of the 70s. She also gave us the whimsical phrase, “la di dah”.

It’s often thought that Annie Hall was about her relationship with Allen, but as she told the New York Times, “It’s not true, but there are elements of truth in it”.

A force

For the next five decades, Keaton would become a Hollywood force.

She had comic roles in films like The First Wives Club (1996), Something’s Gotta Give (2003) and the Father of the Bride franchise. Alongside these comedies were remarkable dramatic roles in Looking for Mister Goodbar (1977), Reds (1981), The Little Drummer Girl (1984), Crimes of the Heart (1986), Marvin’s Room (1996) and two more Godfather films.

She was also a notable director of films like Unstrung Heroes (1995), Hanging Up (2000), Heaven (1987) and even an episode of Twin Peaks.

Keaton smiles while Gould gestures.
Diane Keaton and Elliott Gould in a scene from the 1989 movie The Lemon Sisters.
Michael Ochs Archives/Getty Images

In addition to Annie Hall’s Oscar, BAFTA and Golden Globe, she received Oscar nominations for Reds, Marvin’s Room and Something’s Gotta Give (for which she won her second Golden Globe). She was also nominated for a Tony, two Emmys and another seven Golden Globes.

Despite much-publicised relationships with Al Pacino, Woody Allen and Warren Beatty, Keaton chose to remain single her whole life. In her 50s, she adopted two children, Dexter and Duke.

On the red carpet.
Keaton with her co-stars in 2023’s Book Club: The Next Chapter, L-R Mary Steenburgen, Jane Fonda, Candice Bergen and Keaton.
Dimitrios Kambouris/Getty Images

A rich creative life

Keaton made comedy look easy but told the New York Times in 1977 that “both comedy and drama are equally difficult”.

She later told Fresh Air,

You’re constantly battling with yourself when you’re acting in a [dramatic] part, at least I am. Because it’s just not that easy for me. I think I’m more inclined to live comfortably in the world of humour.

Either way, we were the richer for her creative life and are the poorer for her loss.

The Conversation

Chris Thompson does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Diane Keaton thrived in the world of humour – and had the dramatic acting chops to back it up – https://theconversation.com/diane-keaton-thrived-in-the-world-of-humour-and-had-the-dramatic-acting-chops-to-back-it-up-267293

Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?

Source: The Conversation – France (in French) – By Alice Mirailler, Ph.D. Candidate, Laboratoire de Mécanique des Contacts et des Structures LaMCoS, INSA Lyon – Université de Lyon

Alors que la 50e édition du salon EquipAuto, salon international des pros de l’automobile, s’ouvre à Paris ce 14 octobre, penchons-nous sur l’autre problème de pollution, grandissant, posé par toutes les voitures, même électriques : les émissions hors échappement, dues à l’usure des freins, des pneus et de la chaussée. La question est indépendante de l’enjeu de réduire les émissions à l’échappement des voitures neuves, qui ont déjà fortement diminué du fait des progrès techniques. Une norme européenne, qui doit entrer en vigueur en 2026, entend les réduire, mais sa mise en œuvre pourrait ne pas livrer les effets escomptés.


Au 1er janvier 2024, le parc routier français était constitué de 39,3 millions de voitures particulières, de 6,5 millions de véhicules utilitaires légers (VUL), de 625 000 poids lourds et de 94 000 autobus et autocars en circulation.

Dans les contextes de forte densité du trafic, les émissions polluantes liées au transport routier restent un enjeu majeur de santé publique. En France, les véhicules particuliers sont à l’origine de plus de la moitié des émissions de gaz à effet de serre du secteur des transports. En 2019, ils représentaient 26 % des émissions nationales d’oxyde d’azote (NOx), un polluant irritant pour les voies respiratoires, et 22 % des émissions nationales de CO2.

Si les émissions à l’échappement, dues à la combustion dans les moteurs, ont été progressivement réduites grâce aux normes antipollution successives, une attention croissante est désormais portée aux émissions dites hors échappement, issues notamment de l’usure des freins, des pneus et de la chaussée.

La future norme Euro 7, qui entrera en vigueur à partir de 2026, marque une étape importante en intégrant pour la première fois ces sources de pollution non négligeables… sans pour autant résoudre tous les problèmes.

Émissions hors échappement : de quoi parle-t-on ?

Au cours des dernières années, des recherches scientifiques et industrielles ont permis d’importantes diminutions des émissions à l’échappement des véhicules récents, essence ou diesel. Cela résulte de l’allègement des véhicules, de la réduction de la consommation des moteurs thermiques et de l’installation des filtres à particules (FAP) pour limiter les émissions issues de la combustion du carburant.

Ce qui pèse désormais davantage dans l’empreinte environnementale des voitures, ce sont les émissions hors échappement. Elles regroupent les particules provenant de l’abrasion des freins et des pneus ainsi que de la remise en suspension des poussières sur la chaussée au passage des véhicules.

Si elles ne représentaient que 16 % des particules avec un diamètre inférieur à 10 micromètres (μm) (PM10) totales émises par le transport routier en 1990, cette part a atteint 71 % en 2022. Pour les particules avec un diamètre inférieur à 2,5 μm, ce chiffre est passé de 9 % en 1990 à 57 % en 2022.

Or, les réduire constitue un défi : la sécurité routière dépend justement de l’adhérence des pneus et de l’efficacité du freinage – deux sources inévitables de particules.

Quel impact sur notre santé ?

Lorsque les particules émises par les véhicules sont inhalées, elles se déposent dans différentes régions du système pulmonaire en fonction de leur taille. Les plus dangereuses pour la santé sont les PM1, c’est-à-dire les particules dont le diamètre est inférieur à 1 micromètre, car elles peuvent pénétrer profondément jusqu’aux alvéoles pulmonaires.

Plusieurs études ont démontré que les particules engendrées par le freinage sont des PM1 (de diamètre inférieur à 1 micromètre), voire des particules ultrafines dans le cas des poids lourds (inférieures à 100 nanomètres) et, par conséquent, capables d’atteindre ces alvéoles.

Système de collecte via un sac à dos.
Ana-Maria Trunfio-Sfarghiu/Mayeul Bièche, Fourni par l’auteur

Peu d’études toutefois se sont penchées sur la toxicité des particules non issues de l’échappement sur le système pulmonaire. Pour pallier ce manque, un dispositif innovant a été développé par des scientifiques afin de collecter ces particules pendant deux heures directement dans une solution biologique.

Conçu initialement sous forme de sac à dos pour permettre la collecte en différents points de la ville de Lyon (Rhône), ce système a ensuite été adapté sur un véhicule afin de réaliser des prélèvements en conditions réelles de circulation.

Les premiers résultats suggèrent que les particules de freinage de taille inférieure à 1 micromètre (principalement composées de fer, de cuivre, de baryum et d’antimoine) pourraient présenter un risque sanitaire notable. Leur petite taille leur permet d’interagir avec le surfactant pulmonaire (c’est-à-dire, la matière tensioactive sécrétée dans les poumons) ainsi qu’avec les macrophages alvéolaires. Cette interaction pourrait induire, sur le long terme, une altération progressive de la fonction pulmonaire.

Véhicule équipé d’un système de collecte.
Ana-Maria Trunfio-Sfarghiu/Mayeul Bièche, Fourni par l’auteur

Il est possible qu’une exposition répétée à de faibles doses puisse favoriser le développement de pathologies chroniques, telles que la fibrose pulmonaire, par un processus lent d’accumulation et de réponse inflammatoire persistante.

La norme Euro 7, une réponse appropriée ?

Les émissions hors échappement seront intégrées pour la première fois dans la future norme Euro 7, ce qui constitue une avancée significative vers une évaluation plus complète et rigoureuse des sources de pollution atmosphérique liées aux véhicules.

La norme Euro 7 entrera en vigueur en novembre 2026 pour les voitures et les véhicules utilitaires légers. Pour tous les types de véhicules, la limite maximale des émissions de particules PM10 (de diamètre inférieur à 10 micromètres) serait fixée à 7 mg/km à partir de 2026 et à 3 mg/km à partir de 2035.

L’établissement de cette nouvelle norme soulève cependant une difficulté fondamentale d’ordre physique. Comme évoqué précédemment, des travaux ont démontré que les particules émises lors du freinage sont majoritairement des PM1, avec des tailles inférieures à 1 micromètre. Elles ne tombent donc pas sous le coup de cette réglementation.

De plus, ces particules présentent une masse extrêmement faible, souvent négligeable, ce qui rend les limites actuelles exprimées en milligramme par kilomètre (mg/km) peu adaptées pour quantifier précisément les émissions. Il serait donc pertinent que la réglementation évolue vers une prise en compte fondée sur le nombre de particules émises par kilomètre, afin de mieux refléter la réalité et les impacts potentiels de ces émissions ultrafines.

Les avancées scientifiques et technologiques dans la compréhension et dans la maîtrise des émissions liées au freinage progressent encore à un rythme souvent jugé insuffisant face aux exigences réglementaires et aux impératifs économiques du secteur automobile. En conséquence, les constructeurs proposent actuellement des solutions dont l’efficacité et les impacts restent encore partiellement évalués, parmi lesquelles :

le freinage électromagnétique : il réduit l’usure et les émissions en freinage normal, mais les freins mécaniques restent sollicités lors des freinages d’urgence, engendrant des émissions importantes ;

les filtres à particules à la source : ils peuvent limiter la dispersion des poussières, mais leur impact sur le contact frictionnel entre plaquette et disque – et donc, sur la sécurité – nécessite une validation rigoureuse ;

la modification des matériaux des plaquettes : elle peut réduire leur usure mais également augmenter la production de nanoparticules, dont les effets sanitaires restent mal connus et font l’objet de recherches en cours.

La mobilité électrique, pas forcément une panacée

Selon une analyse publiée par le Centre interprofessionnel technique d’études de la pollution atmosphérique (Citepa), les véhicules électriques émettent un peu moins de particules liées à l’usure des freins grâce au freinage régénératif (c’est-à-dire, s’appuyant sur un système de récupération d’énergie).

Cependant, leur masse plus importante entraîne une augmentation des émissions de particules provenant de l’abrasion des pneus et de la chaussée. Ces deux effets tendent à s’équilibrer, de sorte que les émissions totales de particules des véhicules électriques à grande autonomie sont comparables à celles des véhicules thermiques récents, qui émettent désormais très peu de particules à l’échappement.

Les véhicules électriques soulèvent, par ailleurs, d’importantes interrogations concernant la disponibilité des ressources nécessaires à la fabrication des batteries et concernant les enjeux environnementaux et techniques liés à leur recyclage.

Dès lors, la sobriété apparaît comme l’une des voies les plus cohérentes : réduire nos déplacements lorsque cela est possible et amorcer la transition d’une société centrée sur la consommation vers un modèle plus respectueux de l’environnement.

The Conversation

Ana-Maria TRUNFIO-SFARGHIU a reçu des financements de CNRS et Ministère de la recherche publique (financements liées à la thèse d’Alice Mirailler, son salaire et un petit accompagnement) + chaires INSA Lyon avec VOLVO et MICHELIN

Alice Mirailler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ? – https://theconversation.com/freinage-et-particules-fines-une-pollution-routiere-oubliee-des-evolutions-reglementaires-260730

Et si la dette publique servait d’abord à rendre les citoyens plus heureux ?

Source: The Conversation – France (in French) – By Francis Munier, Maître de Conférences, économiste, Université de Strasbourg, Université de Strasbourg

La focalisation du débat sur le montant de la dette publique occulte une question importante. Les dépenses publiques contribuent-elles au bonheur des citoyens ? Il ne s’agit pas seulement de dépenser moins, mais aussi de dépenser mieux, et pour le plus grand nombre.


En 1944, le Conseil national de la Résistance rédigeait le programme « Les jours heureux », véritable projet de reconstruction sociale et économique. Ce texte fondateur affirmait une vision ambitieuse de l’action publique, celle d’un État garantissant à chacun les conditions d’une vie digne, en misant sur les services publics, la solidarité nationale et la justice sociale.

Dans le contexte actuel de polycrises, cette ambition conserve toute sa pertinence et ceci malgré une donne totalement différente. Elle invite à interroger les finalités du budget de l’État et à le repenser comme un levier de bien-être collectif. Dans quelle mesure les dépenses publiques améliorent-elles réellement la qualité de vie ? S’endetter peut se justifier si cela prépare un avenir meilleur, mais encore faut-il définir ce « meilleur ».

Au-delà du PIB

Les recherches en économie du bonheur offrent des outils conceptuels et empiriques précieux. Elles permettent de dépasser une conception fondée par trop sur l’offre, en intégrant des indicateurs alternatifs au PIB pour notamment évaluer l’impact des dépenses publiques sur la qualité de vie des citoyens.

Car le paradoxe est saisissant : alors même que la dette publique continue d’augmenter, la précarité persiste, les inégalités se creusent, les urgences débordent, les conditions dans l’éducation se dégradent, l’anxiété et la colère collective grandissent, et les canicules s’enchaînent. La dépense publique semble de moins en moins en phase avec les attentes sociales. Cette déconnexion alimente une défiance croissante à l’égard des institutions.

L’efficacité de l’État, une variable clé

Or, selon Benjamin Radcliff, les études montrent bien que les personnes vivant dans des pays où la part des dépenses sociales rapportées au PIB est élevée sont généralement plus satisfaites de leur vie, mais sous réserve de la qualité du gouvernement et de la confiance dans ce gouvernement. L’efficacité de l’État est donc une variable clé dans la perception positive de la fiscalité et de la dette publique.




À lire aussi :
Pourquoi la situation politique rend les Français malheureux


Repenser le budget public pour rendre les gens plus heureux passe d’abord par l’utilisation de données, recueillies à travers des enquêtes où les citoyens évaluent leur bien-être subjectif. Dès 2009, le rapport Stiglitz-Sen-Fitoussi soulignait les limites du PIB comme indicateur de progrès, et appelait à une évaluation plus fine des politiques publiques à travers des indicateurs sociaux, environnementaux et subjectifs. Cette réflexion a nourri de nombreuses initiatives, telles que le programme Beyond GDP, l’indice de vivre mieux de l’OCDE, ou encore les travaux de l’observatoire du bien-être en France, sur la perception que les Français ont de leur qualité de vie.

Plus de dette pour plus de bonheur ?

Ce changement de paradigme conduit à une redéfinition des objectifs de la dette et de la dépense publique. Richard Layard et ses collègues de la London School of Economics, proposent de mesurer l’efficacité des politiques publiques en fonction du nombre d’années de bien-être générées par euro investi. Cette approche, fondée sur des données empiriques, permet objectivement de comparer les interventions publiques. Une révolution de méthode, appuyée par des données concrètes, dont nous donnons ci-après quelques exemples.

Certaines politiques ont un rendement particulièrement élevé en termes de bien-être. À l’évidence, le traitement des « maladies du bonheur » en référence au livre de Hugues Lagrange (dépression, anxiété, stress, mal-être comme forme de « pathologies des Modernes »)) apparaît très efficace. Il permet aux personnes de retrouver un emploi, de l’autonomie et une meilleure qualité de vie, et en cela une réduction de coûts sociaux. Au Royaume-Uni, les programmes de « prescription sociale » ont permis de réduire de 28 % les consultations médicales et de 24 % les passages aux urgences.

L’éducation, un domaine stratégique

Francesco Sarracino et Kelsey O’Connor rappellent qu’à Philadelphie, la reconversion de friches industrielles en espaces verts a entraîné une baisse de 41 % des cas de dépression, de 63 % des troubles mentaux, et de 29 % des violences armées. À New York, une augmentation de 20 % de la surface de forêts urbaines a réduit la prématurité et le faible poids de naissance. Ces résultats soulignent l’impact des politiques d’aménagement sur la santé publique.

L’éducation représente un autre domaine stratégique. Les enquêtes Pisa montrent que les élèves qui se déclarent heureux réussissent mieux. De même, le bien-être subjectif des enseignants influence directement la performance des élèves. Miser sur des environnements scolaires épanouissants, des soutiens psychologiques et un climat de confiance et de reconnaissance offre donc un rendement élevé pour un coût modéré sur le long terme.

Le bien-être n’est pas l’ennemi de la croissance

Contrairement à certaines idées reçues, l’investissement dans le bien-être n’est pas antagoniste à la performance économique. Les travaux de Gaël Brulé et Francis Munier montrent qu’un environnement propice à la créativité favorise à la fois l’innovation et le bien-être subjectif. De même, les comportements écologiques sont associés à une plus grande satisfaction personnelle, ce qui renforce l’acceptabilité sociale de la transition écologique.

Investir dans ces politiques produit donc un rendement élevé en bonheur et en efficacité, tout en générant des économies sur le long terme. Car, les personnes plus heureuses sont plus productives, plus enclines à nouer des relations sociales, plus coopératives, mais également plus innovantes et écologiques. En somme, un cercle vertueux propice pour cibler les dépenses publiques et réduire la dette publique.

La centralité des inégalités

Dans cette perspective, la question des inégalités demeure centrale. Kate Pickett et Richard Wilkinson démontrent que les sociétés les plus égalitaires sont aussi les plus sûres, les plus éduquées et les plus heureuses. Loin de ne concerner que les populations les plus fragiles, l’inégalité fragilise l’ensemble du tissu social, en générant défiance, anxiété et violences, avec des effets délétères sur la réussite scolaire et les comportements à risques. Il s’agit d’un enjeu collectif majeur.

Nous ne sommes pas tous égaux face au bonheur. Certains, par nature ou par circonstances personnelles, peuvent y accéder plus facilement. Lorsque la société elle-même aggrave cette inégalité, cela est inacceptable. La société ne peut modifier les inégalités naturelles, mais doit chercher à les compenser. C’est une source de progrès collectif via des politiques ambitieuses comme une redistribution juste et une obligation sociale pour les pouvoirs publics.

Lorsque les dépenses publiques sont orientées vers des politiques qui améliorent durablement le bien-être, elles renforcent aussi l’adhésion à l’impôt, car les citoyens perçoivent concrètement les bénéfices de leur contribution.

Pierre Boyer souligne que lorsque la confiance dans les institutions est élevée, les habitants sont à la fois plus heureux et favorables à une fiscalité forte. L’impôt y est vu comme un investissement collectif. Il faut plaider pour une fiscalité fondée sur la confiance et la justice, qui renforce le lien social et le bien-être, et finance les dépenses publiques.

Cité de l’économie, 2015.

Les travaux de Gabriel Zucman pour l’instauration d’une taxe de 2 % sur la richesse des ultrariches semblent aller dans ce sens. Ce mécanisme de redistribution semble compatible avec les données sur le bien-être. En effet, Angus Deaton et Daniel Kahneman ont montré que le bien-être émotionnel augmente avec le revenu jusqu’à environ 75 000 dollars annuels, seuil au-delà duquel il se stabilise. A priori, cette taxe n’entamerait donc pas significativement le bonheur des plus fortunés.

Pour un rééquilibrage intergénérationnel

Enfin, les études révèlent un fait préoccupant : les moins de 30 ans se déclarent aujourd’hui nettement moins heureux que les générations précédentes. Ce renversement historique alerte sur un possible effritement du contrat social. Il appelle à un rééquilibrage intergénérationnel des politiques publiques aussi bien sur le plan budgétaire et fiscal que symbolique.

Un changement de cap est nécessaire. Faire du bien-être subjectif une boussole politique permettrait de replacer les citoyens au cœur des décisions publiques et renforcer la légitimité des politiques publiques.

Face aux crises écologique, économique, sociale et générationnelle, cette réorientation apparaît comme à la fois urgente, pragmatique et humaine pour créer des sociétés plus heureuses, plus justes, plus innovantes et plus durables, tout en assurant une soutenabilité de la dette publique.

The Conversation

Francis Munier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Et si la dette publique servait d’abord à rendre les citoyens plus heureux ? – https://theconversation.com/et-si-la-dette-publique-servait-dabord-a-rendre-les-citoyens-plus-heureux-266640

Quand une idée en économie devient populaire : les ressorts cachés de sa diffusion

Source: The Conversation – France (in French) – By Valérie Mignon, Professeure en économie, Chercheure à EconomiX-CNRS, Conseiller scientifique au CEPII, Université Paris Nanterre – Alliance Paris Lumières

Qu’est-ce qui fait qu’un article reste dans la bibliothèque ? ou qu’il en sort et devient une référence ? (sur la photo, la bibliothèque Sainte-Geneviève à Paris). Marie-Lan NGuyen/Wikimédia, CC BY

En économie, comme dans d’autres sciences, les idées les plus populaires ou les plus connues sont-elles forcément les meilleures ? La question peut sembler étonnante. Pourtant, s’interroger sur ce qui fait qu’une nouvelle idée, popularisée dans un article, prend ou pas n’est pas anodin.


Toutes les découvertes scientifiques ne connaissent pas le même destin. Certaines deviennent incontournables et marquent durablement leur discipline, tandis que d’autres tombent dans l’oubli. L’économétrie, qui constitue l’atelier statistique des sciences économiques et financières, illustre bien ce phénomène. Elle fournit les outils indispensables pour tester des hypothèses, mesurer l’impact d’une crise, évaluer une réforme fiscale ou toute autre mesure de politique économique, anticiper les mouvements des marchés financiers, etc. Sans ces méthodes, impossible de distinguer une simple coïncidence d’une véritable relation économique. Mais pourquoi certaines innovations en économétrie se diffusent-elles largement alors que d’autres restent confidentielles ou tombent dans l’oubli ?

Des idées populaires

Dans une étude récente, nous analysons plus de 17 000 articles parus entre 1980 et 2020 dans les principales revues d’économétrie afin d’identifier les « ingrédients » qui transforment une idée en « star » académique, c’est-à-dire en référence incontournable.




À lire aussi :
Tuer les « zombie papers » : peut-on débarrasser la science des articles rétractés ?


Bien sûr, la qualité scientifique est une condition nécessaire et un facteur clé. Mais elle ne suffit pas. L’histoire de la science est marquée par ce que l’on appelle l’« effet Matthieu » : les chercheurs déjà reconnus ont plus de chances de voir leurs travaux cités et valorisés, indépendamment de leur qualité relative. La visibilité d’une idée dépend donc aussi d’autres facteurs.

Nous montrons ainsi que deux dimensions jouent un rôle décisif, la connectivité thématique et la connectivité sociale. La connectivité thématique renvoie au fait qu’une idée gagne en popularité lorsqu’elle relie plusieurs domaines de recherche, en construisant des ponts entre des approches distinctes (par exemple, entre modèles de volatilité et crises financières). Elle attire alors l’attention de communautés diverses, qui trouvent dans ce croisement des outils utiles à leurs propres travaux.

S’agissant de la connectivité sociale, les chercheurs bien insérés dans les réseaux académiques, souvent grâce aux collaborations et à la cosignature d’articles, voient leurs travaux circuler plus rapidement et plus largement. Publier en équipe accroît les chances d’être lu et cité, car chaque coauteur diffuse l’article dans ses propres cercles. Ainsi, une idée devient populaire quand elle agit comme un pont, à la fois entre thèmes et entre chercheurs.

Les paradoxes de la diffusion

Nos résultats révèlent toutefois un paradoxe. Plus une idée est connectée, plus elle a de chances de devenir populaire et influente… mais seulement jusqu’à un certain point. Au-delà, trop de connexions finissent par brouiller son identité et diluer son impact. Autrement dit, multiplier indéfiniment les collaborations ou les croisements disciplinaires n’assure pas automatiquement plus de succès : l’excès peut au contraire nuire à la lisibilité et à la reconnaissance d’une contribution.

De même, si la cosignature est généralement un atout et un levier puissant de visibilité, la multiplication des auteurs ne garantit pas automatiquement plus de reconnaissance et d’influence. Elle peut même parfois réduire la clarté du message ou affaiblir l’influence individuelle des chercheurs impliqués.

Une science de réseaux

Notre étude met aussi en lumière un effet de temporalité. La connectivité thématique produit ses effets rapidement, dès les premières années suivant la publication. La connectivité sociale, elle, agit davantage sur le long terme : il faut environ six ans pour que les réseaux académiques commencent à amplifier significativement la diffusion d’une idée.

Ces dynamiques différenciées permettent de mieux comprendre comment certaines contributions connaissent un succès immédiat, alors que d’autres s’installent plus progressivement dans la littérature, à mesure que les réseaux de coauteurs et de citations relaient leurs apports. Ainsi, un article novateur reliant plusieurs méthodes peut susciter rapidement l’attention, mais son inscription durable dans la littérature dépendra de la réputation et du réseau de ses auteurs.

La popularité scientifique ne dépend pas seulement de la rigueur ou de l’originalité intrinsèque des travaux. Elle repose aussi sur la capacité à s’inscrire dans des réseaux thématiques et sociaux, et à trouver le bon équilibre entre visibilité et lisibilité.

Une méthodologie originale

Pour parvenir à ces résultats, nous avons mobilisé des méthodes innovantes. À l’aide de techniques de traitement automatique du langage (Structural Topic Models), nous avons cartographié les thématiques des articles et mesuré leur connectivité. Nous avons aussi utilisé des outils d’analyse de réseaux afin de caractériser la position des chercheurs dans les structures de coauteurs. Enfin, nous avons appliqué des modèles économétriques adaptés aux données de citations, en particulier le modèle hurdle negative binomial, qui permet de tenir compte du grand nombre d’articles jamais cités et de la forte dispersion des distributions de citations.

Fondation nationale pour l’enseignement de la gestion des entreprises (Fnege) Médias, 2025.

La robustesse de nos résultats a été confirmée par des tests sur d’autres modèles statistiques et par des analyses de sensibilité, renforçant la validité des conclusions.

La finance également concernée

Ces mécanismes ne concernent pas uniquement la communauté scientifique et les revues spécialisées. L’économétrie irrigue l’ensemble de l’économie et de la finance. Ses outils et méthodes sont essentiels pour aider les banques centrales dans leurs décisions de politique monétaire, éclairer la régulation des marchés financiers ou encore évaluer les politiques publiques.

Ainsi, la diffusion, ou au contraire l’oubli, d’une idée en économétrie peut avoir des conséquences bien réelles sur la manière dont nous analysons les phénomènes économiques et dont nous gouvernons nos sociétés. Une innovation méthodologique qui se diffuse largement peut influencer la façon d’évaluer une crise, d’anticiper des bulles financières ou d’apprécier les effets de la transition énergétique.

Notre étude rappelle que la science est aussi une affaire de réseaux. Les idées les plus populaires ne sont pas nécessairement les meilleures, mais celles qui savent tisser des liens entre disciplines et circuler dans les bons cercles académiques. La prochaine grande innovation existe peut-être déjà. Reste à savoir si elle trouvera les ponts nécessaires pour devenir incontournable.

The Conversation

Valérie Mignon est conseiller scientifique au CEPII, membre du Cercle des économistes, présidente de la section 05 (sciences économiques) du CNU et secrétaire générale de l’AFSE.

Marc Joëts ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand une idée en économie devient populaire : les ressorts cachés de sa diffusion – https://theconversation.com/quand-une-idee-en-economie-devient-populaire-les-ressorts-caches-de-sa-diffusion-266261

Inondations : satellites et « jumeaux numériques » pour mieux anticiper et agir vite

Source: The Conversation – France in French (2) – By Raquel Rodriguez Suquet, Ingénieure d’applications d’Observation de la Terre, Centre national d’études spatiales (CNES)

Les précipitations violentes accroissent le risque d’inondations rapides et difficiles à prévoir. Pour mieux se préparer, il faut bien connaître le terrain. En combinant de nombreuses techniques d’imagerie satellite et de modélisation, les chercheurs et experts créent des « jumeaux numériques », c’est-à-dire des répliques virtuelles du territoire. Celles-ci permettent de mieux savoir où et quand l’eau peut monter, et quelles infrastructures sont en zone à risque.


Entre le 26 janvier et le 1er février 2025, des crues exceptionnelles ont touché le département de l’Ille-et-Vilaine avec des hauteurs d’eau record par endroits. Au total, 110 communes ont été reconnues en état de catastrophe naturelle, et des milliers de logements, commerces, entreprises, ont été sinistrés.

Un autre département fréquemment touché par les orages est celui du Var. Le département avait déjà essuyé la tempête Alex en 2020 et ses 50 centimètres de précipitations cumulées en 24 heures à Saint-Martin-Vésubie. Cette année, en mai, ce sont 25 centimètres de pluie qui sont tombés au Lavandou en une heure seulement.

Avec le changement climatique, les évènements hydrométéorologiques sont de plus en plus fréquents et de plus en plus intenses. Les inondations constituent un risque naturel majeur — 43 % des risques naturels mondiaux dans le monde entre 1995 et 2015 — avec une augmentation notable des aléas survenus au cours des dernières années.

En associant données de pointe d’observation de la Terre et modèles physiques et numériques, les jumeaux numériques permettent de mieux prédire les inondations et les risques associés, d’estimer les dommages potentiels et de concevoir des mesures de prévention efficaces pour protéger les biens et les populations.

Gestion de crise et anticipation : un rôle pour le secteur spatial en cas d’inondations

Le caractère soudain et rapide des inondations requiert une réponse très rapide des services de gestion de crise et, pour cela, une excellente préparation et anticipation des impacts potentiels de ces crises est nécessaire.

Deux principaux programmes basés sur des données d’observation de la Terre sont au service de la gestion de crise. La Charte internationale Espace et catastrophes majeures est opérationnelle depuis 2020 et met à la disposition des équipes de secours et d’urgence des images satellites dans les heures qui suivent une catastrophe majeure, n’importe où dans le monde.

En Europe, le Copernicus Emergency Mapping Service fournit un produit de cartographie rapide en appui à la gestion de crise, et un produit de cartographie de risques et de reconstruction destiné à la prévention de risques, à la préparation de crise et à la gestion post-sinistre. Ce service a par exemple été activé par la protection civile française lors des inondations dans le département d’Ille-et-Vilaine de cette année.

carte de la zone inondée avec la profondeur d’eau
Cartographie rapide (réalisée en sept heures après l’acquisition satellite) de la hauteur et de l’étendue des inondations dans le département de l’Ille-et-Vilaine, fourni par le service de cartographie rapide de Copernicus, à partir de l’imagerie satellite radar à haute et à très haute résolution (Sentinel 1, IcEye, COSMO-SkyMed, PAZ, Terrasar-X, RADARSAT).
Service de cartographie rapide de Copernicus, projet EMSR788, CC BY

Lors de l’événement majeur concernant la tempête Alex à Saint-Martin-Vésubie en 2020, la sécurité civile française a activé également le service de cartographie rapide dès le 3 octobre 2020. Pour cet événement, le Centre national d’études spatiales (Cnes) a aussi immédiatement programmé les satellites Pléiades (capables de fournir des photographies de très haute résolution dans un temps très court) pour imager la zone pendant 8 jours minimum. Ainsi, en seulement quelques heures, de premières images ont été livrées, permettant au SERTIT de générer la cartographie des dégâts correspondante pour aider à la gestion de crise.

Utilisation de l’imagerie satellite pour la gestion de crise et l’identification des zones impactées lors des inondations à Saint-Martin-Vésubie (Alpes-Maritimes), en octobre 2020.
Raquel Rodriguez-Suquet, Fourni par l’auteur

En effet, le risque d’inondation correspond à la conjugaison, en un même lieu, d’un aléa (phénomène naturel aléatoire comme l’inondation) avec les enjeux (humains, biens, économiques et environnementaux) susceptibles de subir des dommages. L’ampleur du risque dépend fortement de la vulnérabilité des enjeux exposés, autrement dit de leur résistance face à un évènement donné.

Outre le contexte climatique, les phénomènes d’inondations sont aggravés depuis des décennies par l’aménagement inadapté du territoire. Populations et biens s’accumulent dans des zones inondables, ce qui provoque notamment la construction de nouvelles routes et centres commerciaux, le développement de l’agriculture intensive, la déforestation ou encore la modification du tracé des cours d’eau. De surcroît, l’imperméabilisation des surfaces amplifie le ruissellement de l’eau et ne fait qu’aggraver encore la situation. Ces aménagements contribuent malheureusement trop souvent encore à la destruction des espaces naturels qui absorbent l’eau en cas de crues et qui sont essentiels au bon fonctionnement des cours d’eau.

Ceci nécessite d’impliquer une chaîne complexe d’acteurs — de l’observation satellite aux équipes sur le terrain.

schéma
Aléas, enjeux et risques d’inondation.
Ministère de la transition écologique et de la cohésion des territoires, 2021, Fourni par l’auteur

Observer la Terre pour mieux apprécier les risques d’inondation

Les impacts des inondations peuvent être réduits par une meilleure culture du risque, un système d’alerte précoce, une cartographie précise des zones à risque, des prévisions fondées sur la modélisation, ainsi que par des aménagements du territoire et des infrastructures de protection adaptée – en ligne avec la politique de prévention des risques en France.

Ces informations provenant de données (in situ, IoT, drones, satellites, aéroportées…), et de modèles physiques très précis.

Les moyens d’observation in situ permettent de faire des mesures très précises de la hauteur, du débit et de la vitesse de l’eau alors que les moyens aéroportés (drone ou avion) permettent d’observer l’étendue de l’inondation. Or, il est très compliqué – voire impossible – de faire voler un avion ou un drone dans des conditions météorologiques dégradées. Par conséquent, ces observations sont complétées depuis l’espace. Par exemple, l’imagerie radar permet de faire des observations pendant la nuit et à travers les nuages.

Les données satellites apportent de nombreuses informations, par exemple la mesure du niveau d’eau de réservoirs, l’étendue d’eau ou encore la qualité de l’eau.

schéma
Les satellites et l’observation de l’eau sur Terre.
Traduit et adapté de Papa et coll., Surveys in Geophysics, 2023, Fourni par l’auteur

Malheureusement, aujourd’hui, ces missions ont une faible résolution temporelle par rapport au besoin d’observation des inondations au moment de la crise elle-me : la fréquence de « revisite » des satellites est de quelques jours au mieux. Les satellites Sentinel 2 par exemple permettent de photographier la Terre entière en 5 jours, alors que le satellite SWOT revient sur la même zone tous les 21 jours. De plus, il n’est pas rare que les passages des satellites ne correspondent pas aux dates de pic des crues pendant la gestion de la crise.

Bien entendu, malgré ces limitations actuelles, il est clair que les données satellites sont déjà d’un grand apport pour la prévention des inondations, la préparation de la crise, et l’analyse postimpact de la crise.

Combiner les observations et faire appel aux modélisations

Aujourd’hui, c’est donc une combinaison des données in situ, drone, aéroportées et spatiales qui permet d’améliorer la description des inondations.

Mais l’observation seule ne permet pas de réaliser des prévisions fiables : l’utilisation des modèles physiques est incontournable pour mieux représenter la dynamique de l’écoulement dans son ensemble, pour faire des prévisions à court terme — ainsi que des projections à long terme sous les différents scénarios dans un climat futur.

Ces combinaisons entre données et modèles permettent de fournir des représentations précises de la dynamique d’écoulement de l’événement d’inondation ainsi que des prévisions pour simuler un comportement futur tel qu’un changement climatique, avec plusieurs scénarios possibles, ainsi que le déploiement de stratégies d’adaptations.

C’est ainsi que sont nés les « jumeaux numériques ».

Les jumeaux numériques pour les inondations

Un jumeau numérique est une combinaison d’une « réplique numérique » d’une zone réelle, associée à des capacités de modélisation et de simulation de plusieurs scénarios de phénomènes climatiques.

S’agissant des inondations, l’objectif de ces simulations est de disposer d’un outil d’aide à la décision dans toutes les phases du cycle de gestion du risque : prévention, surveillance et protection ; alerte et gestion de crise ; analyse post-crise ; reconstruction, résilience et réduction de la vulnérabilité.

Un jumeau numérique permet de faire trois familles d’analyses :

  • What now ? Un scénario de réanalyse des épisodes passés pour améliorer la compréhension de la dynamique des événements (plan de prévention, aménagement du territoire, assurance…) ;

  • What next ? Un scénario de prévision en temps réel des crues et des inondations qui représente la façon dont les inondations évolueront dans le futur à court terme à partir de l’état actuel (sécurité civile, gestion de crise…) ;

  • What if ? Un scénario d’évaluation de l’impact de l’inondation qui représente la façon dont le débit des cours d’eau et les étendues inondées pourraient évoluer sous différents scénarios hypothétiques dans le contexte de changement climatique.

Ainsi, l’Agence spatiale européenne (ESA) et la NASA développent des jumeaux numériques à l’échelle globale pour intégrer les données et modèles des environnements naturels et des activités humaines afin d’accompagner les politiques publiques sur les risques naturels.

À titre d’exemple, le CNES et ses partenaires ont mis en place un démonstrateur de jumeau numérique consacré à l’étude des inondations fluviales par débordement, qui permet de surveiller, détecter et prévoir de manière fiable les inondations à une échelle locale et globale, tandis qu’un autre jumeau numérique se concentre sur les zones côtières dans un contexte de changement climatique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Inondations : satellites et « jumeaux numériques » pour mieux anticiper et agir vite – https://theconversation.com/inondations-satellites-et-jumeaux-numeriques-pour-mieux-anticiper-et-agir-vite-262149

Les pharmacies disposent de peu de leviers pour se redresser

Source: The Conversation – France in French (3) – By Aniss Louchez, Docteur en économie, Université de Lille

Le chiffre d’affaires moyen d’une pharmacie en zone urbaine se situe entre 1 million et 1,2 million d’euros. MikeDotta/Shutterstock

La contraction du marché des médicaments remboursés, principale source de revenus des pharmacies, met leur modèle économique en danger. Ces offices disposent de quelques leviers régulés en raison de la nature même des officines. Lesquels ?


La pharmacie de ville, également appelée officine, est un acteur essentiel de l’offre de soins ambulatoire. Elle joue un rôle essentiel en fournissant des biens médicaux – médicaments et dispositifs médicaux – et des services de prévention, tels que la vaccination, à la population. La pharmacie bénéficie en France d’un monopole légal qui empêche la fourniture de produits de santé par d’autres acteurs.

Cette mesure vise à garantir la qualité des soins, selon l’économiste de la santé Charles Phelps. Elle se justifie par la nécessité de bénéficier d’un expert pour guider le patient selon l’Inspection générale des finances (IGF). La pharmacie est une structure particulière qui doit concilier une mission de santé publique avec l’impératif entrepreneurial d’assurer sa soutenabilité économique.

Cette soutenabilité se fragilise depuis plusieurs décennies. De 2014 à 2024, le nombre de pharmacies est passé de 21 772 à 19 627, selon le Conseil national de l’ordre des pharmaciens (Cnop), soit une baisse de 1 % par an pendant dix ans. Le nombre d’habitants par pharmacie est passé de 3 037 à 3 368 et pourrait atteindre 4 148 en 2050.

Cette contraction objective un malaise économique grandissant qui a motivé les récentes grèves des pharmaciens le 30 mai 2024, 16 août 2025 et 18 septembre 2025, largement suivies par plus de 80 % des pharmacies du pays. Pour comprendre la persistance et l’aggravation de ces tensions, cet article vise à replacer les pharmacies dans leur cadre macroéconomique et présenter les mécanismes d’ajustement à leur disposition.

Croissance de la demande de médicaments

L’activité des pharmacies est principalement adossée au marché du médicament remboursé qui représente 72,3 % du chiffre d’affaires (CA) en 2023, selon le cabinet KPMG. Le reste de l’activité est représenté par trois types de produits. Les médicaments non remboursés et les dispositifs médicaux – 14,6 % du CA –, la parapharmacie – 11,2 % du CA – et les tests et la vaccination Covid – 1,9 % du CA.

La demande de médicaments, principale source de revenus, est portée par le vieillissement de la population qui va se poursuivre jusque 2070, selon l’Insee. Avant 2021, le nombre de boîtes de médicament connaissait une croissance annuelle comprise entre 2,6 et 4,4 %, selon les Comptes nationaux de la Santé (CNS).

Contraction du marché des médicaments

Le marché du médicament s’est contracté de 32,1 milliards à 29,8 milliards d’euros, faisant de ce poste le principal contributeur à la maîtrise des dépenses de santé. Cette contraction est partiellement compensée par les fermetures de pharmacies, stabilisant le chiffre d’affaires moyen entre 1 million et 1,2 million d’euros. La stabilité des recettes masque l’augmentation des charges – salaires, coûts des fournitures, loyers, assurances, logiciels de gestion – portée par l’inflation, et amenant à une réduction des marges.

Cette pression transparaît dans les fermetures dont presque la moitié affectait des pharmacies de moins de 1 million de chiffre d’affaires, selon le Conseil national de l’ordre des pharmaciens (Cnop), alors qu’elles représentaient moins de 14,5 % des pharmacies, selon KPMG.

Dans un contexte de contraction de leur activité principale, il est important de présenter les mécanismes d’ajustement dont disposent les pharmacies.

Mécanismes d’ajustement

Pour assurer sa soutenabilité, une entreprise peut adapter son activité en ajustant les volumes de production et les prix. Ces mécanismes sont régulés en raison de la nature particulière du médicament.

En dehors des préparations magistrales, en raison de l’impératif de qualité, de sécurité et d’efficacité, les pharmacies ne peuvent pas modifier ou développer un médicament, il s’agit du rôle de l’industrie pharmaceutique.

Ajustement par les volumes

La pharmacie ne peut pas augmenter son nombre de boites de médicaments remboursés. Celui-ci est soumis à des prescriptions qui amènent les prescripteurs – médecins, infirmiers, dentistes, etc. – à définir l’activité des pharmacies. L’accentuation des pénuries de médicaments limite les possibilités d’augmentation globale de l’activité. En parallèle, la publicité est quasiment inexistante afin de garantir l’éthique dans la dispensation des soins.

Une pharmacie ne peut que difficilement optimiser sa localisation géographique, en raison de la réglementation. Les créations de nouvelles pharmacies sont quasi impossibles depuis une ordonnance de 2018, faisant suite à un avis de l’Inspection générale interministérielle du secteur social (Igas). Seules les opérations de transfert (déménagement) sont autorisées et régulées, limitant leur recours. Si depuis 2023 l’article L. 162-31-1 du Code de la Sécurité sociale permet la création d’antennes de pharmacie, un local de dispensation déporté dans une autre commune, ce dispositif demeure peu usité. La première ouverture ayant eu lieu en juillet 2024.

Si la vente en ligne sur Internet est perçue comme une solution par l’Igas, celle-ci est également régulée par le Code de la santé publique, adossée à une pharmacie physique et limitée en volume de médicaments impliqués.

Il est à noter que ces enjeux spatiaux amènent principalement à une redistribution du volume d’activité. La captation d’une clientèle supplémentaire se fait au détriment des autres pharmacies, exposant à des risques de cannibalisation entre pharmacies.

Ajustement par les prix

Afin d’assurer une certaine rentabilité, les firmes peuvent adapter leurs prix. La situation des pharmacies quant à ces mécanismes dépend du type de produit.

Les produits remboursés – médicaments et dispositifs médicaux – ont un prix administré, afin de garantir l’accessibilité financière aux traitements pour la population et la société. Cette situation empêche le pharmacien d’ajuster les prix de vente et limite la friction entre pharmacies.

Le pharmacien peut toutefois « négocier » des marges arrière. Si le partage de la valeur est réglementé par des marges administrées, des possibilités de remises sont prévues et plafonnées à 40 % du prix fabricant hors taxe (PFHT). Cela permet de limiter les frictions avec les fournisseurs et le coût de négociation. Ces marges arrière constituent un moyen de soutenir les pharmacies de ville, sans affecter le prix de vente du médicament, au détriment des acteurs en amont de la fourniture de médicaments.

Les médicaments non remboursés ont un prix librement fixé par le pharmacien. L’économiste de la santé Céline Pilorge souligne que les mécanismes de compétition sur les prix sont peu effectifs, sans doute en raison de leur faible part dans le chiffre d’affaires des pharmacies. Il en est de même pour la parapharmacie qui, ne faisant pas partie du monopole pharmaceutique, fait l’objet d’une compétition avec d’autres structures que des pharmacies.

Pérennité des pharmacies en jeu

La pharmacie de ville est un offreur de soins ambulatoire important dans le système de santé. Les dynamiques macroéconomiques de longs termes soulignent la contraction du marché du médicament, principale source de revenus des pharmacies. En face à l’épuisement de mécanismes d’ajustement limités, la pérennité des pharmacies est mise en jeu.

Cette situation interroge sur le partage de la valeur, ainsi que sur le maintien d’un service de santé de proximité pour la population. De plus, la capacité à investir de nouvelles missions de prévention apparaît comme difficile, en l’absence de révision des modes de rémunération des pharmacies.

The Conversation

Aniss Louchez a reçu des financements de l’ISITE-ULNE pour le financement de sa thèse de recherche en économie.

ref. Les pharmacies disposent de peu de leviers pour se redresser – https://theconversation.com/les-pharmacies-disposent-de-peu-de-leviers-pour-se-redresser-266154

Wild honeybees now officially listed as endangered in the EU

Source: The Conversation – UK – By Arrigo Moro, Postdoctoral Researcher, Galway Honey Bee Research Center, University of Galway

It can be hard to distinguish between a wild and a managed honeybee. SanderMeertinsPhotography / shutterstock

You might think honeybees are thriving – after all, the honey industry is growing and its bees are well looked after by beekeepers. But not all honeybees live in hives. Across Europe, colonies still live in the wild, nesting in tree cavities and other natural spaces, just as their ancestors did for millions of years.

Now, for the first time, these wild honeybee populations have been officially categorised as endangered within the European Union. That’s according to the latest update to the IUCN Red List, the world’s official database of species conservation statuses.

The western honeybee has a long history with humans. People have kept honeybee colonies for thousands of years, dating back to the ancient Egyptians who kept them in rudimentary hives to harvest honey. But it’s modern beekeeping, with its mobile hives and commercial pollination, that has had the widest impact on the species.

Because of that, today the western honeybee exists in two forms: the managed colonies kept in hives, and the wild ones that live independently of people. Both belong to the same species, Apis mellifera, but their lives and their prospects are radically different.

Managed honeybees have faced widely reported crises since the 2000s, when beekeepers around the world started noticing alarming losses in their hives. Since then, scientists have been working with beekeepers to investigate the causes and reduce colony mortality.

Because of this, the species as a whole is generally perceived as being under threat. But the reality is more complex than that. While it is true that managed colonies continue to suffer high losses, they are actively cared for by beekeepers and studied by researchers. The same cannot be said for their wild counterparts, which, until recently were relatively unstudied, especially in Europe.

The gap in knowledge led several European researchers to start investigating honeybees living freely in the wild. Such colonies have now been documented throughout Ireland and the UK, in national parks in France, the forests of Germany, Switzerland, and Poland, up and down Italy, and even in cities such as Belgrade in Serbia. These now are under study to understand if they can form self-sustaining populations capable of living without human help.

Tracking bees across Europe

To connect these independent research projects, a global initiative called Honey Bee Watch was formed in 2020. Its goal: to better understand how honeybees live in the wild. Under this coalition, I have been part of a team of 14 scientists and experts, who have worked with the International Union for the Conservation of Nature (IUCN) to reassess the conservation status of wild A. mellifera populations.

honeybees in tree cavity
A wild colony of honeybees the author discovered in Ireland.
Arrigo Moro

This formed part of a monumental effort to update the European Red List of Bees, led by researchers at the University of Mons in Belgium, which examined the conservation status of almost 2,000 species – many for the first time.

Back in 2014, wild A. mellifera populations had been listed as “data deficient” in Europe because there wasn’t enough information to answer a question that seemed simple enough: if a colony is found living in a tree, how can we tell whether it’s truly wild or has escaped from a managed hive?

A new definition of ‘wild’

Our new assessment took a different approach. Honeybees are not truly domesticated, since beekeepers have never been able to completely prevent them from breeding with other colonies, whether wild or managed. This means genetic differences between managed and wild colonies are often blurred.

Instead of trying to draw a genetic line separating the two, we adapted the IUCN’s definition of “wild” as it relates to honeybees. This meant we defined wild honeybee populations based on two criteria:

First, they live freely without management. And second, they can sustain their numbers independently without relying on the introduction of new colonies, such as those that escaped from managed hives.

Using ecology rather than genetics to define wild honeybees meant we could better evaluate their conservation status.

Endangered in the EU

Europe has the lowest density of free-living colonies in the world, as managed hives far outnumber wild ones. And, thanks to a recent analysis provided by our fellow assessors, we know that their numbers are declining.

Combined with evidence of habitat loss, invasive parasites, diseases, and human-mediated hybridisation, the picture that emerged was clear: wild honeybees are indeed in trouble.

That’s why their Red List status has now been updated to “endangered within the European Union.” However, for the wider pan-European region, they remain “data deficient” due to scarce data for areas such as the Balkans, the Baltics, Scandinavia and eastern Europe.

Protecting wild honeybees isn’t just about saving an iconic species – it’s about safeguarding our food security, biodiversity and ecosystems for the future. Populations surviving in the wild are those that naturally evolved the ability to cope with parasites, diseases and other harsh conditions that can devastate managed hives. They represent a vital genetic reservoir that could help make both wild and managed bees more resilient to future threats.

The new endangered assessment is a formal recognition that wild honeybees are native wildlife in need of conservation. We can no longer afford to leave them understudied and unprotected.

The Conversation

Arrigo Moro does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Wild honeybees now officially listed as endangered in the EU – https://theconversation.com/wild-honeybees-now-officially-listed-as-endangered-in-the-eu-267239

María Corina Machado’s peace prize follows Nobel tradition of awarding recipients for complex reasons

Source: The Conversation – Global Perspectives – By David Smilde, Professor of Sociology, Tulane University

Venezuelan opposition leader Maria Corina Machado gestures during a protest in Caracas on Jan. 9, 2025. Juan Barreto/AFP via Getty Images

Few can doubt the courage María Corina Machado has shown in fighting for a return to democracy in Venezuela.

The 58-year-old politician and activist is the undisputed leader of the opposition to Nicolás Maduro – a man widely seen as a dictator who has taken Venezuela down the path of repression, human rights violations and increasing poverty since becoming president in 2013.

Maduro is widely believed to have lost the 2024 presidential election to rival Edmundo González, a candidate substituting Machado, yet still claimed victory.

Machado has been in hiding since the fraudulent vote. And her courage in having participated in an unfair contest and in exposing Maduro’s fraud by publishing the true vote tallies on the internet, surely made Machado stand out to the Nobel committee.

Indeed, in making Machado the 2025 recipient of the Nobel Peace Prize, organizers stated they were recognizing her “tireless work promoting democratic rights for the people of Venezuela and for her struggle to achieve a just and peaceful transition from dictatorship to democracy.”

But as a scholar of Venezuela’s political process, I know that is only part of the story. Machado is in many ways a controversial pick, less a peace activist than a political operator willing to use some of the trade’s dark arts for the greater democratic good.

Joining a controversial list of laureates

Of course, many Nobel Peace Prize awards generate controversy.

It has often been bestowed on great politicians over activists. And sometimes the prize’s winners can have complex pasts and very non-peaceful resumes.

Past recipients include Henry Kissinger, who as U.S. secretary of state and Richard Nixon’s security adviser was responsible for the illegal bombing of Cambodia, supporting Indonesia’s brutal invasion of East Timor and propping up dictators in Latin America, among many other morally dubious actions. Similarly, former Palestinian Liberation Organization leader Yasser Arafat and Israeli Prime Minister Menachem Begin were both awarded the prize, in 1994 and 1978 respectively, despite their past association with violent activities in the Middle East.

Three men stand, two shaking hands.
Yasser Arafat, Henry Kissinger and Yitzhak Rabin – all Nobel Peace Prize laureates.
Duclos/Merillon/Gamma-Rapho via Getty Images

The Nobel Committee often seems to use these awards not to celebrate past achievements but to affect the future course of events. The nods to Begin and Arafat were, in this way, used for encouragement of the Middle East peace process.

In fact, sometimes, the peace prize is seemingly bestowed as a sign of approval for a break from the past.

Barack Obama won his in 2009 despite only being nine months into his presidency. It was taken by many as a rejection of the previous presidency of George W. Bush, rather than recognition of Obama’s limited achievements at that time.

In 2016, Colombian President Juan Manuel Santos was awarded the Nobel Peace Prize just days after his peace plan was rejected in a referendum. In that instance, the committee seemed to want to give his efforts a push just after a major setback.

Democratic path or dark arts?

So what should be made of the Nobel Peace Prize committee’s decision to recognize opposition to Maduro now?

Certainly Machado’s profile is ascendant. In her political career, she has participated in elections – winning a seat in the National Assembly in 2010 – but boycotted many more. She also boycotted negotiation processes, suggesting instead that foreign intervention was the only way to remove Maduro.

In 2023 she returned to the electoral path and steadfastly mobilized the Venezuelan population for opposition primaries and presidential elections, even after her candidacy was disqualified by the government-controlled electoral authority, and innumerable other obstacles were put in her path.

The campaign included spearheading caravans and events across the country at significant personal risk.

However, much of her fight since then has been via less-democratic means.

Machado has shunned local and regional elections suggesting there was no sense in participating until the government honored the results of the 2024 presidential election. She has also again sought international intervention to remove Maduro.

Over the past year she has aggressively promoted the discredited theory that Maduro is in control of the Tren de Aragua gang and is using it to invade the United States – a narrative gladly accepted and repurposed by U.S. President Donald Trump.

In addition to being the expressed motivation for a U.S. military buildup off the coasts of Venezuela, this theory has also been the central justification cited by the Trump administration for using the Alien Enemies Act to deport, without due process, 238 Venezuelan men to a horrific prison in El Salvador.

A large painting of a man is held aloft.
Nicolas Maduro continues to loom large and rule Venezuela despite María Corina Machado’s efforts.
Jesus Vargas/Getty Images

Relations with Trump

The Nobel Peace Prize could help unify the Venezuelan opposition movement, which over the past year has begun to fray over differences in strategy, especially with respect to Machado’s return to electoral boycotts.

And it will certainly draw more international attention to Venezuelans’ struggle for democracy and could galvanize international stakeholders to push for change.

What it will mean in terms of Trump’s relationship to Machado and Venezuela is yet to be seen. Her main connection with the administration is through Secretary of State Marco Rubio, who has aggressively represented her views and is pushing for U.S. military intervention to depose Maduro

Awarding Machado the prize could strengthen Trump’s resolve to seek regime change in Venezuela. Or, if he feels snubbed by the Nobel committee after very vocally lobbying to be awarded the peace prize himself, it could be a wedge between the U.S. president and Machado.

Machado seems to understand this. After not mentioning him in her first statement after the award was announced, she has since mentioned him multiple times, even dedicating the prize to both the Venezuelan people and Trump.

Trump has subsequently called to congratulate her.

A game changer? Perhaps not

To the degree that the Nobel Peace Prize is not just a model of change but a model for change, the decision to award it to Machado could conceivably affect the nature of Venezuela’s struggle against authoritarianism, leading her to continue to seek the restoration of democracy with a greater focus on reconciliation and coexistence among all Venezuelans, including the still politically relevant followers of the late Hugo Chávez.

Whatever the impact, it probably will not be game-changing. As we have seen with other winners, the initial glow of public recognition is quickly consumed by political conflict.

And in Venezuela, there is no easy way to translate this prize into real democratic progress.

While Machado and other Venezuelan democrats may have more support than ever among global democrats, Nicolás Maduro controls all of Venezuela’s institutions including the armed forces and the state oil company, which, even when sanctioned, provides substantial resources. Maduro also has forged strategic alliances with China, Russia and Iran.

The only way one can imagine the restoration of democracy in Venezuela, with or without military action, is through an extensive process of negotiation, reconciliation, disarmament and justice that could lay the groundwork for coexistence. This Nobel Peace Prize could position Machado for this task.

The Conversation

David Smilde does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. María Corina Machado’s peace prize follows Nobel tradition of awarding recipients for complex reasons – https://theconversation.com/maria-corina-machados-peace-prize-follows-nobel-tradition-of-awarding-recipients-for-complex-reasons-267268

Natural World Heritage sites under growing threat, but bright spots remain

Source: The Conversation – USA (2) – By Jessica Beaudette, Visiting Scholar, Center for Biodiversity Outcomes, Arizona State University

A herd of antelope graze near a giraffe in Botswana’s Okavango Delta. Murat Ozgur Guvendik/Anadolu via Getty Images

Botswana’s fertile Okavango Delta is one of the last remaining high-biodiversity ecosystems in the world, home to cheetahs, African wild dogs, baobab trees, crocodiles, termites and owls that catch fish. Roughly the size of the state of Connecticut, the freshwater Okavango Delta opens into an enormous alluvial fan that stretches up to 5,800 square miles (15,000 square km) into the Kalahari Desert. The area is so vast it can be seen from space, but most people have never heard of it.

In recognition of its natural and cultural significance, the Okavango Delta was designated a UNESCO World Heritage Site in 2014. When I conducted research in the Okavango in 2024, I witnessed both its natural beauty and the ebullient warmth of the people who live there.

The health of the delta – and of 270 other natural sites across the globe – is the subject of the latest IUCN World Heritage Outlook, a recurring wellness report on the planet’s most treasured natural places.

The report’s findings are not dire, but they aren’t great, either. Many of these extraordinary places are increasingly at risk due to escalating climate change, invasive species, and a lack of consistent funding to protect them.

The outlook

Every few years, the International Union for Conservation of Nature – a global contingent of more than 1,400 government agencies and private organizations focused on environmental conservation – evaluates the environmental and biological conditions at all UNESCO World Heritage sites selected for their natural significance.

That includes the Okavango Delta in Botswana, home to the world’s largest population of African elephants; the Central Amazon Conservation Complex in Brazil; the Socotra Archipelago in Yemen with hundreds of species of birds and fish; the Tropical Rainforest Heritage of Sumatra, Indonesia; the Central Amazon Conservation Complex in Brazil, and Everglades National Park, Florida.

The IUCN reports to UNESCO on each site’s current state and natural value, the threats it faces, the effectiveness of its protection and management, and actions needed to secure its future. The IUCN rates each site’s status from “good” to “critical” as a way of tracking its conservation progress over time.

The most recent report – the fourth in a series that began in 2014 – was presented at the IUCN World Conservation Congress on Oct. 11, 2025.

Overall, the report documents a decline in the conditions of these remarkable places. The proportion of World Heritage sites with a positive conservation outlook – “good” or “good with some concerns” – has dropped to 57% after remaining at 63% in 2014, 2017 and 2020. In addition, the proportion of sites considered of “significant concern” or “critical” has increased in the last five years from 37% to 43%. Many of those are in Mesoamerica, Africa and South America, as well as the Middle East, North Africa and the Mediterranean.

A diver swims near pale and white-colored formations on the ocean floor.
A marine biologist surveys bleached and dead coral on Australia’s Great Barrier Reef.
David Gray/AFP via Getty Images

Threats from the natural world

The report identifies several key challenges affecting heritage sites. The most widespread conservation challenge the report identifies is climate change.

Climate-related changes in biological conditions such as ocean acidity, salt concentrations, sediment buildup, droughts, flooding and groundwater flow, and variable temperatures are considered “high” or “very high” threats to 117 of the 271 heritage sites evaluated – 43% of them.

One-third of the 50 World Heritage sites that contain glaciers will see those glaciers disappear by 2050, the report projects.

Around the world, coral reefs have been, and are still, bleaching – turning white as the colorful organisms that build and inhabit them die off – affecting 30% of the 29 World Heritage-listed coral reef ecosystems.

In addition, invasive species are encroaching on World Heritage sites. For example, in Ecuador’s Galápagos Islands, invasive species like rats and feral cats are considered one of the main causes of extinctions, including to the islands’ famous birds. In Australia’s Gondwana Rainforest, the last vestiges of an ancient plant and animal “living museum” are retreating due to invading non-native species.

People walk along a path near the face of a large swath of white and blue ice.
Tourists view the face of the Perito Moreno Glacier in Los Glaciares National Park, Argentina.
Romina Cruz/picture alliance via Getty Images

Threats from people

Additional human pressures are also endangering these unique areas. Threats to these sites from the outside include logging and mining in the region, developing nearby land, diverting natural water flows, and polluting the air, water and land. Roughly two-thirds of the sites studied face at least some danger from human activities happening outside the sites’ formal boundaries.

In addition, the report says heritage sites need more financial support to be better able to respond to key threats. It finds that most lack consistent, long-term funding for staff salaries, ecosystem monitoring, and continued maintenance of protection programs. Chronic underfunding is the primary barrier to effective ecosystem management. Funding typically comes from organizations such as the World Heritage Fund or the Global Environment Facility, an organization made up of 186 member countries, institutions, nongovernmental organizations, and the private sector that funds environmental projects worldwide.

The IUCN report warns that even effective initiatives may struggle in the long term without stronger regional, national and global support. That could include efforts like the Okavango’s Community Management of Protected Areas Conservation program, which connects rural communities and conservationists to support both people and nature.

Armed people in camouflage clothing walk through a wooded area.
Members of the Lion Intervention Brigade conduct an anti-poaching patrol at Niokolo-Koba National Park, Senegal.
AP Photo/Annika Hammerschlag

What is missing from the 2025 report?

There is good news, though. Targeted local action, such as anti-poaching efforts and local community involvement, have improved conditions at four sites in West and Central Africa, shifting their status from “critical” to “significant concern.”

There is more to know about these sites and how they are faring. As a community-based conservation scholar, I recognize that while the major drivers of ecological decline can be gleaned from published research, specific causes of that decline are best learned on the ground.

The outlook provides critical environmental trends, but it could be strengthened by including specifics based on quantitative, community-based monitoring, such as wildlife population surveys by local experts. For instance, at a conference I attended in 2024, a frog biologist from Botswana observed that, before her work, the previous frog study in that part of the delta was in 1980.

While critical local and Indigenous knowledge is recognized in the report, it is largely excluded from assessments, both because weaving it with conventional scientific analysis is difficult or because communities may choose to protect certain knowledge.

The Okavango Delta is one of many World Heritage sites, living landscapes rich with local cultural value and global significance. Like many remote heritage sites outside Europe and North America, there is a lot that remains unknown about the biodiversity in the Okavango.

The report acknowledges that recognizing the relationship between people and the environment would also improve future assessments. Overall, it offers a clear picture of global conservation trends while also acknowledging local realities and successes: for the heritage sites across the planet, conservation succeeds when people and nature thrive together.

The Conversation

Jessica Beaudette received dissertation funding from the American Association of University Women and Arizona State University for field research in Botswana.

ref. Natural World Heritage sites under growing threat, but bright spots remain – https://theconversation.com/natural-world-heritage-sites-under-growing-threat-but-bright-spots-remain-266548