Quand une idée en économie devient populaire : les ressorts cachés de sa diffusion

Source: The Conversation – France (in French) – By Valérie Mignon, Professeure en économie, Chercheure à EconomiX-CNRS, Conseiller scientifique au CEPII, Université Paris Nanterre – Alliance Paris Lumières

Qu’est-ce qui fait qu’un article reste dans la bibliothèque ? ou qu’il en sort et devient une référence ? (sur la photo, la bibliothèque Sainte-Geneviève à Paris). Marie-Lan NGuyen/Wikimédia, CC BY

En économie, comme dans d’autres sciences, les idées les plus populaires ou les plus connues sont-elles forcément les meilleures ? La question peut sembler étonnante. Pourtant, s’interroger sur ce qui fait qu’une nouvelle idée, popularisée dans un article, prend ou pas n’est pas anodin.


Toutes les découvertes scientifiques ne connaissent pas le même destin. Certaines deviennent incontournables et marquent durablement leur discipline, tandis que d’autres tombent dans l’oubli. L’économétrie, qui constitue l’atelier statistique des sciences économiques et financières, illustre bien ce phénomène. Elle fournit les outils indispensables pour tester des hypothèses, mesurer l’impact d’une crise, évaluer une réforme fiscale ou toute autre mesure de politique économique, anticiper les mouvements des marchés financiers, etc. Sans ces méthodes, impossible de distinguer une simple coïncidence d’une véritable relation économique. Mais pourquoi certaines innovations en économétrie se diffusent-elles largement alors que d’autres restent confidentielles ou tombent dans l’oubli ?

Des idées populaires

Dans une étude récente, nous analysons plus de 17 000 articles parus entre 1980 et 2020 dans les principales revues d’économétrie afin d’identifier les « ingrédients » qui transforment une idée en « star » académique, c’est-à-dire en référence incontournable.




À lire aussi :
Tuer les « zombie papers » : peut-on débarrasser la science des articles rétractés ?


Bien sûr, la qualité scientifique est une condition nécessaire et un facteur clé. Mais elle ne suffit pas. L’histoire de la science est marquée par ce que l’on appelle l’« effet Matthieu » : les chercheurs déjà reconnus ont plus de chances de voir leurs travaux cités et valorisés, indépendamment de leur qualité relative. La visibilité d’une idée dépend donc aussi d’autres facteurs.

Nous montrons ainsi que deux dimensions jouent un rôle décisif, la connectivité thématique et la connectivité sociale. La connectivité thématique renvoie au fait qu’une idée gagne en popularité lorsqu’elle relie plusieurs domaines de recherche, en construisant des ponts entre des approches distinctes (par exemple, entre modèles de volatilité et crises financières). Elle attire alors l’attention de communautés diverses, qui trouvent dans ce croisement des outils utiles à leurs propres travaux.

S’agissant de la connectivité sociale, les chercheurs bien insérés dans les réseaux académiques, souvent grâce aux collaborations et à la cosignature d’articles, voient leurs travaux circuler plus rapidement et plus largement. Publier en équipe accroît les chances d’être lu et cité, car chaque coauteur diffuse l’article dans ses propres cercles. Ainsi, une idée devient populaire quand elle agit comme un pont, à la fois entre thèmes et entre chercheurs.

Les paradoxes de la diffusion

Nos résultats révèlent toutefois un paradoxe. Plus une idée est connectée, plus elle a de chances de devenir populaire et influente… mais seulement jusqu’à un certain point. Au-delà, trop de connexions finissent par brouiller son identité et diluer son impact. Autrement dit, multiplier indéfiniment les collaborations ou les croisements disciplinaires n’assure pas automatiquement plus de succès : l’excès peut au contraire nuire à la lisibilité et à la reconnaissance d’une contribution.

De même, si la cosignature est généralement un atout et un levier puissant de visibilité, la multiplication des auteurs ne garantit pas automatiquement plus de reconnaissance et d’influence. Elle peut même parfois réduire la clarté du message ou affaiblir l’influence individuelle des chercheurs impliqués.

Une science de réseaux

Notre étude met aussi en lumière un effet de temporalité. La connectivité thématique produit ses effets rapidement, dès les premières années suivant la publication. La connectivité sociale, elle, agit davantage sur le long terme : il faut environ six ans pour que les réseaux académiques commencent à amplifier significativement la diffusion d’une idée.

Ces dynamiques différenciées permettent de mieux comprendre comment certaines contributions connaissent un succès immédiat, alors que d’autres s’installent plus progressivement dans la littérature, à mesure que les réseaux de coauteurs et de citations relaient leurs apports. Ainsi, un article novateur reliant plusieurs méthodes peut susciter rapidement l’attention, mais son inscription durable dans la littérature dépendra de la réputation et du réseau de ses auteurs.

La popularité scientifique ne dépend pas seulement de la rigueur ou de l’originalité intrinsèque des travaux. Elle repose aussi sur la capacité à s’inscrire dans des réseaux thématiques et sociaux, et à trouver le bon équilibre entre visibilité et lisibilité.

Une méthodologie originale

Pour parvenir à ces résultats, nous avons mobilisé des méthodes innovantes. À l’aide de techniques de traitement automatique du langage (Structural Topic Models), nous avons cartographié les thématiques des articles et mesuré leur connectivité. Nous avons aussi utilisé des outils d’analyse de réseaux afin de caractériser la position des chercheurs dans les structures de coauteurs. Enfin, nous avons appliqué des modèles économétriques adaptés aux données de citations, en particulier le modèle hurdle negative binomial, qui permet de tenir compte du grand nombre d’articles jamais cités et de la forte dispersion des distributions de citations.

Fondation nationale pour l’enseignement de la gestion des entreprises (Fnege) Médias, 2025.

La robustesse de nos résultats a été confirmée par des tests sur d’autres modèles statistiques et par des analyses de sensibilité, renforçant la validité des conclusions.

La finance également concernée

Ces mécanismes ne concernent pas uniquement la communauté scientifique et les revues spécialisées. L’économétrie irrigue l’ensemble de l’économie et de la finance. Ses outils et méthodes sont essentiels pour aider les banques centrales dans leurs décisions de politique monétaire, éclairer la régulation des marchés financiers ou encore évaluer les politiques publiques.

Ainsi, la diffusion, ou au contraire l’oubli, d’une idée en économétrie peut avoir des conséquences bien réelles sur la manière dont nous analysons les phénomènes économiques et dont nous gouvernons nos sociétés. Une innovation méthodologique qui se diffuse largement peut influencer la façon d’évaluer une crise, d’anticiper des bulles financières ou d’apprécier les effets de la transition énergétique.

Notre étude rappelle que la science est aussi une affaire de réseaux. Les idées les plus populaires ne sont pas nécessairement les meilleures, mais celles qui savent tisser des liens entre disciplines et circuler dans les bons cercles académiques. La prochaine grande innovation existe peut-être déjà. Reste à savoir si elle trouvera les ponts nécessaires pour devenir incontournable.

The Conversation

Valérie Mignon est conseiller scientifique au CEPII, membre du Cercle des économistes, présidente de la section 05 (sciences économiques) du CNU et secrétaire générale de l’AFSE.

Marc Joëts ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand une idée en économie devient populaire : les ressorts cachés de sa diffusion – https://theconversation.com/quand-une-idee-en-economie-devient-populaire-les-ressorts-caches-de-sa-diffusion-266261

Et si la dette publique servait d’abord à rendre les citoyens plus heureux ?

Source: The Conversation – France (in French) – By Francis Munier, Maître de Conférences, économiste, Université de Strasbourg, Université de Strasbourg

La focalisation du débat sur le montant de la dette publique occulte une question importante. Les dépenses publiques contribuent-elles au bonheur des citoyens ? Il ne s’agit pas seulement de dépenser moins, mais aussi de dépenser mieux, et pour le plus grand nombre.


En 1944, le Conseil national de la Résistance rédigeait le programme « Les jours heureux », véritable projet de reconstruction sociale et économique. Ce texte fondateur affirmait une vision ambitieuse de l’action publique, celle d’un État garantissant à chacun les conditions d’une vie digne, en misant sur les services publics, la solidarité nationale et la justice sociale.

Dans le contexte actuel de polycrises, cette ambition conserve toute sa pertinence et ceci malgré une donne totalement différente. Elle invite à interroger les finalités du budget de l’État et à le repenser comme un levier de bien-être collectif. Dans quelle mesure les dépenses publiques améliorent-elles réellement la qualité de vie ? S’endetter peut se justifier si cela prépare un avenir meilleur, mais encore faut-il définir ce « meilleur ».

Au-delà du PIB

Les recherches en économie du bonheur offrent des outils conceptuels et empiriques précieux. Elles permettent de dépasser une conception fondée par trop sur l’offre, en intégrant des indicateurs alternatifs au PIB pour notamment évaluer l’impact des dépenses publiques sur la qualité de vie des citoyens.

Car le paradoxe est saisissant : alors même que la dette publique continue d’augmenter, la précarité persiste, les inégalités se creusent, les urgences débordent, les conditions dans l’éducation se dégradent, l’anxiété et la colère collective grandissent, et les canicules s’enchaînent. La dépense publique semble de moins en moins en phase avec les attentes sociales. Cette déconnexion alimente une défiance croissante à l’égard des institutions.

L’efficacité de l’État, une variable clé

Or, selon Benjamin Radcliff, les études montrent bien que les personnes vivant dans des pays où la part des dépenses sociales rapportées au PIB est élevée sont généralement plus satisfaites de leur vie, mais sous réserve de la qualité du gouvernement et de la confiance dans ce gouvernement. L’efficacité de l’État est donc une variable clé dans la perception positive de la fiscalité et de la dette publique.




À lire aussi :
Pourquoi la situation politique rend les Français malheureux


Repenser le budget public pour rendre les gens plus heureux passe d’abord par l’utilisation de données, recueillies à travers des enquêtes où les citoyens évaluent leur bien-être subjectif. Dès 2009, le rapport Stiglitz-Sen-Fitoussi soulignait les limites du PIB comme indicateur de progrès, et appelait à une évaluation plus fine des politiques publiques à travers des indicateurs sociaux, environnementaux et subjectifs. Cette réflexion a nourri de nombreuses initiatives, telles que le programme Beyond GDP, l’indice de vivre mieux de l’OCDE, ou encore les travaux de l’observatoire du bien-être en France, sur la perception que les Français ont de leur qualité de vie.

Plus de dette pour plus de bonheur ?

Ce changement de paradigme conduit à une redéfinition des objectifs de la dette et de la dépense publique. Richard Layard et ses collègues de la London School of Economics, proposent de mesurer l’efficacité des politiques publiques en fonction du nombre d’années de bien-être générées par euro investi. Cette approche, fondée sur des données empiriques, permet objectivement de comparer les interventions publiques. Une révolution de méthode, appuyée par des données concrètes, dont nous donnons ci-après quelques exemples.

Certaines politiques ont un rendement particulièrement élevé en termes de bien-être. À l’évidence, le traitement des « maladies du bonheur » en référence au livre de Hugues Lagrange (dépression, anxiété, stress, mal-être comme forme de « pathologies des Modernes »)) apparaît très efficace. Il permet aux personnes de retrouver un emploi, de l’autonomie et une meilleure qualité de vie, et en cela une réduction de coûts sociaux. Au Royaume-Uni, les programmes de « prescription sociale » ont permis de réduire de 28 % les consultations médicales et de 24 % les passages aux urgences.

L’éducation, un domaine stratégique

Francesco Sarracino et Kelsey O’Connor rappellent qu’à Philadelphie, la reconversion de friches industrielles en espaces verts a entraîné une baisse de 41 % des cas de dépression, de 63 % des troubles mentaux, et de 29 % des violences armées. À New York, une augmentation de 20 % de la surface de forêts urbaines a réduit la prématurité et le faible poids de naissance. Ces résultats soulignent l’impact des politiques d’aménagement sur la santé publique.

L’éducation représente un autre domaine stratégique. Les enquêtes Pisa montrent que les élèves qui se déclarent heureux réussissent mieux. De même, le bien-être subjectif des enseignants influence directement la performance des élèves. Miser sur des environnements scolaires épanouissants, des soutiens psychologiques et un climat de confiance et de reconnaissance offre donc un rendement élevé pour un coût modéré sur le long terme.

Le bien-être n’est pas l’ennemi de la croissance

Contrairement à certaines idées reçues, l’investissement dans le bien-être n’est pas antagoniste à la performance économique. Les travaux de Gaël Brulé et Francis Munier montrent qu’un environnement propice à la créativité favorise à la fois l’innovation et le bien-être subjectif. De même, les comportements écologiques sont associés à une plus grande satisfaction personnelle, ce qui renforce l’acceptabilité sociale de la transition écologique.

Investir dans ces politiques produit donc un rendement élevé en bonheur et en efficacité, tout en générant des économies sur le long terme. Car, les personnes plus heureuses sont plus productives, plus enclines à nouer des relations sociales, plus coopératives, mais également plus innovantes et écologiques. En somme, un cercle vertueux propice pour cibler les dépenses publiques et réduire la dette publique.

La centralité des inégalités

Dans cette perspective, la question des inégalités demeure centrale. Kate Pickett et Richard Wilkinson démontrent que les sociétés les plus égalitaires sont aussi les plus sûres, les plus éduquées et les plus heureuses. Loin de ne concerner que les populations les plus fragiles, l’inégalité fragilise l’ensemble du tissu social, en générant défiance, anxiété et violences, avec des effets délétères sur la réussite scolaire et les comportements à risques. Il s’agit d’un enjeu collectif majeur.

Nous ne sommes pas tous égaux face au bonheur. Certains, par nature ou par circonstances personnelles, peuvent y accéder plus facilement. Lorsque la société elle-même aggrave cette inégalité, cela est inacceptable. La société ne peut modifier les inégalités naturelles, mais doit chercher à les compenser. C’est une source de progrès collectif via des politiques ambitieuses comme une redistribution juste et une obligation sociale pour les pouvoirs publics.

Lorsque les dépenses publiques sont orientées vers des politiques qui améliorent durablement le bien-être, elles renforcent aussi l’adhésion à l’impôt, car les citoyens perçoivent concrètement les bénéfices de leur contribution.

Pierre Boyer souligne que lorsque la confiance dans les institutions est élevée, les habitants sont à la fois plus heureux et favorables à une fiscalité forte. L’impôt y est vu comme un investissement collectif. Il faut plaider pour une fiscalité fondée sur la confiance et la justice, qui renforce le lien social et le bien-être, et finance les dépenses publiques.

Cité de l’économie, 2015.

Les travaux de Gabriel Zucman pour l’instauration d’une taxe de 2 % sur la richesse des ultrariches semblent aller dans ce sens. Ce mécanisme de redistribution semble compatible avec les données sur le bien-être. En effet, Angus Deaton et Daniel Kahneman ont montré que le bien-être émotionnel augmente avec le revenu jusqu’à environ 75 000 dollars annuels, seuil au-delà duquel il se stabilise. A priori, cette taxe n’entamerait donc pas significativement le bonheur des plus fortunés.

Pour un rééquilibrage intergénérationnel

Enfin, les études révèlent un fait préoccupant : les moins de 30 ans se déclarent aujourd’hui nettement moins heureux que les générations précédentes. Ce renversement historique alerte sur un possible effritement du contrat social. Il appelle à un rééquilibrage intergénérationnel des politiques publiques aussi bien sur le plan budgétaire et fiscal que symbolique.

Un changement de cap est nécessaire. Faire du bien-être subjectif une boussole politique permettrait de replacer les citoyens au cœur des décisions publiques et renforcer la légitimité des politiques publiques.

Face aux crises écologique, économique, sociale et générationnelle, cette réorientation apparaît comme à la fois urgente, pragmatique et humaine pour créer des sociétés plus heureuses, plus justes, plus innovantes et plus durables, tout en assurant une soutenabilité de la dette publique.

The Conversation

Francis Munier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Et si la dette publique servait d’abord à rendre les citoyens plus heureux ? – https://theconversation.com/et-si-la-dette-publique-servait-dabord-a-rendre-les-citoyens-plus-heureux-266640

Inondations : satellites et « jumeaux numériques » pour mieux anticiper et agir vite

Source: The Conversation – France in French (2) – By Raquel Rodriguez Suquet, Ingénieure d’applications d’Observation de la Terre, Centre national d’études spatiales (CNES)

Les précipitations violentes accroissent le risque d’inondations rapides et difficiles à prévoir. Pour mieux se préparer, il faut bien connaître le terrain. En combinant de nombreuses techniques d’imagerie satellite et de modélisation, les chercheurs et experts créent des « jumeaux numériques », c’est-à-dire des répliques virtuelles du territoire. Celles-ci permettent de mieux savoir où et quand l’eau peut monter, et quelles infrastructures sont en zone à risque.


Entre le 26 janvier et le 1er février 2025, des crues exceptionnelles ont touché le département de l’Ille-et-Vilaine avec des hauteurs d’eau record par endroits. Au total, 110 communes ont été reconnues en état de catastrophe naturelle, et des milliers de logements, commerces, entreprises, ont été sinistrés.

Un autre département fréquemment touché par les orages est celui du Var. Le département avait déjà essuyé la tempête Alex en 2020 et ses 50 centimètres de précipitations cumulées en 24 heures à Saint-Martin-Vésubie. Cette année, en mai, ce sont 25 centimètres de pluie qui sont tombés au Lavandou en une heure seulement.

Avec le changement climatique, les évènements hydrométéorologiques sont de plus en plus fréquents et de plus en plus intenses. Les inondations constituent un risque naturel majeur — 43 % des risques naturels mondiaux dans le monde entre 1995 et 2015 — avec une augmentation notable des aléas survenus au cours des dernières années.

En associant données de pointe d’observation de la Terre et modèles physiques et numériques, les jumeaux numériques permettent de mieux prédire les inondations et les risques associés, d’estimer les dommages potentiels et de concevoir des mesures de prévention efficaces pour protéger les biens et les populations.

Gestion de crise et anticipation : un rôle pour le secteur spatial en cas d’inondations

Le caractère soudain et rapide des inondations requiert une réponse très rapide des services de gestion de crise et, pour cela, une excellente préparation et anticipation des impacts potentiels de ces crises est nécessaire.

Deux principaux programmes basés sur des données d’observation de la Terre sont au service de la gestion de crise. La Charte internationale Espace et catastrophes majeures est opérationnelle depuis 2020 et met à la disposition des équipes de secours et d’urgence des images satellites dans les heures qui suivent une catastrophe majeure, n’importe où dans le monde.

En Europe, le Copernicus Emergency Mapping Service fournit un produit de cartographie rapide en appui à la gestion de crise, et un produit de cartographie de risques et de reconstruction destiné à la prévention de risques, à la préparation de crise et à la gestion post-sinistre. Ce service a par exemple été activé par la protection civile française lors des inondations dans le département d’Ille-et-Vilaine de cette année.

carte de la zone inondée avec la profondeur d’eau
Cartographie rapide (réalisée en sept heures après l’acquisition satellite) de la hauteur et de l’étendue des inondations dans le département de l’Ille-et-Vilaine, fourni par le service de cartographie rapide de Copernicus, à partir de l’imagerie satellite radar à haute et à très haute résolution (Sentinel 1, IcEye, COSMO-SkyMed, PAZ, Terrasar-X, RADARSAT).
Service de cartographie rapide de Copernicus, projet EMSR788, CC BY

Lors de l’événement majeur concernant la tempête Alex à Saint-Martin-Vésubie en 2020, la sécurité civile française a activé également le service de cartographie rapide dès le 3 octobre 2020. Pour cet événement, le Centre national d’études spatiales (Cnes) a aussi immédiatement programmé les satellites Pléiades (capables de fournir des photographies de très haute résolution dans un temps très court) pour imager la zone pendant 8 jours minimum. Ainsi, en seulement quelques heures, de premières images ont été livrées, permettant au SERTIT de générer la cartographie des dégâts correspondante pour aider à la gestion de crise.

Utilisation de l’imagerie satellite pour la gestion de crise et l’identification des zones impactées lors des inondations à Saint-Martin-Vésubie (Alpes-Maritimes), en octobre 2020.
Raquel Rodriguez-Suquet, Fourni par l’auteur

En effet, le risque d’inondation correspond à la conjugaison, en un même lieu, d’un aléa (phénomène naturel aléatoire comme l’inondation) avec les enjeux (humains, biens, économiques et environnementaux) susceptibles de subir des dommages. L’ampleur du risque dépend fortement de la vulnérabilité des enjeux exposés, autrement dit de leur résistance face à un évènement donné.

Outre le contexte climatique, les phénomènes d’inondations sont aggravés depuis des décennies par l’aménagement inadapté du territoire. Populations et biens s’accumulent dans des zones inondables, ce qui provoque notamment la construction de nouvelles routes et centres commerciaux, le développement de l’agriculture intensive, la déforestation ou encore la modification du tracé des cours d’eau. De surcroît, l’imperméabilisation des surfaces amplifie le ruissellement de l’eau et ne fait qu’aggraver encore la situation. Ces aménagements contribuent malheureusement trop souvent encore à la destruction des espaces naturels qui absorbent l’eau en cas de crues et qui sont essentiels au bon fonctionnement des cours d’eau.

Ceci nécessite d’impliquer une chaîne complexe d’acteurs — de l’observation satellite aux équipes sur le terrain.

schéma
Aléas, enjeux et risques d’inondation.
Ministère de la transition écologique et de la cohésion des territoires, 2021, Fourni par l’auteur

Observer la Terre pour mieux apprécier les risques d’inondation

Les impacts des inondations peuvent être réduits par une meilleure culture du risque, un système d’alerte précoce, une cartographie précise des zones à risque, des prévisions fondées sur la modélisation, ainsi que par des aménagements du territoire et des infrastructures de protection adaptée – en ligne avec la politique de prévention des risques en France.

Ces informations provenant de données (in situ, IoT, drones, satellites, aéroportées…), et de modèles physiques très précis.

Les moyens d’observation in situ permettent de faire des mesures très précises de la hauteur, du débit et de la vitesse de l’eau alors que les moyens aéroportés (drone ou avion) permettent d’observer l’étendue de l’inondation. Or, il est très compliqué – voire impossible – de faire voler un avion ou un drone dans des conditions météorologiques dégradées. Par conséquent, ces observations sont complétées depuis l’espace. Par exemple, l’imagerie radar permet de faire des observations pendant la nuit et à travers les nuages.

Les données satellites apportent de nombreuses informations, par exemple la mesure du niveau d’eau de réservoirs, l’étendue d’eau ou encore la qualité de l’eau.

schéma
Les satellites et l’observation de l’eau sur Terre.
Traduit et adapté de Papa et coll., Surveys in Geophysics, 2023, Fourni par l’auteur

Malheureusement, aujourd’hui, ces missions ont une faible résolution temporelle par rapport au besoin d’observation des inondations au moment de la crise elle-me : la fréquence de « revisite » des satellites est de quelques jours au mieux. Les satellites Sentinel 2 par exemple permettent de photographier la Terre entière en 5 jours, alors que le satellite SWOT revient sur la même zone tous les 21 jours. De plus, il n’est pas rare que les passages des satellites ne correspondent pas aux dates de pic des crues pendant la gestion de la crise.

Bien entendu, malgré ces limitations actuelles, il est clair que les données satellites sont déjà d’un grand apport pour la prévention des inondations, la préparation de la crise, et l’analyse postimpact de la crise.

Combiner les observations et faire appel aux modélisations

Aujourd’hui, c’est donc une combinaison des données in situ, drone, aéroportées et spatiales qui permet d’améliorer la description des inondations.

Mais l’observation seule ne permet pas de réaliser des prévisions fiables : l’utilisation des modèles physiques est incontournable pour mieux représenter la dynamique de l’écoulement dans son ensemble, pour faire des prévisions à court terme — ainsi que des projections à long terme sous les différents scénarios dans un climat futur.

Ces combinaisons entre données et modèles permettent de fournir des représentations précises de la dynamique d’écoulement de l’événement d’inondation ainsi que des prévisions pour simuler un comportement futur tel qu’un changement climatique, avec plusieurs scénarios possibles, ainsi que le déploiement de stratégies d’adaptations.

C’est ainsi que sont nés les « jumeaux numériques ».

Les jumeaux numériques pour les inondations

Un jumeau numérique est une combinaison d’une « réplique numérique » d’une zone réelle, associée à des capacités de modélisation et de simulation de plusieurs scénarios de phénomènes climatiques.

S’agissant des inondations, l’objectif de ces simulations est de disposer d’un outil d’aide à la décision dans toutes les phases du cycle de gestion du risque : prévention, surveillance et protection ; alerte et gestion de crise ; analyse post-crise ; reconstruction, résilience et réduction de la vulnérabilité.

Un jumeau numérique permet de faire trois familles d’analyses :

  • What now ? Un scénario de réanalyse des épisodes passés pour améliorer la compréhension de la dynamique des événements (plan de prévention, aménagement du territoire, assurance…) ;

  • What next ? Un scénario de prévision en temps réel des crues et des inondations qui représente la façon dont les inondations évolueront dans le futur à court terme à partir de l’état actuel (sécurité civile, gestion de crise…) ;

  • What if ? Un scénario d’évaluation de l’impact de l’inondation qui représente la façon dont le débit des cours d’eau et les étendues inondées pourraient évoluer sous différents scénarios hypothétiques dans le contexte de changement climatique.

Ainsi, l’Agence spatiale européenne (ESA) et la NASA développent des jumeaux numériques à l’échelle globale pour intégrer les données et modèles des environnements naturels et des activités humaines afin d’accompagner les politiques publiques sur les risques naturels.

À titre d’exemple, le CNES et ses partenaires ont mis en place un démonstrateur de jumeau numérique consacré à l’étude des inondations fluviales par débordement, qui permet de surveiller, détecter et prévoir de manière fiable les inondations à une échelle locale et globale, tandis qu’un autre jumeau numérique se concentre sur les zones côtières dans un contexte de changement climatique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Inondations : satellites et « jumeaux numériques » pour mieux anticiper et agir vite – https://theconversation.com/inondations-satellites-et-jumeaux-numeriques-pour-mieux-anticiper-et-agir-vite-262149

Les pharmacies disposent de peu de leviers pour se redresser

Source: The Conversation – France in French (3) – By Aniss Louchez, Docteur en économie, Université de Lille

Le chiffre d’affaires moyen d’une pharmacie en zone urbaine se situe entre 1 million et 1,2 million d’euros. MikeDotta/Shutterstock

La contraction du marché des médicaments remboursés, principale source de revenus des pharmacies, met leur modèle économique en danger. Ces offices disposent de quelques leviers régulés en raison de la nature même des officines. Lesquels ?


La pharmacie de ville, également appelée officine, est un acteur essentiel de l’offre de soins ambulatoire. Elle joue un rôle essentiel en fournissant des biens médicaux – médicaments et dispositifs médicaux – et des services de prévention, tels que la vaccination, à la population. La pharmacie bénéficie en France d’un monopole légal qui empêche la fourniture de produits de santé par d’autres acteurs.

Cette mesure vise à garantir la qualité des soins, selon l’économiste de la santé Charles Phelps. Elle se justifie par la nécessité de bénéficier d’un expert pour guider le patient selon l’Inspection générale des finances (IGF). La pharmacie est une structure particulière qui doit concilier une mission de santé publique avec l’impératif entrepreneurial d’assurer sa soutenabilité économique.

Cette soutenabilité se fragilise depuis plusieurs décennies. De 2014 à 2024, le nombre de pharmacies est passé de 21 772 à 19 627, selon le Conseil national de l’ordre des pharmaciens (Cnop), soit une baisse de 1 % par an pendant dix ans. Le nombre d’habitants par pharmacie est passé de 3 037 à 3 368 et pourrait atteindre 4 148 en 2050.

Cette contraction objective un malaise économique grandissant qui a motivé les récentes grèves des pharmaciens le 30 mai 2024, 16 août 2025 et 18 septembre 2025, largement suivies par plus de 80 % des pharmacies du pays. Pour comprendre la persistance et l’aggravation de ces tensions, cet article vise à replacer les pharmacies dans leur cadre macroéconomique et présenter les mécanismes d’ajustement à leur disposition.

Croissance de la demande de médicaments

L’activité des pharmacies est principalement adossée au marché du médicament remboursé qui représente 72,3 % du chiffre d’affaires (CA) en 2023, selon le cabinet KPMG. Le reste de l’activité est représenté par trois types de produits. Les médicaments non remboursés et les dispositifs médicaux – 14,6 % du CA –, la parapharmacie – 11,2 % du CA – et les tests et la vaccination Covid – 1,9 % du CA.

La demande de médicaments, principale source de revenus, est portée par le vieillissement de la population qui va se poursuivre jusque 2070, selon l’Insee. Avant 2021, le nombre de boîtes de médicament connaissait une croissance annuelle comprise entre 2,6 et 4,4 %, selon les Comptes nationaux de la Santé (CNS).

Contraction du marché des médicaments

Le marché du médicament s’est contracté de 32,1 milliards à 29,8 milliards d’euros, faisant de ce poste le principal contributeur à la maîtrise des dépenses de santé. Cette contraction est partiellement compensée par les fermetures de pharmacies, stabilisant le chiffre d’affaires moyen entre 1 million et 1,2 million d’euros. La stabilité des recettes masque l’augmentation des charges – salaires, coûts des fournitures, loyers, assurances, logiciels de gestion – portée par l’inflation, et amenant à une réduction des marges.

Cette pression transparaît dans les fermetures dont presque la moitié affectait des pharmacies de moins de 1 million de chiffre d’affaires, selon le Conseil national de l’ordre des pharmaciens (Cnop), alors qu’elles représentaient moins de 14,5 % des pharmacies, selon KPMG.

Dans un contexte de contraction de leur activité principale, il est important de présenter les mécanismes d’ajustement dont disposent les pharmacies.

Mécanismes d’ajustement

Pour assurer sa soutenabilité, une entreprise peut adapter son activité en ajustant les volumes de production et les prix. Ces mécanismes sont régulés en raison de la nature particulière du médicament.

En dehors des préparations magistrales, en raison de l’impératif de qualité, de sécurité et d’efficacité, les pharmacies ne peuvent pas modifier ou développer un médicament, il s’agit du rôle de l’industrie pharmaceutique.

Ajustement par les volumes

La pharmacie ne peut pas augmenter son nombre de boites de médicaments remboursés. Celui-ci est soumis à des prescriptions qui amènent les prescripteurs – médecins, infirmiers, dentistes, etc. – à définir l’activité des pharmacies. L’accentuation des pénuries de médicaments limite les possibilités d’augmentation globale de l’activité. En parallèle, la publicité est quasiment inexistante afin de garantir l’éthique dans la dispensation des soins.

Une pharmacie ne peut que difficilement optimiser sa localisation géographique, en raison de la réglementation. Les créations de nouvelles pharmacies sont quasi impossibles depuis une ordonnance de 2018, faisant suite à un avis de l’Inspection générale interministérielle du secteur social (Igas). Seules les opérations de transfert (déménagement) sont autorisées et régulées, limitant leur recours. Si depuis 2023 l’article L. 162-31-1 du Code de la Sécurité sociale permet la création d’antennes de pharmacie, un local de dispensation déporté dans une autre commune, ce dispositif demeure peu usité. La première ouverture ayant eu lieu en juillet 2024.

Si la vente en ligne sur Internet est perçue comme une solution par l’Igas, celle-ci est également régulée par le Code de la santé publique, adossée à une pharmacie physique et limitée en volume de médicaments impliqués.

Il est à noter que ces enjeux spatiaux amènent principalement à une redistribution du volume d’activité. La captation d’une clientèle supplémentaire se fait au détriment des autres pharmacies, exposant à des risques de cannibalisation entre pharmacies.

Ajustement par les prix

Afin d’assurer une certaine rentabilité, les firmes peuvent adapter leurs prix. La situation des pharmacies quant à ces mécanismes dépend du type de produit.

Les produits remboursés – médicaments et dispositifs médicaux – ont un prix administré, afin de garantir l’accessibilité financière aux traitements pour la population et la société. Cette situation empêche le pharmacien d’ajuster les prix de vente et limite la friction entre pharmacies.

Le pharmacien peut toutefois « négocier » des marges arrière. Si le partage de la valeur est réglementé par des marges administrées, des possibilités de remises sont prévues et plafonnées à 40 % du prix fabricant hors taxe (PFHT). Cela permet de limiter les frictions avec les fournisseurs et le coût de négociation. Ces marges arrière constituent un moyen de soutenir les pharmacies de ville, sans affecter le prix de vente du médicament, au détriment des acteurs en amont de la fourniture de médicaments.

Les médicaments non remboursés ont un prix librement fixé par le pharmacien. L’économiste de la santé Céline Pilorge souligne que les mécanismes de compétition sur les prix sont peu effectifs, sans doute en raison de leur faible part dans le chiffre d’affaires des pharmacies. Il en est de même pour la parapharmacie qui, ne faisant pas partie du monopole pharmaceutique, fait l’objet d’une compétition avec d’autres structures que des pharmacies.

Pérennité des pharmacies en jeu

La pharmacie de ville est un offreur de soins ambulatoire important dans le système de santé. Les dynamiques macroéconomiques de longs termes soulignent la contraction du marché du médicament, principale source de revenus des pharmacies. En face à l’épuisement de mécanismes d’ajustement limités, la pérennité des pharmacies est mise en jeu.

Cette situation interroge sur le partage de la valeur, ainsi que sur le maintien d’un service de santé de proximité pour la population. De plus, la capacité à investir de nouvelles missions de prévention apparaît comme difficile, en l’absence de révision des modes de rémunération des pharmacies.

The Conversation

Aniss Louchez a reçu des financements de l’ISITE-ULNE pour le financement de sa thèse de recherche en économie.

ref. Les pharmacies disposent de peu de leviers pour se redresser – https://theconversation.com/les-pharmacies-disposent-de-peu-de-leviers-pour-se-redresser-266154

Les adolescents face aux écrans, entre contrôle et « scrolling » : regards croisés de lycéens entre la France et la Chine

Source: The Conversation – in French – By Runsen Cao, Doctorant en sciences de l’information et de la communication, Université Bordeaux Montaigne

Tout autour du monde, les écrans prennent de plus en plus de place dans la vie des jeunes. Si la manière dont ces derniers sont encadrés diffère d’un pays à l’autre, partout leurs pratiques quotidiennes des écrans les confrontent à nombre de dilemmes. C’est ce que fait ressortir une enquête auprès de lycéens français et chinois.


Le volume de temps et d’engagement consacré « aux écrans » est une des caractéristiques de la culture juvénile actuelle. Si les parents sont animés de multiples craintes concernant les smartphones et autres dispositifs numériques, cette préoccupation n’est pas réservée aux Français. En Chine, où 97,2 % des adolescents ont accès à Internet, même dans les zones rurales, protéger et éduquer les jeunes au numérique constitue également un enjeu de société fondamental.

Or, le contrôle des usages à l’école en Chine est beaucoup plus strict qu’en France. La plupart des lycées chinois interdisent totalement le téléphone personnel. Pour les élèves d’internat, certains établissements proposent des boîtes fermées à l’extérieur des salles de cours pour garder les téléphones jusqu’à la fin de journée.

Au-delà des interdictions et des discours de prévention (la « pause numérique », le rapport de la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs, publié le 11 septembre 2025, sans parler des innombrables publications sur les « dangers des écrans ») ou de répression, pourquoi ne pas consulter les adolescents eux-mêmes ? Comment vivent-ils leurs expériences du numérique au quotidien ?

La comparaison entre la France et la Chine sur ce point peut être éclairante, au regard de la différence des contextes de contrôle. Dans le cadre d’une enquête de terrain qualitative conduite auprès de lycéens dans différentes villes de France et de Chine, nous avons pu donner la parole aux adolescents d’environnements sociaux très différents, non seulement sur leurs pratiques mais aussi sur leurs ressentis et sur leurs émotions.

Ennui et sentiment de culpabilité

Pour beaucoup de lycéens français et chinois, passer du temps sur leur téléphone est devenu un automatisme, comme le dit Katherine, élève française en classe de seconde :

« En général, je pense que, lorsqu’on s’ennuie ou qu’on ne sait pas trop quoi faire, on a tout de suite le réflexe de prendre le téléphone. »

C’est particulièrement le cas dans le contexte post-pandémique, selon Xiaoke, élève chinoise de première :

« Je m’ennuyais tellement à la maison et je n’avais pas de moyen de sortir. Du coup je ne pouvais m’amuser qu’avec les produits électroniques*. »

S’ils profitent d’une riche palette de divertissements grâce aux technologies, aux jeux vidéo, aux vidéos (aussi bien les courtes, appelées « shorts », au format vertical, que les longues) ou encore aux messages échangés avec des amis – comme résumé dans l’expression chinoise « jouer (玩 wán) avec le téléphone », qui renvoie à toute activité récréative sur le téléphone (regarder, scroller ou encore « être sur son téléphone » pour la France) –, les adolescents n’entretiennent pas uniquement un rapport ludique au numérique. Ils font la distinction entre ce qui est purement divertissant et ce qui est éventuellement utilitaire, non seulement pour le travail scolaire, mais également pour nourrir leur curiosité sur le monde.

C’est le cas pour cet élève français de terminale, qui perfectionne son anglais à travers la série Peaky Blinders, ou encore pour Hang, élève chinois en première, qui s’intéresse aux vidéos de vulgarisation de savoirs en mathématiques et en philosophie, sur Bilibili (plateforme vidéo chinoise).

Ils sont souvent confrontés à des dilemmes quant à leurs propres usages, mais pas forcément de la même manière. Les lycéens français, qui ont souvent moins de contraintes dans l’usage de leur téléphone, ont conscience d’un usage parfois excessif, notamment à travers le scrolling, qui représente pour certains, comme pour cette élève française en première, une perte de temps :

« Ça ne fait rien, à part bouffer mon temps et mon cerveau. »

Toutefois, il est souvent difficile pour eux de s’arrêter, comme le soulignent beaucoup de recherches, avec le développement d’un sentiment de culpabilité. C’est ce qu’éprouve cette élève française en terminale, qui compense ce sentiment par une stratégie qui consiste à regarder plus de contenus éducatifs et culturels :

« J’essaie de me limiter, je regarde des vidéos culturelles sur YouTube. »

Des « usages de revanche »

Pour les lycéens chinois, face à la réglementation très stricte des usages du téléphone, le dilemme porte sur le choix d’utiliser ou non son téléphone en cachette. La plupart des élèves enquêtés avouent qu’ils ont apporté leur téléphone au lycée malgré l’interdiction. Mais ils ne parviennent pas à en profiter, comme en témoigne un élève chinois en première :

« Autant ne pas l’amener, vu que je n’en profite même pas. »

L’interdiction totale suscite parfois des « usages de revanche », comme évoqué par Lan, lycéen en internat, qui passe quasiment tout son dimanche sur le téléphone, étant donné son usage très limité en cachette dans la semaine.

D’ailleurs, une forme de jeu de cache-cache se met souvent en place avec les parents. Certains, comme Yuan, également en internat, se plaignent d’avoir été « trahis » par les parents qui ont prévenu le lycée qu’il avait probablement apporté son smartphone, car ils ne le trouvaient pas à la maison. D’autres, comme Wan, lycéenne en internat, se félicitent du soutien des parents qui comprennent son besoin de lignes de fuite après une journée d’étude fatigante. Les usages du téléphone reflètent donc aussi la qualité des rapports de confiance avec les parents.

Entre introspection, discipline et contrôle extérieur, les lycéens construisent leur rapport au numérique sous contrainte dans des contextes sociaux différents. L’éducation consiste, pour Kant, en soins, discipline culture. Le philosophe privilégie la référence à cette dernière par rapport aux deux premières. La culture pourrait devenir un point de départ pour repenser l’éducation à l’ère du numérique.

Les jeunes en fin d’adolescence sont non seulement des mineurs dont les pratiques numériques sont à réguler et à éduquer de manière normative, mais également et surtout des sujets en train de se construire à partir d’expériences informationnelles très diverses, qui méritent une attention fine, au-delà des discours de panique. Ces expériences, dans leur diversité, sont largement comparables, voire communes, dépassant les différences des contextes culturels et normatifs.


N. B. : Les prénoms des jeunes cités dans cet article ont été changés pour préserver leur anonymat.

*« Produits électroniques »: l’expression désigne en langue chinoise tous les appareils connectés à Internet.

The Conversation

Runsen Cao ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les adolescents face aux écrans, entre contrôle et « scrolling » : regards croisés de lycéens entre la France et la Chine – https://theconversation.com/les-adolescents-face-aux-ecrans-entre-controle-et-scrolling-regards-croises-de-lyceens-entre-la-france-et-la-chine-264933

Sommes-nous plus bêtes que nos parents ?

Source: The Conversation – France in French (2) – By Corentin Gonthier, Professeur de psychologie, Nantes Université

Vous avez peut-être entendu parler du déclin de l’intelligence ? C’est cette idée selon laquelle le quotient intellectuel moyen a tendance à diminuer dans le monde occidental. De quoi s’alarmer sur l’état du monde, les politiques publiques, l’éducation et l’avenir de la jeunesse ! Ce déclin existe-t-il vraiment ?


Le déclin de l’intelligence est à la mode depuis quelques années. Le documentaire « Demain, tous crétins ? » diffusé par Arte en 2017 a diffusé cette polémique en France. La presse s’en est rapidement emparée à travers des titres alarmistes, comme « Le QI des Français en chute libre », « Et si l’humanité était en train de basculer dans l’imbécillité ? », ou même « Alerte ! Le QI des Asiatiques explose, le nôtre baisse ».

On s’est inquiété, et comme dans toute panique morale, des coupables ont été désignés. Selon leurs orientations politiques, les commentateurs ont blâmé les pesticides et perturbateurs endocriniens, la désaffection pour la lecture, la réforme de l’orthographe, la construction européenne, ou bien sûr, l’exposition aux écrans.

Une intelligence globale en hausse

Avant de chercher pourquoi l’intelligence déclinerait, encore faut-il être sûrs qu’elle décline. Cette idée d’une diminution de l’intelligence est pour le moins surprenante, car l’intelligence moyenne a plutôt augmenté au cours du XXe siècle. Plusieurs centaines d’études impliquant des millions de participants dans plus de 70 pays montrent qu’en moyenne, chaque génération fait mieux que la précédente sur les tests d’intelligence. Si on préfère parler en termes de quotient intellectuel (QI : le score global à travers un ensemble d’épreuves d’intelligence – sa moyenne est fixée à 100, la plupart des gens se situent entre 85 et 115), le quotient intellectuel moyen a augmenté d’environ 3 points tous les dix ans depuis le début du XXe siècle.

Cette augmentation de l’intelligence moyenne à chaque génération s’appelle l’effet Flynn. On connaît l’effet Flynn depuis les années 1930, et on l’attribue aux grandes améliorations du XXe siècle , telles que la baisse de la malnutrition et des maladies infantiles, ou le développement de la scolarisation. Aujourd’hui, il est ralenti dans les pays développés, mais continue à pleine vitesse dans les pays en voie de développement (les scores d’intelligence y augmentent deux fois plus vite, environ, que dans le monde occidental).

Que notre effet Flynn ralentisse ou s’interrompe, rien d’étonnant : la scolarisation et les qualités de notre système sanitaire ne progressent plus à grande vitesse. Mais un déclin de l’intelligence ? De petites baisses sont bien retrouvées par une poignée d’études, mais elles sont sans commune mesure avec les gains du XXe siècle. L’exemple de la Norvège (Figure 1) est frappant : ces données de grande qualité (jusqu’au début du XXIe siècle, la Norvège a évalué l’intelligence de l’ensemble de sa population masculine dans le cadre du service militaire obligatoire) montrent bien une petite diminution dans les années 2000, mais elle tient plus de la fluctuation aléatoire.

Scores moyens d’intelligence en Norvège, rapportés à une base 100 en 1938. Données adaptées de Sundet et al. (2004, 2014).
Fourni par l’auteur

Une étude pour le moins critiquable

D’où vient, alors, l’idée que l’intelligence s’effondrerait en France ? La littérature ne contient qu’une unique étude d’Edward Dutton et Richard Lynn portant sur un échantillon de 79 personnes. C’est un très petit échantillon pour déclencher une panique morale, bien sûr : 79 personnes ne sont pas vraiment représentatives de la France dans son ensemble. Quand on crée un test d’intelligence, on l’étalonne plutôt sur un échantillon d’au moins 1000 personnes pour avoir une bonne estimation de la moyenne (c’est le cas de l’échelle d’intelligence pour adultes de Wechsler, la WAIS, la plus utilisée en France).

Mais le problème de cette étude est surtout dans sa méthode et dans ses résultats. Notre petit groupe de 79 personnes a passé deux tests d’intelligence en 2009 : un ancien test d’intelligence (la WAIS-III, étalonnée en 1999), et un test plus récent (la WAIS-IV, étalonnée en 2009). En comparant les résultats de ce groupe de 79 personnes à la moyenne de l’échantillon de référence pour chacun de ces tests, Dutton et Lynn constatent que les résultats de ce groupe sont légèrement plus faibles que la moyenne sur l’ancien test d’intelligence, et légèrement plus élevés que la moyenne sur le nouveau test ; ils en déduisent qu’il était plus difficile d’obtenir un bon score sur le test de 1999… donc que l’intelligence moyenne a diminué entre 1999 et 2009.

Sur le principe, le constat de Dutton et Lynn est correct : nous avons tendance à faire moins bien sur les anciens tests d’intelligence (nous avons répliqué ce résultat à un peu plus grande échelle). Mais le problème est qu’il y a d’autres raisons qu’un déclin de l’intelligence pour expliquer que les gens fassent moins bien en 2009 sur un test paru en 1999.

Pour bien comprendre, il faut s’intéresser au contenu du test. Un test d’intelligence de type WAIS est composé d’un ensemble d’épreuves qui mesurent des choses différentes : le raisonnement logique abstrait (ce qu’on entend généralement par « intelligence » : compléter une série de figures géométriques, reproduire un dessin abstrait à l’aide de cubes…), mais aussi les connaissances (vocabulaire, culture générale…), la mémoire, ou encore la vitesse de traitement de l’information. Dans l’étude de Dutton et Lynn, les scores sont en fait rigoureusement stables dans le temps pour le raisonnement logique abstrait, la mémoire ou la vitesse de traitement, qui ne déclinent donc pas : les seuls scores qui sont plus faibles en 2009 qu’en 1999, ce sont les scores de connaissances. On retrouve exactement la même chose dans d’autres pays, comme la Norvège : le raisonnement logique abstrait est constant dans le temps tandis que les scores de connaissance deviennent plus faibles sur les anciens tests.

Les tests doivent régulièrement être mis à jour

L’intelligence générale ne décline donc pas, ni en France ni dans le monde occidental. Dans ce cas peut-on au moins se plaindre que les connaissances ont décliné : la culture se perd, les jeunes n’apprennent plus rien ? Même pas : si les gens font moins bien sur les anciennes versions des tests d’intelligence, c’est tout simplement parce que les questions deviennent obsolètes avec le temps. La WAIS-III demandait aux Français de calculer des prix en francs, de comparer les caractéristiques des douaniers et des instituteurs, de citer des auteurs célèbres du XXe siècle. Avec le temps, ces questions sont devenues plus difficiles. Les scores au test ont baissé, mais pas l’intelligence elle-même. Nous avons montré que cette obsolescence suffit à expliquer intégralement les résultats de Dutton et Lynn.

Voici un petit exemple, tiré du tout premier test d’intelligence : il s’agit d’un texte à compléter, destiné à évaluer la présence d’une déficience chez de jeunes enfants. Pouvez-vous faire aussi bien qu’un enfant de 1905 en retrouvant les neuf mots manquants ?

Il fait beau, le ciel est —1—. Le soleil a vite séché le linge que les blanchisseuses ont étendu sur la corde. La toile, d’un blanc de neige, brille à fatiguer les —2—. Les ouvrières ramassent les grands draps ; ils sont raides comme s’ils avaient été —3—. Elles les secouent en les tenant par les quatre —5— ; elles en frappent l’air qui claque avec —6—. Pendant ce temps, la maîtresse de ménage repasse le linge fin. Elle a des fers qu’elle prend et repose l’un après l’autre sur le —7—. La petite Marie, qui soigne sa poupée, aurait bien envie, elle aussi, de faire du —8—. Mais elle n’a pas reçu la permission de toucher aux —9—.

Les mots « amidonnés » (3), « poêle » (7), et « fers » (9) vous ont probablement posé plus de problèmes qu’à un enfant de 1905 ; mais vous conviendrez sûrement que cette difficulté ne dit pas grand-chose de votre intelligence. Les scores d’intelligence sur ce test ont bien décliné, mais c’est plutôt l’évolution technologique du repassage qui rend le test obsolète. De la même façon, la probabilité qu’une personne dotée d’une intelligence moyenne (QI=100) réponde correctement à une question de la WAIS portant sur la pièce de théâtre Faust était de 27 % en 1999, elle est de 4 % en 2019. Ainsi, les scores aux tests de connaissance déclinent naturellement dans le temps, au fur et à mesure que la culture évolue. C’est même pour cette raison que de nouvelles versions des tests d’intelligence paraissent régulièrement : la WAIS est remise à jour tous les dix ans environ (et la WAIS-V devrait paraître en 2026).

Une « erreur » qui sert un agenda politique

Confondre un déclin de l’intelligence avec l’obsolescence des questions du test, c’est tout de même une grosse erreur. Comment Dutton et Lynn ont-ils pu la commettre ? C’est que l’erreur n’est pas innocente, et que ces deux auteurs ne sont pas tout à fait neutres. La discipline d’Edward Dutton est la théologie, Richard Lynn est connu pour défendre l’idée qu’il existe des différences génétiques d’intelligence entre les sexes et les origines ethniques ; les deux ont été éditeurs en chef d’une célèbre revue suprémaciste blanche (Mankind Quarterly) et leurs travaux alimentent directement les mouvements d’extrême droite.

Pour bien saisir l’agenda politique des auteurs, le mieux est peut-être de citer les explications qu’ils envisagent pour un déclin de l’intelligence. Deux extraits, issus des livres de Richard Lynn pour l’illustrer :

« … un grand nombre de gouvernements occidentaux ont contribué au déclin de l’intelligence depuis les années 1960, à travers une politique d’état-providence encourageant les femmes d’intelligence basse, de mauvaise moralité et de faible éducation à avoir des bébés… ».

« … l’immigration de masse de peuples non-européens en Europe de l’ouest, aux États-Unis et au Canada est un sérieux problème dysgénique… ils ont, en moyenne, une plus faible intelligence et une plus faible moralité… ils deviendront une majorité de la population en Europe de l’ouest… l’intelligence continuera à décliner… et la Chine deviendra une superpuissance mondiale »

Les réformes envisagées par les auteurs pour limiter le déclin de l’intelligence en Europe occidentale sont cohérentes avec leur orientation politique : on y trouve, par exemple, « abolir la sécurité sociale », « se retirer de la convention des Nations unies de 1951 sur l’accueil des réfugiés », ou encore « introduire des politiques publiques pour accroître la fertilité de ces femmes (intelligentes) qui ont été éduquées au point de perdre leur fonction reproductive ».

Aujourd’hui, nous avons la certitude qu’il n’y a pas réellement de déclin de l’intelligence en France, même si l’effet Flynn est bel et bien interrompu. Le déclin de l’intelligence dans le monde occidental n’est pas un sujet scientifique, mais plutôt un sujet politique – un argument idéal que les déclinistes utilisent pour faire peur, désigner des coupables, et promouvoir des réformes hostiles au changement.

Si cette idée a autant de succès, c’est probablement qu’elle parle à nos tendances profondes : au second siècle de notre ère, Hésiode se plaignait déjà que les nouvelles générations laissent plus de place à l’oisiveté que les précédentes. Si nous bénéficions d’un droit inaliénable à critiquer les valeurs et les goûts musicaux de nos enfants, une chose est sûre : ils ne sont pas moins intelligents que nous.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Corentin Gonthier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sommes-nous plus bêtes que nos parents ? – https://theconversation.com/sommes-nous-plus-betes-que-nos-parents-266310

Un sommeil de mauvaise qualité peut accélérer le vieillissement cérébral, selon une nouvelle étude

Source: The Conversation – France in French (3) – By Abigail Dove, Postdoctoral Researcher, Neuroepidemiology, Karolinska Institutet

Un sommeil de mauvaise qualité ne se traduit pas seulement par de la fatigue : cela pourrait aussi accélérer le vieillissement du cerveau. Ekaterina Karpacheva/Shutterstock

Une nouvelle étude révèle qu’un sommeil de mauvaise qualité pourrait faire vieillir le cerveau plus vite qu’il ne le devrait – un effet mesurable grâce à l’imagerie cérébrale et lié, en partie, à l’inflammation.


Nous passons près d’un tiers de notre vie à dormir, mais le sommeil est tout sauf une perte de temps. Ce n’est pas une période d’inactivité, mais un processus actif et essentiel qui restaure le corps et protège le cerveau. Lorsque le sommeil est perturbé, le cerveau en subit les conséquences – parfois subtiles, mais qui s’accumulent au fil des années.

Dans une nouvelle étude, mes collègues et moi avons analysé les habitudes de sommeil et les données d’IRM cérébrale de plus de 27 000 adultes britanniques âgés de 40 à 70 ans. Nous avons constaté que les personnes dormant mal présentaient un cerveau qui paraissait sensiblement plus âgé que leur âge réel ne le laisserait supposer.

Mais que signifie exactement le fait qu’un cerveau « paraisse plus vieux » ? Si nous vieillissons tous au même rythme chronologique, notre horloge biologique, elle, peut avancer plus ou moins vite. Grâce aux progrès récents de l’imagerie cérébrale et de l’intelligence artificielle, il est désormais possible aux chercheurs d’estimer l’« âge cérébral » d’une personne à partir des schémas visibles sur ses IRM — tels que la perte de tissu cérébral, l’amincissement du cortex ou encore les lésions des vaisseaux sanguins.

Dans notre étude, cet âge cérébral a été estimé à partir de plus de 1 000 marqueurs d’imagerie. Nous avons d’abord entraîné un modèle d’apprentissage automatique sur les scans des participants les plus en bonne santé — ceux dont le cerveau correspondait le mieux à leur âge chronologique. Une fois le modèle capable de reconnaître les signes d’un vieillissement « normal », nous l’avons appliqué à l’ensemble de la cohorte.

Un âge cérébral supérieur à l’âge réel peut signaler un écart par rapport à un vieillissement sain. Des travaux antérieurs ont déjà établi qu’un cerveau d’apparence plus âgée est associé à un déclin cognitif accéléré, à un risque accru de démence et même à une mortalité prématurée plus élevée.

Le sommeil est un phénomène complexe, et aucune mesure isolée ne peut à elle seule refléter sa qualité globale. Nous nous sommes donc concentrés sur cinq aspects du sommeil autorapportés par les participants : leur chronotype (plutôt « matinal » ou « nocturne »), la durée habituelle du sommeil (de sept à huit heures étant considérées comme optimale), la présence d’insomnie, le ronflement et la somnolence diurne excessive.

Ces facteurs peuvent interagir entre eux. Par exemple, une personne souffrant d’insomnie fréquente peut également ressentir une somnolence diurne plus importante, et avoir un chronotype tardif peut entraîner une durée de sommeil plus courte. En combinant ces cinq paramètres dans un « score de sommeil sain », nous avons obtenu une vision plus complète de la santé globale du sommeil.

Les participants présentant quatre ou cinq comportements sains formaient le groupe au sommeil « sain », ceux ayant deux ou trois comportements sains constituaient le groupe « intermédiaire », et ceux n’en présentant aucun ou un seul appartenaient au groupe au sommeil « médiocre ».

Les résultats étaient clairs : pour chaque point perdu au score de sommeil sain, l’écart entre l’âge cérébral et l’âge chronologique augmentait d’environ six mois. En moyenne, les personnes au sommeil médiocre avaient un cerveau paraissant presque un an plus vieux que prévu, alors que celles au sommeil sain ne présentaient pas de tel écart.

En analysant chaque paramètre séparément, nous avons observé que le chronotype tardif et une durée de sommeil anormale étaient les principaux contributeurs à un vieillissement cérébral accéléré.

Un an peut sembler peu, mais en matière de santé cérébrale, c’est significatif. Même de légères accélérations du vieillissement du cerveau peuvent, à long terme, accroître le risque de déclin cognitif, de démence et d’autres troubles neurologiques.

La bonne nouvelle, c’est que les habitudes de sommeil peuvent être modifiées. Bien que tous les troubles du sommeil ne soient pas faciles à corriger, quelques stratégies simples — maintenir un horaire de coucher régulier, limiter la consommation de caféine, d’alcool et l’utilisation d’écrans avant le coucher, et favoriser un environnement calme et sombre — peuvent améliorer la qualité du sommeil et protéger la santé du cerveau.

Femme regardant son téléphone dans son lit
Posez ce téléphone !
Ground Picture/Shutterstock

Comment le sommeil influence-t-il la santé du cerveau ?

Une explication pourrait résider dans l’inflammation. De plus en plus de preuves indiquent que les troubles du sommeil augmentent le niveau d’inflammation dans l’organisme, ce qui peut nuire au cerveau en endommageant les vaisseaux sanguins, en favorisant l’accumulation de protéines toxiques et en accélérant la mort des cellules cérébrales.

Nous avons pu explorer ce lien grâce aux échantillons sanguins collectés au début de l’étude sur les participants, riches en informations sur différents biomarqueurs inflammatoires. En les intégrant à nos analyses, nous avons constaté que l’inflammation expliquait environ 10 % du lien entre le sommeil et le vieillissement cérébral.

D’autres mécanismes pourraient aussi intervenir

Une autre piste concerne le système glymphatique – le réseau de nettoyage des déchets du cerveau, principalement actif durant le sommeil. Lorsque celui-ci est perturbé ou insuffisant, ce système fonctionne moins bien, laissant s’accumuler des substances nocives.

Il est également possible que le fait de mal dormir augmente le risque d’autres pathologies néfastes pour le cerveau, notamment le diabète de type 2, l’obésité ou les maladies cardiovasculaires.

Notre étude, l’une des plus vastes et complètes du genre, s’appuie sur une population importante, une approche multidimensionnelle de la qualité du sommeil et une estimation détaillée de l’âge cérébral fondée sur des milliers d’indicateurs IRM. Bien que des recherches antérieures aient déjà montré qu’un sommeil de mauvaise qualité est associé au déclin cognitif et à la démence, notre recherche montre aussi qu’il est lié à un cerveau qui semble plus âgé, ce qui est dû, en partie, à l’inflammation.

Le vieillissement cérébral est inévitable, mais nos comportements et nos choix de mode de vie peuvent influencer son évolution. Les implications de nos recherches sont claires : pour préserver la santé de notre cerveau, faisons du sommeil une priorité.

The Conversation

Abigail Dove bénéficie d’un financement de la part d’Alzheimerfonden, Demensfonden et de la Fondation Loo et Hans Osterman pour la recherche médicale.

ref. Un sommeil de mauvaise qualité peut accélérer le vieillissement cérébral, selon une nouvelle étude – https://theconversation.com/un-sommeil-de-mauvaise-qualite-peut-accelerer-le-vieillissement-cerebral-selon-une-nouvelle-etude-266609

Donald Trump et Pete Hegseth appellent 800 généraux à combattre « l’ennemi intérieur »

Source: The Conversation – France in French (3) – By Olivier Sueur, Enseigne la compétition stratégique mondiale et les enjeux transatlantiques, Sciences Po

Jamais l’ensemble des généraux américains n’avaient été convoqués pour écouter le président du pays et leur ministre de tutelle comme ce fut le cas ce 30 septembre à Quantico (Virginie). Cette réunion historique a vu Donald Trump et Pete Hegseth tenir à des hauts gradés silencieux un discours aux intonations martiales et virilistes dont l’objectif réel était de les préparer à diriger des opérations militaires… à l’intérieur même des États-Unis, dans les villes dirigées par des démocrates.


Le 30 septembre 2025, le secrétaire américain à la guerre Pete Hegseth a prononcé devant 800 officiers généraux américains réunis à Quantico, en Virginie, un discours mémorable, qui a été suivi d’une intervention du président – et commandant en chef des armées, Donald Trump.

Cette réunion avait fait en amont l’objet des spéculations les plus folles, et son déroulement nourrit désormais moqueries et parodies sur les réseaux sociaux. Convoquée début septembre, soit avec un préavis très court, une réunion de chefs militaires américains de cette ampleur n’a pas de précédent connu. Elle mérite une véritable analyse pour en comprendre l’exacte signification, de même que son importance structurante pour les trois prochaines années.

Une réunion annoncée au dernier moment, mais préparée depuis longtemps

Commençons par resituer le contexte de cette réunion.

Premièrement, l’administration Trump a procédé à une première épuration parmi les plus hauts gradés de l’armée : le chef d’état-major des armées le général C. Q. Brown, la cheffe d’état-major de la Marine Lisa Franchetti, le directeur du renseignement militaire Jeffrey Kruse, l’amirale commandant les garde-côtes Linda Fagan… une dizaine de départs de responsables de premier plan a été enregistrée depuis février.

Deuxièmement, le secrétaire à la guerre a pris, le 5 mai 2025, une directive ordonnant la réduction du nombre d’officiers généraux cinq étoiles de 20 %, soit un passage de 37 à 30 du nombre d’officiers généraux de la garde nationale d’au moins 20 %, et du nombre d’officiers généraux des forces armées de 10 % (de 838 à environ 700).

Troisièmement, le département de la défense a été rebaptisé « département de la guerre », le 5 septembre 2025, sur décision du président Trump.

Quatrièmement, deux documents structurants pour l’organisation de ce ministère sont en cours d’achèvement cet automne, à savoir la stratégie nationale de défense (National Defense Strategy) et la révision de la configuration mondiale des forces (Global Force Posture Review). Ces documents doivent aboutir à une réduction significative du volume des forces stationnées à l’étranger et se traduire par une bascule de leur déploiement de l’Europe vers l’Indo-Pacifique.

L’annonce d’un « changement de culture »

Au vu de l’ensemble de ces éléments, une forme de nervosité, voire d’appréhension, de la part des participants n’apparaissait pas illégitime. Et ils n’ont pas été déçus : Pete Hegseth a fait de son intervention le « jour de libération des guerriers de l’Amérique », paraphrasant le « jour de la libération » proclamé par Donald Trump, le 2 avril 2025, lors de ses annonces en matière de droits de douanes.

Son objectif révélé dès la première minute de son intervention est d’« avoir les bonnes personnes et la bonne culture au département de la guerre », car c’est le personnel qui fait la politique d’une organisation (« Personnel is policy »). Il dénonce ensuite longuement la « dérive woke » au sein des forces armées américaines – promotions sur la base d’appartenance raciale ou de quotas de genre, politiquement correct, mois de l’identité, programmes Diversity, Equity, and Inclusion (DEI), femmes dans les unités combattantes, transsexuels, gros, barbus, cheveux longs… Bref, tout y passe, et Hegseth promet d’y porter le fer avec énergie.

Tout cela n’est en aucun cas une surprise puisqu’il s’agit ni plus ni moins que de la politique engagée au niveau national par le président Trump – et annoncée lors de sa campagne.

En revanche, ce qui est passionnant dans ce discours, c’est son caractère programmatique. D’abord, le secrétaire à la guerre annonce que ses services se dotent des moyens de mettre en œuvre cette rééducation culturelle des militaires américains à l’égard de l’« idéologie woke » grâce à l’envoi aux participants de dix directives formalisant les orientations énoncées ci-dessus et portant, notamment, sur le rétablissement de standards physiques masculins uniformes en matière de préparation militaire : c’est sur ce modèle qu’eux, officiers généraux, seront évalués.

Ensuite, il annonce à son auditoire que ce changement de culture implique un changement de génération parmi eux, et donc de nouveaux départs, allant jusqu’à inviter ceux qui se sentent en désaccord avec ses propos à démissionner. Dans un contexte de réduction du nombre de postes offerts à la promotion, voilà qui invite à l’introspection.

Ce discours organise le réalignement culturel des forces armées américaines sur les orientations du gouvernement, à l’image de ce qu’indiquait le règlement des armées françaises de 1933 : « Il importe que les ordres soient exécutés littéralement, sans hésitation, ni murmure. »

Objectif désigné : les villes démocrates

Pourquoi ce réalignement ? C’est l’intervention subséquente de Donald Trump qui y répond : bien que particulièrement décousue, elle est l’occasion d’annoncer fort à propos une augmentation des salaires des militaires de 3,8 %, mais surtout de désigner aux officiers généraux leur adversaire, à savoir l’« invasion intérieure » (« Invasion from within »).

De manière spécieuse, le président liste même les cibles qu’il qualifie de « zones de guerre ». Il s’agit des villes tenues par « la gauche radicale démocrate » et nommément désignées : San Francisco, Chicago, New York, Los Angeles, Portland et Seattle. Il prend appui sur les précédents historiques d’utilisation des forces armées pour le maintien de l’ordre intérieur par les présidents George Washington, Abraham Lincoln, Grover Cleveland ou George W. Bush. Il rappelle enfin aux officiers généraux présents, comme l’avait d’ailleurs fait Pete Hegseth à deux reprises, leur serment de prise de fonctions qui prévoit la lutte contre l’ennemi intérieur :

« Je jure [ou affirme] solennellement que je soutiendrai et défendrai la Constitution des États-Unis contre tous les ennemis, étrangers et intérieurs. »

Une insistance à replacer dans le cadre culturel américain, où une importance majeure est accordée aux serments depuis la guerre d’Indépendance et la guerre de Sécession.

Comme on le comprend aisément, la plupart des commentaires ratent l’essentiel. L’administration Trump prépare les forces armées américaines, d’une part, à une intervention massive dans les grandes villes administrées par les démocrates au prétexte de lutter contre les ennemis intérieurs et, d’autre part, à disposer d’une institution militaire à la fois obéissante et partageant les valeurs du gouvernement, en vue des prochaines échéances politiques du pays, notamment électorales… toutes choses qui avaient manqué lors du coup d’État avorté du 6 janvier 2021.

The Conversation

Olivier Sueur ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Donald Trump et Pete Hegseth appellent 800 généraux à combattre « l’ennemi intérieur » – https://theconversation.com/donald-trump-et-pete-hegseth-appellent-800-generaux-a-combattre-lennemi-interieur-266965

Pourquoi la « business pride » du Medef n’aura pas lieu

Source: The Conversation – in French – By Michel Offerlé, Sociologie du politique, École normale supérieure (ENS) – PSL

Les patrons sont sous pression alors que les appels à taxer les hauts patrimoines se multiplient, notamment avec une taxe Zucman sur les plus riches d’entre eux. Un meeting « énorme », censé défendre les intérêts patronaux, devait se tenir ce lundi 13 octobre : il a finalement été reporté par le Medef. Alors que la crise politique perdure, les patrons, généralement adeptes du lobbying discret, semblent remontés, mais divisés et hésitants sur la marche à suivre.


En 2009, Charlie Hebdo faisait sa une avec une caricature de Cabu montrant Laurence Parisot tenant une pancarte proclamant « Nos stock-options », devant un fond : « Sarkozy, t’es foutu le Medef est dans la rue ! »
Le Figaro du 5 octobre 1999 éditait une photographie en première page représentant une foule assemblée, avec au premier rang un homme d’une cinquantaine d’années coiffé d’un haut chapeau vert sur le lequel était inscrit, « Respect ».

Ces images de patrons dans la rue sont rares. Ce 13 octobre 2025, les patrons, ou plutôt certains patrons, devaient se réunir au Palais omnisport de Paris-Bercy (Accor Arena) pour une initiative peu banale, annonçant un « meeting énorme ». Patrick Martin, président du Medef, a finalement décidé de reporter ce rendez-vous en raison, selon lui, de la démission du premier ministre Sébastien Lecornu. Pourquoi cette mobilisation et pourquoi cette reculade ?

Lobbying et discrétion patronale

Les patrons ne sont pas professionnellement la catégorie sociale qui se mobilise le plus fréquemment dans la rue ou dans des meetings. Ils utilisent peu l’action collective visible, dans ce que les sociologues appellent « les répertoires de l’action collective ». Ils ont accès (pour les plus grands d’entre eux surtout) à des moyens d’action plus feutrés et plus furtifs (ce qu’on appelle la « quiet politics ») dans toutes ses variétés et dimensions, qui leur permettent d’interpeller les décideurs de manière discrète, voire très privée. C’est ce que l’on désigne habituellement par lobbying.

L’Association française des entreprises privées (Afep) est le parangon de ces tentatives d’influence, mais ses démarches publiques vont pourtant rarement au-delà des communiqués ou des conférences de presse.

Les patrons sont (rarement) dans la rue

Des chefs d’entreprise ont pu participer individuellement à des manifestations de rue (pour l’école privée en 1984 ou contre le mariage pour tous en 2013, mais pas en tant que patrons. On pourra aussi en avoir vu parmi les Bonnets rouges ou les gilets jaunes.

Le 5 octobre 1999, le Figaro place à la une les patrons qui manifestent contre les 35 heures.
Le Figaro, Fourni par l’auteur

L’appel à la rue est l’apanage des seuls petits patrons qui l’ont utilisé pour des raisons dissemblables, dans les années 1950 lors des mobilisations poujadistes, autour de Gérard Nicoud à la fin des années 1960 ou dans les années 1990 avec la figure controversée de Christian Poucet. La mobilisation par réseaux sociaux des « pigeons » en 2012, suivie, de celles moins relayées de divers volatiles la même année, a fait exception aussi en utilisant des moyens innovants. Il y aura encore des manifestations patronales depuis 2000, celles des buralistes ou localement celles du bâtiment, ou autour du collectif Sauvons nos entreprises en 2014.

Malgré son opposition à la politique du début du quinquennat Hollande, le Medef n’ira pas au-delà de réunions publiques à Lyon, dans le Rhône, (avec cartons jaunes et sifflets) et à Paris (avec des petits drapeaux « Libérez l’entreprise »), et la CGPME d’une opération organisée devant Bercy avec une agence d’événementiel sur le thème du cadenas (« PME cadenASSEZ »).

La lente sortie des restrictions liées au Covid a vu fleurir les actions de rue à Lyon ou encore à Paris en 2020 ou le très original die in de Toulouse, en Haute-Garonne (France Bleu titrait « À Toulouse, place du Capitole, un millier de petits commerçants crient leur peur de mourir », en novembre 2020) initiative prise avec les métiers du spectacle, sur la thématique de la mort des entreprises (les manifestants transportant des cercueils et s’habillant en noir).

Mobilisations exceptionnelles contre la gauche en 1982 et en 1999

Les deux grands meetings de 1982 et de 1999 sont donc exceptionnels. Le 14 décembre 1982, le Conseil national du patronat français (CNPF, ancêtre du Medef) et les autres organisations patronales organisent, contre la politique économique et sociale de la gauche, les « États généraux des entreprises au service de la nation ». Ainsi, 25 000 patrons viennent à Villepinte et « adoptent » la Charte de Villepinte, cahiers de revendications et de propositions. L’opération est aussi interne, le président du CNPF, Yvon Gattaz, est alors contesté par certaines fédérations, et renforce alors sa légitimité :

« Tout le monde est venu, comme le grand Condé est venu auprès de Louis XIV après sa dissidence sous la Fronde », déclarait-t-il avec emphase, en 2007 (entretien avec l’auteur).

Le 4 octobre 1999, c’est contre les 35 heures (« Tout le monde ne chausse pas du 35 ») qu’Ernest-Antoine Seillière, président du tout nouveau Mouvement des entreprises de France (Medef, créé de manière militante l’année précédente à Strasbourg), contribue à rassembler quelque 30 000 personnes selon les organisateurs :

« J’ai monté en province des réunions, des congrès, des shows, des rassemblements absolument sans cesse », affirmait le patron des patrons, tout en soulignant le plaisir qu’il prenait à la tribune (entretien avec l’auteur, 2009).

Dans les deux cas, ce sont une succession de discours militants plus ou moins décapants et de témoignages « d’entrepreneurs de terrain » qui constituent la réussite de ces événements classiques, avec écrans géants et quelques pancartes plus ou moins contrôlées.

Le meeting « énorme » 13 octobre 2025

Le meeting du 13 octobre 2025, annoncé comme « énorme », aurait pu se nourrir de ces précédents, ainsi que des prestations très travaillées de Laurence Parisot (remarquée en 2007 à Bercy ou en 2008 au Parlement européen), et aurait été nécessairement jaugé en fonction des performances passées.

Ses organisateurs avaient tenté d’en formuler la réception :

« Une forme républicaine, pacifique, qui rassemblera le patronat au-delà du Medef. On ne descendra pas dans la rue. On réunira massivement, comme ce fut le cas par le passé, sous forme de meeting, des milliers de chefs d’entreprise de tout profil (…) Pour bien signifier que nous refusons d’être la variable d’ajustement de politiques qui nous paraissent contraires à la bonne marche de l’économie et à l’intérêt du pays », expliquait ainsi Patrick Martin, l’actuel président du Medef.

Il s’agissait pour ce dernier de mettre en scène les récentes propositions issues du « Front économique » dont le dirigeant a pris l’initiative. Mais aussi de proposer ce que l’on pourrait qualifier de « business pride » (marche patronale des fiertés). On ne saurait en effet oublier que cette volonté de mobilisation exprime une cristallisation d’un vieux mal-être patronal français.

En effet, depuis de très nombreuses années, les porte-paroles du patronat et certains grands patrons développent un discours de victimisation, d’incompréhension face à ce qu’ils estiment être la surdité et l’incompétence de l’ensemble des politiques. Il s’agissait donc – non seulement d’interpeller le gouvernement et l’ensemble des partis politiques –, mais aussi d’affirmer la fierté d’être entrepreneur.

(Re)faire entendre la voix des patrons

Les précédentes grandes mobilisations avaient eu lieu sous des gouvernements de gauche. Celle de 2025 a éclos dans une autre conjoncture politique, peu lisible et incertaine. Elle fait écho aux prises de parole répétée des organisations patronales et de patrons médiatiques, dans l’espace public depuis la dissolution (MM. Arnault, Trappier, Pouyanné, Niel, ou encore Leclerc et Pigasse).

Avec la victoire de Donald Trump, les analyses relatives à la « trumpisation des patrons français » se sont multipliées, soulignant l’acceptation latente ou la cooptation de Jordan Bardella, président du Rassemblement national, comme moindre mal face à la menace de La France insoumise (LFI) ou du Nouveau Front populaire (NPF), ou encore face à la taxe Zucman (dont l’auteur a été vilipendé par Patrick Martin et Bernard Arnault) imposant les ultrariches.

Il y a sans doute plusieurs colères patronales, puisque leurs intérêts et leurs quotidiens sont incomparables et plusieurs anticipations de l’avenir (la catégorie patronale est la plus hétérogène de toutes les professions et catégories socioprofessionnelles). Tous les patrons ne peuvent pas se faire entendre de la même manière.

L’ombre du RN sur le meeting

Les déclarations de Michel Picon (président de l’U2P), fréquemment sollicité par les médias, sonnent comme une rupture de l’unité patronale (la « finance » contre « le travail »). La crainte d’une salle peu garnie et atone a sans doute pesé sur cette décision de report, mais la possibilité d’un cavalier seul des petites et moyennes entreprises dans les relations sociales à venir apparaît comme l’une des « peurs » du Medef, dont la représentativité tient plus au bon plaisir de l’État qu’à un rapport des forces militantes.

Il est vraisemblable que certains grands patrons ont rappelé à l’ordre leur « commis » et que certaines fédérations ont donné de la voix au sein du Medef.

L’explication officielle de Patrick Martin, expliquant le report du meeting par sa volonté de contribuer à « l’apaisement du pays » après la démission de Sébastien Lecornu n’est donc pas la seule explication à ce retournement.

L’ombre du RN planait aussi sur le meeting de Bercy. Les petits et tout petits patrons peuvent s’y retrouver, et les grands anticipent de possibles accommodements comparables à ceux de Giorgia Meloni et du patronat italien, quand d’autres radicalisent leur discours par l’acquisition de médias (Vincent Bolloré ou Pierre-Édouard Stérin, voire le raidissement de Bernard Arnault, également propriétaire de journaux).

Reporter le meeting de Bercy, c’est aussi se donner le temps de voir venir. Car les patrons sont suspendus à une conjoncture politique où ils vont devoir choisir : considérer l’arrivée possible au pouvoir du RN comme un danger, ou cultiver la politique du moindre mal.


Michel Offerlé est l’auteur de Ce qu’un patron peut faire, (Gallimard, 2021), et de Patron (Anamosa, 2024).

The Conversation

Michel Offerlé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi la « business pride » du Medef n’aura pas lieu – https://theconversation.com/pourquoi-la-business-pride-du-medef-naura-pas-lieu-266270

Crise politique en France : Emmanuel Macron a-t-il détourné les institutions ?

Source: The Conversation – in French – By Wassim Tayssir, Doctorant en science politique, Université de Montréal

La France connaît sans doute sa plus grave crise institutionnelle depuis l’instauration, en 1958, de sa Constitution actuelle.

Suite à la dissolution surprise prononcée par le président de la République Emmanuel Macron en juin 2024, trois gouvernements se sont succédé avant d’être renversés. Le dernier en date, dirigé par le premier ministre Sébastien Lecornu, n’aura tenu qu’à peine 14 heures après la démission de celui qui était jusqu’alors ministre des Armées.

Ayant officiellement remis sa lettre de démission ce lundi, Sébastien Lecornu a toutefois été mandaté par le président de la République pour mener d’ultimes négociations avec les différents groupes politiques dont il a rendu compte mercredi lors d’une intervention télévisée. Le premier ministre a ainsi annoncé qu’un successeur sera désigné d’ici vendredi par le chef d’État.

Doctorant en science politique à l’Université de Montréal, mes recherches portent sur la politique étrangère et européenne de la France. J’ai publié en 2024 un ouvrage sur sur la politique extérieure d’Emmanuel Macron.

Une élection présidentielle anticipée ?

Le moment est d’autant plus critique que ces ultimes tractations se déroulent à l’ombre de deux spectres qui, s’ils venaient à se réaliser, plongeraient davantage le pays dans la tourmente.

D’un côté, celui d’une nouvelle dissolution, essentiellement réclamée par le Rassemblement national, parti d’extrême droite. À l’autre extrémité de l’éventail, le parti de la France insoumise réclame quant à lui la destitution du Président.

Cet appel a trouvé écho dans les rangs mêmes des formations politiques apparentés au bloc présidentiel. C’est ainsi que ce mardi, Édouard Philippe, premier ministre d’Emmanuel Macron de 2017 à 2020 et président du groupe Horizons (centre droit), appelait le président à programmer une élection présidentielle anticipée. Ce désaveu s’ajoute à celui d’un autre soutien historique et ancien premier ministre macroniste, Gabriel Attal, lequel déclarait qu’il ne « comprenait plus » les décisions du chef d’État.

Des accusations de trahison qui se multiplient

Plusieurs causes profondes pourraient être avancées pour expliquer ce maelstrom institutionnel et politique : fragmentation et polarisation durables du paysage politique national, absence de majorité politique, primauté des logiques partisanes sur la responsabilité gouvernementale…

Pourtant, Emmanuel Macron semble figurer au premier rang des coupables de cette crise inédite. Parmi les arguments mobilisés par ses accusateurs, l’idée qu’il aurait « travesti » les institutions de la Ve République. C’est le sens des propos d’Édouard Philippe tenus mardi dernier :

En France, le garant des institutions est le Président de la République […] Quand on est chef de l’État, on ne les utilise pas pour déminer je ne sais quoi ou à sa convenance personnelle. On ne se sert pas des institutions, on les sert.

L’ancien premier ministre dénonce ainsi une forme de dévoiement institutionnel susceptible d’engendrer une « crise politique délétère pour le pays ».

Les pratiques institutionnelles, ou l’art de dépasser la Constitution

Ces critiques illustrent un phénomène particulièrement présent dans la vie politique française : les interactions entre, d’un côté, les institutions et, de l’autre, les pratiques qui en découlent.

Cette dialectique a donné lieu à une littérature particulièrement féconde dans le champ de la science politique. Les approches dites néo-institutionnalistes s’intéressent ainsi aux rôles des institutions, entendues comme un ensemble de règles, de normes et de principes formels socialement reconnus, qui organisent et contraignent le comportement des acteurs. Dans la continuité de cette perspective, le « tournant pratique » en relations internationales explore la manière dont les acteurs, par des pratiques informelles, s’aménagent des libertés d’action dans un contexte formel et contraignant.

Cela permet de comprendre comment les acteurs institutionnels, en premier lieu le président de la République, vont exploiter les interstices du texte de la Constitution de 1958 pour servir des objectifs politiques. Cette dialectique entre la lettre du texte et les interprétations qui en découlent était précisément pensée par le Général de Gaulle, l’architecte du texte constitutionnel, pour qui : « Une constitution, c’est un esprit, des institutions, une pratique ».

L’histoire de la Ve République regorge ainsi de pratiques qui, sans être expressément prévues dans le texte, se sont imposées durablement au point de produire des effets aussi contraignants que la règle écrite. La plus emblématique de ces pratiques est le concept de « domaine réservé », qui confère au chef d’État la compétence exclusive dans la conduite des affaires étrangères.

La nomination d’un premier ministre de droite à l’origine de la crise politique

C’est ainsi que certaines pratiques émergentes, si elles semblent admises sur le plan institutionnel, se heurtent dans le champ politique à une intense contestation.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Tel a été le cas au lendemain des élections législatives en juillet 2024. La coalition des forces de gauche réunies sous la bannière du Nouveau Front populaire est arrivée en tête du scrutin avec une majorité relative de sièges obtenus, tandis que le Rassemblement national a obtenu une majorité de suffrages. Le président Macron a choisi néanmoins de nommer comme premier ministre Michel Barnier, issu d’un parti, Les Républicains, qui ne figurait qu’en quatrième position.

Pourtant, la pratique institutionnelle qui prévalait jusque-là voulait que le président nomme un premier ministre issu des rangs de la force arrivée en tête des élections législatives. Cette pratique n’est toutefois pas inscrite dans le texte constitutionnel : l’article 8 indique en effet simplement que le « président de la République nomme le premier ministre ». Emmanuel Macron a dès lors saisi cette brèche pour échapper à une pratique dont l’application aurait desservi ses objectifs politiques.

Une partie de la crise institutionnelle que connait actuellement la France trouve probablement sa justification dans cette obstination du président de la République. La nomination vendredi d’un premier ministre issu des forces de gauche signifierait toutefois que cette pratique émergente et contestée aura fait long feu.

La Conversation Canada

Wassim Tayssir a reçu des financements de l’Université de Montréal

ref. Crise politique en France : Emmanuel Macron a-t-il détourné les institutions ? – https://theconversation.com/crise-politique-en-france-emmanuel-macron-a-t-il-detourne-les-institutions-267074