Comment émergent les « problèmes » dont parlent médias et politiques ?

Source: The Conversation – in French – By Érik Neveu, Sociologue, Université de Rennes 1 – Université de Rennes

Les « problèmes » mis en avant par les médias ou les responsables politiques ne sont pas forcément les plus urgents ou les plus essentiels. Comprendre comment émergent les « problèmes publics » invite à ne pas les penser comme des évidences. Quelles actions et quels contextes propulsent une question sur la scène publique ou la refoulent  ?


L’expression « problème public » n’appartient pas encore au vocabulaire courant. Elle désigne un processus : en quoi un fait, un thème, devient-il objet de l’attention des médias, des conversations, éventuellement des politiques publiques ?

Si on en parle, c’est donc que l’affaire est importante ! Là, les choses se compliquent. Pour formuler un énoncé paradoxal : il n’y a pas de règle de correspondance logique entre ce qui serait la gravité objective d’un événement ou d’un enjeu – pas toujours facile à hiérarchiser au demeurant – et sa transformation en problème public.

Des situations dont on peut soutenir qu’elles ont engendré d’immenses souffrances à de vastes groupes ont pu longtemps rester sous le radar des débats et de l’action publique. Qu’on pense aux violences sexuelles sur les femmes ou sur les enfants, à la situation parfois pitoyable des personnes âgées en Ehpad, à leur fréquente solitude… Enjeu récemment pris en charge par le gouvernement de Corée du Sud, à l’étonnement des commentateurs. À l’inverse, la margarine paraîtra un objet bien peu propre à déchaîner les passions… Elle a pourtant suscité d’âpres débats, et même une série de référendums sur son interdiction, l’obligation de la colorer en rose à la fin du XIXᵉ aux États-Unis ! Et il n’est pas sûr que les émois suscités en France par quelques dizaines de baigneuses en burkini ne semblent pas aussi étranges dans vingt ans.

Les entrepreneurs de cause

Faits et événements ne sont pas ventriloques. Ils ont besoin de l’équivalent d’imprésarios : ce sont les entrepreneurs de cause. On désigne par ce terme une grande variété d’acteurs (associations, intellectuels, mouvements sociaux, groupes de pression, entreprises, élus et partis, administrations, journalistes) qui vont définir des situations comme « problématiques », c’est-à-dire requérant attention, débat et action. Leur action vise à propulser des enjeux vers l’espace public et les autorités politiques. Ses formes varient selon les ressources et la nature des entrepreneurs. Il pourra s’agir d’un long travail d’investigation par un journaliste, comme le fit Victor Castagnet sur la maltraitance dans des Ehpad du groupe Orpea. Les mouvements sociaux vont davantage recourir à des mobilisations, comme l’illustre la mise en cause des « méga-bassines » créée à la demande de syndicats agricoles capables, eux, de convaincre les autorités locales que l’irrigation est un problème public.

Mais les entrepreneurs de cause peuvent aussi faire face à un travail de disqualification de leurs démarches ou de leurs argumentations. Ainsi, quand Nestlé soutient, contre des associations de consommateurs, que, même traitées en violation des normes, ses eaux sont parfaitement « minérales ». Ils peuvent voir leur dossier canalisé vers des institutions qui en préviennent la publicisation, englué dans des procédures d’une extrême lenteur, comme les victimes du chlordécone aux Antilles.

L’émergence d’un problème public est toujours le fruit d’une double lutte. Elle oppose des causes concurrentes car l’attention est une ressource rare. Même en des temps d’abondance informationnelle, il faut hiérarchiser les sujets qui font la une. L’ordre du jour du Parlement ne permet pas de légiférer sur tout simultanément. Quand le 22 novembre 2025, se déroulent des rassemblements contre les violences faites aux femmes, d’autres pour les droits des Palestiniens, d’autres en hommage à Mehdi Kessaci assassiné par les narcotrafiquants, quel sera le premier titre des journaux radio et télévisés ?

La lutte porte aussi sur ce que l’on appelle les « cadrages » médiatiques et politiques – la métaphore photographique renvoyant à ce qu’on rend visible ou repousse hors cadre. Quand on débat du narcotrafic, faut-il, comme le fit Bruno Retailleau, pointer la responsabilité des consommateurs ou tenir l’usage du cannabis comme un fait si banalisé que mieux vaut le légaliser ? Les réponses de politique publique doivent-elles se concentrer sur les points de deal ou sur un système bancaire encore trop perméable à l’argent sale ?

Mettre en récit

Il faut à la fois faire voir et faire « bien voir » ce qu’on veut constituer en problème. Il est donc habile de mobiliser des éléments d’une culture partagée, de prendre en compte un air du temps idéologique.

Si la margarine est devenue un problème public dans l’Amérique du Gilded Age, c’est que ces petits lingots de matière grasse condensaient tout un jeu d’oppositions. Produit « authentique », le beurre symbolisait une Amérique rurale de petits producteurs aux mœurs sobres, proches de la nature. Sous-produit des abattoirs de Chicago, la margarine incarnait, elle, la grande ville, la montée en puissance de l’industrie et de produits « artificiels » ou frelatés ; elle était consommée par un prolétariat souvent venu de pays latins et/ou catholiques, supposé intempérant, stigmatisé par le « nativisme » d’Américains protestants se voulant plus authentiques car nés sur le sol de l’Union.




À lire aussi :
Margarine vs butter: how what we spread on our toast became a weapon of class war


Promouvoir un problème, c’est aussi en faire une histoire – au double sens de cette expression. En suggérer la gravité, l’urgence à y répondre, donc. Cela s’argumente par trois grands registres rhétoriques. L’expertise à coup de dossiers, de chiffres, de sollicitations de praticiens et de chercheurs. La vox populi qui montrera – à coup de sondages, de nombres de manifestants, de résultats électoraux – combien « les Français » sont préoccupés, demandent telle action. La sollicitation des émotions, enfin, va jouer sur un clavier où opèrent la peur, la honte, la compassion, le ressentiment, la haine.

Mis en débat dans les années 1970 à partir des morts d’ouvriers dans des usines produisant des plaquettes de frein, le problème de l’amiante suscite alors indignation et compassion, mais il est vite recouvert par d’autres drames. Recadré dans les années 1990 en polluant environnemental, omniprésent (des matériaux de construction aux grille-pains), associé, au JT de TF1, au logo à tête de mort des poisons, menaçant cette fois tout un chacun, l’amiante mobilise alors une peur à l’aire de résonance et à la durée bien plus efficaces.

La meilleure mise en récit, la mieux argumentée n’est efficace que si elle entre dans trois « agendas », soit la hiérarchie des attentions des médias, de l’opinion publique et des décideurs politiques. Or, les ressources des porteurs de cause en moyens financiers, en maîtrise des logiques des médias, en accès aux élus et en cabinets ministériels sont très inégales. Les médias fonctionnent comme des filtres à problèmes selon ce qu’on nomme leur « valeur d’information ».

Si les enjeux environnementaux sont aujourd’hui assez significativement couverts, ils mirent longtemps à trouver leur place. Les écologistes apparaissaient comme trop militants, antimodernes, voire « amish », donc comme des sources peu fiables. Plus encore, l’absence d’une « rubrique » adéquate et donc de journalistes spécialisés posait la question : où parler de rejets toxiques d’une usine, de la raréfaction des papillons ? En faits divers, économie, sciences ? La réponse était souvent : nulle part.

Parler d’inégalités entre entrepreneurs, c’est aussi noter que certaines revendications ou problèmes peuvent se faire entendre sans passer par la case « médias » – quand leurs soutiens sont connectés aux foyers de décision, ils ont les ressources d’un lobbying discret et efficace. Dans une étude très documentée des groupes de pression à Bruxelles, Sylvain Laurens a pu montrer que, outre l’action de milliers de lobbyistes professionnels, ceux-ci disposaient souvent, au sein des directions générales de la Commission européenne, de véritables garnisons d’anciens salariés et collaborateurs.

Des problèmes publics aux politiques publiques

La réussite des entrepreneurs de problèmes peut se mesurer à leur capacité de peser sur des politiques publiques, d’en faire instituer de nouvelles.

Qu’un ministère de la culture puisse promouvoir le rock ou la BD, qu’un autre ministère traite des droits des femmes, n’allait pas de soi voici un demi-siècle. Mais le vote d’une loi, la création d’une administration répondant à un problème sont rarement l’équivalent d’une case « Arrivée ».

La victoire des uns suscite la remobilisation des battus (par exemple, l’abandon des zones à faibles émissions, ZFE, quand elles furent accusées d’exclure des villes les plus démunis). Les agents d’une administration peuvent, sur le terrain, faire dévier la portée d’une réforme. Celle-ci peut s’avérer dysfonctionnelle ou ruineuse (cf. la difficile mise en œuvre de MaPrimeRénov’ sur l’isolation du bâti).

La réponse à un problème peut en créer d’autres – quand aux États-Unis, comme le montre la chercheuse Chin Jou, les aides de la Small Business Administration aux entrepreneurs afro-américains financent l’invasion des quartiers noirs par la malbouffe des fast-foods. La trajectoire des problèmes publics a ceci de commun avec la marche sur un jeu de l’oie qu’on peut y emprunter des raccourcis, avancer très vite, mais aussi faire soudain retour à la case « Départ ».

Issue des sciences sociales états-uniennes et notamment des travaux de Joseph Gusfield, l’analyse des problèmes publics s’est fait depuis trente ans une place dans le monde académique français. Elle est éclairante pour les citoyens en invitant à ne pas penser les objets de débat public comme des évidences. Elle aide à comprendre – sans raccourcis complotistes – les actions et les contextes qui propulsent ou qui refoulent un enjeu sur les scènes médiatiques et politiques, et en façonnent les termes.


Érik Neveu est l’auteur de Sociologie politique des problèmes publics, Armand Colin, Paris, 2022, 2ᵉ éd.

The Conversation

Érik Neveu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment émergent les « problèmes » dont parlent médias et politiques ? – https://theconversation.com/comment-emergent-les-problemes-dont-parlent-medias-et-politiques-271570

L’adaptation silencieuse : ces transformations qui échappent aux politiques publiques

Source: The Conversation – in French – By Guillaume Simonet-Umaña, enseignant chercheur en adaptation aux changements climatiques, Université de Pau et des pays de l’Adour (UPPA)

À l’échelle locale, de nombreuses actions naissent spontanément pour faire face aux aléas du climat. Rarement revendiquées comme des mesures d’adaptation aux changements climatiques, elles passent souvent inaperçues des politiques publiques.


Les rapports scientifiques, les injonctions politiques et les plans nationaux se succèdent pour enjoindre les territoires à s’adapter aux nouvelles réalités climatiques. Pourtant, une question demeure : comment l’adaptation se déploie-t-elle de manière concrète sur le terrain ? Si les annonces de projets ou de cadrages réglementaires occupent souvent le devant de la scène, d’autres formes de réorganisation sont à l’œuvre, bien plus discrètes, que l’on peut regrouper sous l’appellation d’« adaptation silencieuse ».

Derrière cette qualification se cachent de multiples initiatives individuelles, corporatives ou collectives qui, sans être désignées ou étiquetées « adaptation », transforment pourtant peu à peu les organisations et les territoires. Prendre en compte ces dynamiques et mieux en saisir les contours pourrait s’avérer pertinent pour éviter que les politiques publiques ne passent à côté d’une partie de la réalité vécue sur le terrain par les populations et les entreprises.

L’adaptation, une notion toujours en quête de sens au niveau de sa déclinaison pratique

Penchons-nous sur un cas, pour bien comprendre. Face à la baisse continue de ses récoltes qui subissent un mildiou tenace dû à des épisodes météo capricieux, un viticulteur installé dans l’Aude bénéficie depuis 2021 d’informations collectées par les stations météorologiques positionnées sur son secteur par le biais d’un technicien mis à disposition par la Chambre d’agriculture départementale. Ces précieuses données lui permettent d’anticiper aux mieux les conditions climatiques défavorables en attendant l’homologation par l’Inrae de nouvelles variétés de cépages plus résistants aux maladies, testées dans le cadre d’une collaboration.

Pourtant, à aucun moment ce viticulteur ne mentionne ces mesures comme étant des actions d’adaptation aux changements climatiques, alors même qu’elles participent à la transformation de son exploitation afin de faire face à l’accélération de nouvelles réalités climatiques.

Affublée de « parente pauvre » des agendas politiques climatiques internationaux ou nationaux pendant longtemps, l’adaptation aux changements climatiques est aujourd’hui un des termes les plus en vue. En témoigne la 3ᵉ édition du Plan national d’adaptation au changement climatique, la multiplication des Trophées de l’adaptation ou encore la nette augmentation des publications scientifiques et médiatiques sur le thème.

Pourtant, derrière sa priorité affichée dans les politiques publiques climatiques, l’adaptation se heurte toujours à plusieurs difficultés au moment de sa déclinaison opérationnelle, parmi laquelle celle d’être identifiée comme telle. Ainsi, l’artisan chocolatier qui n’a pas le choix de diversifier et trouver de nouvelles sources d’approvisionnement de cacao après les récoltes désastreuses de son fournisseur habituel situé en Côte d’Ivoire ne va pas mentionner sa démarche comme une adaptation aux changements climatiques.

Pour une large part des professionnels qui travaillent dans l’émergent domaine de la résilience face aux changements climatiques, en revanche, s’adapter n’est souvent rien d’autre que la réactualisation d’une gestion des risques 3.0 dopée par de nouveaux moyens techniques d’anticipation que rejoint progressivement l’intelligence artificielle (IA) régénérative. Des cartes colorées et chiffrées issues de modèles climatiques toujours plus performants sont alors proposées comme supports de base à l’élaboration d’actions à planifier par le client.

Pourtant, dès 2004, les chercheurs Suraje Dessai et Mike Hulme interrogeaient cette logique « descendante » et sa pertinence en termes d’opérationnalisation de l’adaptation. Dès lors, malgré l’horizon régulièrement annoncé de « transformation » des territoires et des activités, l’objectif est affiché : accroître la résilience des caractéristiques de vie telles qu’installées depuis plusieurs générations pour faire face à une France à + 4 °C autour de 2100.

Mais à l’échelle locale, une autre partition se joue chez les populations qui se retrouvent confrontées à des aléas climatiques toujours plus violents. Ainsi, dans une clinique située en région Grand-Est, une circulaire confirme que les horaires peuvent évoluer lors d’épisodes désormais récurrents de grandes chaleurs afin de protéger les employés et les patients. En parallèle, des discussions ont lieu au sein de la direction afin d’évaluer la possibilité de proposer des tenues vestimentaires plus adéquates pour les préposés aux soins.

Autant d’actions qui incarnent de nouvelles pratiques sans toutefois vêtir la terminologie « adaptation » au moment d’interroger les acteurs. C’est que pour assurer la continuité de leurs services ou la pérennisation de leurs activités professionnelles, la marge de manœuvre des collectivités et des entreprises est étroite : concrètement, il s’agit avant tout de bricoler face à des contraintes financières, techniques ou administratives qui s’accumulent. De multiples acteurs locaux œuvrent ainsi silencieusement à l’écart des radars administratifs qui comptabilisent, décernent ou mettent en avant les meilleurs élèves en matière d’adaptation.

L’adaptation silencieuse : au-delà des injonctions

Pour qualifier le phénomène qui ressort régulièrement des entretiens et observations menés tout au long de ces deux dernières décennies auprès d’acteurs de terrain, j’ai choisi le terme d’« adaptation silencieuse », en référence aux travaux du philosophe François Jullien.

Pour décrire les changements continus qui sont au cœur de la vie, telle que la vieillesse ou l’évolution des sentiments, François Jullien utilise dès 2009 le terme de « transformations silencieuses », terme qu’il applique également aux changements climatiques :

« Que sont les changements climatiques sinon des transformations silencieuses, issues d’une corrélation indéfinie de facteurs se produisant infinitésimalement et de manière continue à l’échelle globale ? »

À son tour envisagée comme une transformation silencieuse, l’adaptation peut ainsi être perçue comme un processus de réorganisation continue par lequel les systèmes se structurent en fonction de l’évolution climatique en vue d’assurer leur viabilité.

Associer « adaptation » et « silencieuse », permet aussi d’évoquer une réalité : beaucoup d’acteurs n’utilisent que peu, volontairement ou pas, le vocabulaire associé aux démarches d’adaptation prônées dans les injonctions. Ici, on ne communique pas avec des « diagnostics de vulnérabilité », des « expositions aux aléas » ou des « facteurs de sensibilité ». On surveille la météo au jour le jour, et on avise selon les moyens du bord : on change les dates de semis, on reporte le chantier ou on nettoie les abords de la rivière voisine.

Ensuite, il s’agit d’opérer dans une temporalité qui va permettre la continuation de l’activité, le maintien de la bonne relation avec le client ou l’amoindrissement du choc pluvial à venir. L’horizon temporel s’étend de la veille au lendemain jusqu’à « la prochaine fois ». L’horizon spatial, lui, se situe à l’échelle des 120 mètres carrés du mur nord de l’église du XIVᵉ siècle en proie à un retrait gonflement d’argile prononcé, à l’échelle de la parcelle en herbage censée assurer le troupeau des dix-sept brebis jusqu’au mois prochain ou à l’échelle des quatre employés de l’équipe municipale en charge de débroussailler les abords ouest du village. Ces chapelets d’initiatives successives mises en place « pour faire face à cette météo déréglée » s’égrènent sur le territoire et participent de l’adaptation.

Concrètement, ces réorganisations invisibilisées sont autant de processus non explicitement désignés comme des adaptations aux changements climatiques qui se révèlent par l’usage, et non par le décret : redoutant un nouvel été, « comme celui de l’an dernier », le bureau de l’agence immobilière teste sa clientèle sur de nouveaux horaires en période estivale afin de garantir le confort thermique de ses employés.

Pour les chercheurs qui arpentent les territoires, ces formes d’action sont plus répandues qu’on ne le pense. Elles se distinguent de l’action publique par plusieurs caractéristiques, parmi lesquelles l’absence de label, une décentralisation maximale et une optimisation de l’apprentissage pas à pas : n’ayant pu accéder au marché hebdomadaire du fait des routes inondées, l’exposant du camion-boucher se renseigne sur les possibilités d’autres marchés en faisant appel à son réseau afin d’élaborer un nouveau calendrier annuel prenant en compte ces obstacles météo récurrents.

S’adapter, c’est aussi écouter ce qui se met en place sans bruit et dans l’ombre. L’illusion réside dans le fait de se croire rassuré par la tangibilité d’une adaptation bruyante. Or, le silence a également le potentiel de construire une capacité à habiter le monde qui se dessine chaque jour un peu plus sous nos yeux. En quête d’efficacité, les politiques publiques pourraient avoir tout à gagner en cessant de considérer les acteurs locaux comme des récepteurs passifs de schémas directeurs pensés pour eux.

The Conversation

Guillaume Simonet-Umaña est coordonnateur de l’association Reconnexion – Expertise Climat Occitanie.

ref. L’adaptation silencieuse : ces transformations qui échappent aux politiques publiques – https://theconversation.com/ladaptation-silencieuse-ces-transformations-qui-echappent-aux-politiques-publiques-280500

Souveraineté numérique européenne : quels leviers juridiques et politiques ?

Source: The Conversation – in French – By Nicolas Minvielle, Docteur en économie, spécialiste des questions d’innovation et de défense, Audencia

Le libre-échange, pensé comme facteur de paix depuis l’après-guerre, est devenu une source de tensions, notamment face à la domination numérique des États-Unis. L’Union européenne, très dépendante technologiquement, se heurte à un cadre juridique international et interne qui limite sa souveraineté. Pourtant, elle dispose de leviers juridiques et réglementaires pour agir. Entre recours aux exceptions de sécurité et modèle coopératif inspiré d’Airbus, l’avenir de la souveraineté numérique européenne repose sur une stratégie collective alliant droit, technologie et volonté politique.


« L’esprit du commerce ne peut coexister avec la guerre », affirmait Emmanuel Kant, introduisant l’idée selon laquelle la logique économique s’oppose à celle du conflit armé. C’est suivant cette logique que s’est construit l’ordre international d’après la Seconde Guerre mondiale, avec l’Accord général sur les tarifs douaniers et le commerce (GATT) (1947), l’Organisation mondiale du commerce (OMC) (1995) et le marché intégré européen, dont l’un des principes absolus est la libre circulation et l’ouverture des marchés à tout acteur établi sur le territoire de l’Union européenne (UE).

Cette liberté du commerce, qui se donne donc un objectif pacificateur, est aujourd’hui source de divers conflits, les acteurs économiques devenant des vecteurs de diffusion de modèles politiques ou sociétaux. Si le constat n’est pas récent, le réveil européen l’est. L’interdiction de séjour aux États-Unis de Thierry Breton, commissaire européen de 2019 à 2024 et artisan de la législation européenne sur les services numériques (DSA), ainsi que l’ambition de prise de contrôle stratégique du Groenland affichée par l’administration Trump ont catalysé la prise de conscience de la vulnérabilité diplomatique de l’UE face à son allié américain.

Cette vulnérabilité diplomatique se double d’une profonde dépendance en matière numérique. En 2024, le rapport Draghi soulignait que la dépendance de l’Europe envers les pays tiers, à commencer par les États-Unis, était de plus de 80 % pour ses usages numériques. La volonté de l’UE de réguler les géants du numérique est génératrice de tensions régulières avec Washington, qui use de la prédominance de ses acteurs économiques pour décider de mesures de rétorsion à l’encontre de l’Europe. C’est dans ce contexte que se pose la question de la possibilité d’une réelle souveraineté de l’UE dans le domaine du numérique.

Le cadre juridique international, obstacle apparent à la souveraineté numérique

Il n’est pas évident de trouver dans un droit international constamment bafoué, les clés de la construction d’une souveraineté numérique européenne. Ce droit a été bâti dans un objectif de libre-échange absolu. Le défi est d’autant plus important que la mondialisation des échanges a favorisé le développement de lois extraterritoriales, brisant le concept westphalien de souveraineté territoriale –une mutation juridique qui instaure un rapport de force asymétrique au profit de la puissance capable d’instrumentaliser sa domination technologique et monétaire.

Dans le domaine du numérique, ce changement de paradigme est porté par des législations comme le Cloud Act, qui rendent les protections juridiques classiques obsolètes face aux injonctions étrangères, plaçant les États ne disposant pas de tels leviers de domination dans une situation de dépendance numérique critique.

Et pourtant…

Au sein de l’UE, la libre circulation est le fondement qui a permis au marché intégré – le plus intégré au monde – de voir le jour. Corollaire logique, le droit européen interdit aux États membres de préférer leurs entreprises nationales (non-discrimination) et ouvre ses marchés publics à « tout fournisseur légalement établi dans l’UE ».

Complété par les règles de libre-échange instaurées par le GATT et l’OMC, le droit européen est souvent jugé responsable de l’installation pérenne des Gafam sur le sol européen. Car c’est ce cadre de libre-échange qui a permis l’émergence d’« États plateforme », reconnus comme de réels acteurs des relations internationales. Preuve s’il en fallait de la reconnaissance quasi souveraine des géants du numérique, le Danemark a créé en 2017 un poste d’« ambassadeur auprès des GAFA », rejoint depuis par le Royaume-Uni, l’Autriche ou la France, avec des appellations moins engageantes (technology envoy au Royaume-Uni, ambassadeur pour les affaires numériques en France).

Paradoxalement, ces géants du numérique dépassent aujourd’hui l’ordre qui les a fait émerger, en rendant désuets les États « classiques » et leur souveraineté. Plus encore, ils influencent les accords de libre-échange de nouvelle génération (comme le Trans-Pacific Partnership, TPP, devenu Comprehensive and Progressive Agreement for Trans-Pacific Partnership ou CPTPP) pour y introduire des clauses limitant la capacité des gouvernements à réguler l’environnement numérique. Ainsi donc bénéficient-ils d’un cadre international favorable qui leur permet d’opérer partout.

Mais la soumission juridique au pays d’origine demeure et profite aux États d’où émergent ces géants, qui transforment les nouvelles frontières du numérique ainsi dessinées en puissants outils d’influence. Illustration récente : en 2025, Microsoft a été contraint d’appliquer les sanctions prises par le gouvernement Trump à l’encontre de Karim Khan, le procureur de la Cour pénale internationale, pour avoir émis des mandats d’arrêt contre plusieurs personnalités israéliennes. Car un contrat privé n’est jamais supérieur aux lois nationales.

Ainsi, les sanctions américaines, tout comme le Cloud Act, permettent aux autorités étrangères d’intervenir au-delà de leurs frontières à partir du moment où le lien avec une entreprise américaine existe. Le sujet est souvent traité sous l’angle des risques d’espionnage, mais en réalité la problématique est plus large et concerne bien la disponibilité de service dans sa globalité.

Droit international vs. droit européen : ce que permet le droit de l’Union

Le reproche est constant ces dernières années ; celui d’une trop grande ouverture du marché européen, parfois synonyme de naïveté. Un respect très (trop) strict des règles du GATT, et des engagements internationaux de l’Europe – parmi lesquels le Government Procurement Agreement – qui garantit un accès non discriminatoire aux marchés publics des États signataires. Ainsi donc, l’UE se voit entravée dans toute tentative d’instaurer une préférence européenne, par son droit interne, et par le droit international qu’elle est aujourd’hui l’une des dernières à prendre en considération.

Pour autant, l’UE est une exception reconnue au libre-échange et à la clause de la nation la plus favorisée, puisqu’elle a mis en place une union douanière interne, supprimant de fait toute barrière tarifaire entre États membres. Elle forme un unique territoire douanier et négocie comme tel à l’OMC.

L’UE est parfois considérée comme un « objet non identifié » du droit international, qui lui confère des leviers d’action particuliers. Et si dans certains domaines elle est jugée peu efficace, force est de constater qu’elle brille par sa créativité réglementaire. Car l’UE est la seule organisation intergouvernementale disposant de son propre ordre juridique, autonome et contraignant, dont l’application est garantie par la Cour de justice de l’Union européenne. Un droit européen qui s’est construit dans la recherche d’équilibre entre intégration et respect des souverainetés étatiques.

Ainsi les juristes européens ont-ils pensé des leviers aujourd’hui pertinents à mobiliser pour construire la souveraineté numérique de l’UE. Ce sont ces leviers qui ont permis à la France de développer son programme nucléaire en faisant valoir les exemptions pour la sécurité nationale. Ce sont ces leviers, aussi, qui ont permis à Airbus de voir le jour, par la formation de consortiums dédiés à des projets industriels stratégiques. Ce sont peut-être ces leviers qui demain permettront à l’UE de disposer d’une réelle autonomie numérique.

Le modèle nucléaire ou l’utilisation stratégique des exceptions de sécurité pour l’UE, bonne ou mauvaise idée ?

L’article 346 du TFUE, traité fondamental qui organise les compétences de l’UE, permet aux États membres de s’affranchir des règles de mise en concurrence pour protéger leurs « intérêts essentiels de sécurité ». Un État membre pourrait donc théoriquement invoquer l’article 346 pour contraindre ses structures gouvernementales à se fournir auprès d’acteurs nationaux pour la mise à disposition de services numériques. Cela impliquerait une interprétation extensive de la notion d’intérêts essentiels de sécurité.

Si la jurisprudence de l’UE a longtemps été stricte sur le sujet, il est intéressant de constater que la Cour de justice de l’UE a progressivement infléchi sa position. Sans doute le contexte sécuritaire actuel n’y est-il pas étranger. Ainsi la Cour a-t-elle reconnu en 2018 que l’article 346 pouvait s’appliquer au-delà du champ militaire classique, dès lors que l’objectif est de protéger des intérêts essentiels de sécurité.

Si le levier existe, il n’est pas dit cependant qu’il soit la solution à la problématique numérique. Ainsi l’article 346 a-t-il permis le développement de bases industrielles et technologiques de défense (BITD) nationales, tout en fragmentant le marché européen de la défense. Le développement de l’industrie nucléaire, permis pour son volet militaire par l’article 346, est une réussite française, non européenne. La technologie, bien que complexe, était maîtrisable à l’échelle nationale.

Mais s’agissant de souveraineté numérique, l’effort doit être collectif. D’abord parce que le cyberespace est un milieu fondamentalement transverse et que la création d’une base industrielle de confiance nécessite une mutualisation des ressources. Ensuite parce que seule une action européenne coordonnée permettra d’exercer la puissance normative de l’UE. Enfin parce que l’utilisation de l’article 346 entraînerait de facto une fragilisation du marché intérieur européen, là où la coopération est condition de réussite.

Le modèle Airbus ou l’avenir du triptyque technologie-droit-politique

Parce qu’il existe des réussites européennes, le modèle développé par et pour Airbus, bien que divergent sur nombre d’aspects, peut être éclairant pour construire l’indépendance numérique de demain.

Airbus est le fruit d’un constat partagé, celui de l’impossibilité pour les industries aéronautiques de certains États membres (France, Allemagne, etc.) de rivaliser avec Boeing. Et la prise de conscience d’un risque associé, celui de la fragilisation de la souveraineté européenne. C’est donc d’une volonté politique et d’une coopération institutionnelle transnationale qu’est né Airbus. Cette volonté politique fut adossée à un effort technologique certain, qui a permis le développement et la mise sur le marché de l’A300, premier avion de ligne civil à large fuselage, équipé de seulement deux moteurs.

S’agissant du numérique, la rupture technologique ne serait pas celle du produit, mais l’approche visant à promouvoir une infrastructure de base (Foundation Model) ouverte. Ce qui permettrait à une multitude d’acteurs de construire leurs propres solutions sur cette base, et de réduire la dépendance aux Gafam. C’est cette voie d’autonomie technologique que semble poursuivre l’UE.

Le troisième pan de construction – et peut-être l’essentiel – d’Airbus fut le droit.

Pour exemple, les subventions européennes nécessaires aux investissements industriels étaient permises par le droit de l’UE, bien que contestables (et contestées) auprès de l’OMC. Les fameuses Launch Aid se fondaient sur l’article 107 du TFUE qui stipule que les aides accordées par les États membres qui faussent la concurrence sont interdites, mais peuvent être autorisées si elles sont « destinées à promouvoir la réalisation d’un projet important d’intérêt européen commun ». Sur le volet juridique, l’Europe a tenu face à l’OMC, puis aux États-Unis, qui ont sanctionné Airbus pour non-respect des règles de concurrence.

C’est cette force normative qui peut être mobilisée pour accompagner le développement d’un écosystème numérique européen. Elle l’est déjà avec le règlement général sur la protection des données (RGPD) et par ce qu’on désigne comme le Brussels Effect – ou effet extraterritorial du droit européen. Sur le plan purement normatif, le projet de Cloud and AI Development Act (CAIDA), qui sera débattu à Bruxelles en mai, pourrait amener à qualifier le cloud et les services d’IA d’infrastructures critiques, les sortant de facto du cadre de libre concurrence classique. Reste à savoir si les États membres convergeront vers un texte substantiel, non affaibli par les investissements de lobbying croissants des Gafam à Bruxelles.


Cet article a été rédigé avec Marie Devaux, enseignante vacataire à Sciences Po Aix.

The Conversation

Nicolas Minvielle est membre du comité d’orientation de la Fabrique de la Cité. Il a été animateur de la Red Team Défense des armées, et est LCL(R) au sein du Commandement du Combat Futur de l’armée de terre. Il est par ailleurs membre du collectif Making Tomorrow

ref. Souveraineté numérique européenne : quels leviers juridiques et politiques ? – https://theconversation.com/souverainete-numerique-europeenne-quels-leviers-juridiques-et-politiques-280240

Le black-out autour de l’assassinat de Sadio Camara : la presse malienne au garde-à-vous ?

Source: The Conversation – in French – By Ayouba Sow, Doctorant en Science de l’information et de la communication à l’Université Côte D’Azur, laboratoire SIC.Lab Méditerranée., Université Côte d’Azur

Les attaques du 25 avril 2026 contre plusieurs villes maliennes ont été minorées par les médias officiels, soumis à une pression constante du pouvoir. Celui-ci a instauré une censure de fait, comme en témoignent les hésitations prolongées autour de l’annonce de la mort du ministre de la défense Sadio Camara, longtemps passée sous silence par les médias publics maliens, alors même que sa disparition était déjà annoncée par la presse internationale.


Le samedi 25 avril, à l’aube, les djihadistes du Jama’at Nusrat ul-Islam wa al-Muslimin (JNIM) et leurs alliés séparatistes du Front de Libération de l’Azawad (FLA) ont simultanément attaqué plusieurs villes maliennes dont Gao, Kidal, Mopti, Sévaré, Sénou et Kati, la plus sécurisée du pays et fief des autorités de transition. Ces attaques coordonnées révèlent une carence importante au niveau du renseignement. Comment plus d’une centaine de djihadistes ont-ils pu envahir Kati avec des pick-up, des véhicules chargés d’explosifs et des motos sans être repérés à l’avance ? Dans les médias maliens, une omerta totale règne sur cette question.

L’attaque de villes comme Mopti, Kidal ou Gao n’est pas surprenante : depuis plusieurs années, les djihadistes ont pris le contrôle de villages périphériques de ces capitales régionales. Il leur a suffi de traverser le fleuve pour entrer dans la ville de Mopti, où ils ont terrorisé la population toute la journée de samedi. Au-delà d’une crise sécuritaire, ces attaques révèlent une crise informationnelle inquiétante, ainsi que la subordination de la presse malienne au gouvernement de transition.

Combattre la désinformation par des médias muselés : un combat perdu d’avance

Dans le JT de 20 heures du 25 avril, le pouvoir et la chaîne nationale (ORTM1) s’étaient limités à un premier communiqué minimaliste, dans lequel le général de brigade Issa Ousmane Coulibaly, ministre de l’intérieur et de la décentralisation et porte-parole du gouvernement, annonçait un bilan de « 16 blessés, dont des civils et des militaires » et affirmait que tout était sous contrôle. Il n’a annoncé aucune perte du côté des Forces armées maliennes et assurait que « plusieurs terroristes » avaient été « neutralisés ». Il a, en outre, appelé « les populations maliennes […] à se référer exclusivement aux canaux officiels du gouvernement pour accéder à des informations fiables » — sachant bien que l’une des informations principales, l’assassinat de son homologue de la Défense, est délibérément occultée.

Le reportage de l’ORTM1 diffusé à la suite de la lecture du communiqué a fait état de « plusieurs centaines d’assaillants neutralisés », mais est demeuré silencieux sur l’explosion de la résidence de Sadio Camara par un véhicule kamikaze, et plus encore sur sa mort.

Un autre reportage de trois minutes, tourné dans la ville-garnison de Kati, où se trouvait la résidence du ministre, n’a pas mentionné l’attentat non plus… alors même que l’on pouvait voir une pelleteuse soulever des débris à l’arrière-plan. Les intervenants (de jeunes habitants de la ville et un responsable de la mairie) ont été mobilisés pour rassurer le reste de la population. Loin de la factualité, le journal s’inscrivait dans la communication gouvernementale, sans fournir aucune information sur l’ampleur des attaques.

La « mauvaise nouvelle », enfouie dans le sable comme une crotte de chat par les médias maliens, a finalement été diffusée par des médias français, que les autorités maliennes dissuadent leurs populations d’écouter. Le lendemain après-midi, la mort du ministre de la Défense, annoncée par Jeune Afrique, RFI, mais aussi la chaîne qatarie AJ+ et tant d’autres, était au centre de l’attention sur les réseaux sociaux.

L’opinion nationale et internationale était suspendue et à l’affût d’une réaction des autorités maliennes pour une éventuelle confirmation ou infirmation de cette nouvelle. Pour une partie des Maliens, la mort de Sadio Camara était une fausse nouvelle colportée à dessein par des médias français ; cette partie de la population reprend volontiers le discours des autorités de Bamako selon lequel, depuis qu’elles ont contraint la France à quitter le pays, en 2022, celle-ci aurait du mal à accepter le divorce, mais surtout le rapprochement entre le Mali et la Russie, et œuvrerait par tous les moyens, notamment médiatiques (à travers les médias du groupe France Médias Monde, à savoir RFI et France 24), à déstabiliser la transition malienne.

La mort de Sadio Camara était pourtant un fait avéré, ce qui a porté un coup dur à la crédibilité de la chaîne nationale une fois que la nouvelle est devenue impossible à dissimuler. Les journalistes maliens, notamment ceux des médias publics, disposaient bien de l’information, mais l’ont retenue durant plus de 24 heures, laissant toutes sortes de rumeurs se propager sur les réseaux sociaux. La confirmation n’a été officiellement donnée qu’au journal de 20 heures du 26 avril, dans un communiqué officiel du gouvernement.

Une fois de plus, les médias français, que les autorités de transition veulent réduire au silence (après les avoir définitivement suspendus en novembre 2025), se sont illustrés par leur efficacité et leur rapidité à informer les Maliens. Tandis que les autorités affirmaient que la situation était « sous contrôle », les Maliens ont été surpris, le lendemain des attaques, d’apprendre la mort de leur ministre de la défense, l’un des plus appréciés des cinq généraux auteurs du coup d’État de 2020.

Aucun média malien n’a osé diffuser immédiatement cette nouvelle, malgré sa publication par la presse internationale. Pour une raison simple : tous les journalistes maliens redoutent la « loi portant répression de la cybercriminalité », texte remontant à 2019, donc avant le putsch, et qui peut être utilisé pour emprisonner quiconque publierait une information « susceptible de troubler l’ordre public ou de porter atteinte au crédit de l’État ». La presse, officiellement libre, a donc en réalité été obligée d’attendre le communiqué officiel pour diffuser une information qu’elle détenait depuis plus de 24 heures. Cette presse n’a pas non plus le droit de remettre en cause le récit officiel. « La presse malienne est libre, mais elle n’est pas indépendante », a estimé le 1er mai le président de la Maison de la presse Bandiougou Dante, interviewé par le média Aujourd’hui-Mali en prélude à la Journée mondiale de la liberté de la presse.

Cette censure est la conséquence d’une politique bien ancrée. Les autorités appellent au « journalisme patriotique », qui consiste à ne rien publier de défavorable à son pays. Or rapporter les faits ne saurait être, en soi, une menace pour le pays, mais plutôt pour les insuffisances du pouvoir en place. « On ne peut pas bâtir le pays sur du mensonge », d’après un adage malien. À travers ce journalisme dit « patriotique », promu par l’armée et par la Maison de la presse (institution garante morale de la profession), les autorités ont développé une stratégie de communication permettant de verrouiller l’information et de museler les médias.

Dans la même logique, le président Assimi Goïta a dissuadé les internautes et les journalistes de communiquer sur les pertes de l’armée. Selon lui, puisque les djihadistes ne communiquent pas leurs pertes, l’armée ne devrait pas non plus le faire. Cette doctrine influence désormais le traitement de l’information dans les médias publics, dont les journalistes savent pourtant mieux que quiconque qu’un média public ne « communique » pas comme une organisation terroriste.

Le silence des médias maliens se retourne contre eux

Face à la rumeur, les médias publics ont gardé le silence, laissant le champ libre aux fausses nouvelles et à la désinformation. Ces médias, qui ne cessent, ces derniers mois, d’inviter la population à les suivre pour être informée dans un monde infesté de fausses nouvelles, ont contribué, par leur silence, à renforcer l’image et la crédibilité des médias étrangers : ces derniers sont les premiers à informer les Maliens sur l’actualité de leur pays.

Dans l’après-midi du 26 avril, la mort de Sadio Camara a été démentie par des activistes proches des militaires. L’une des web TV les plus influentes, Ouverture Média, avait annoncé samedi soir que Camara était indemne, avant de reconnaître, deux jours plus tard, qu’elle ne pouvait pas annoncer certaines informations sans l’autorisation de l’armée. Toutefois, cette chaîne, en quête d’audience, n’était pas obligée de diffuser de fausses informations non vérifiées. Elle a depuis supprimé ce contenu, que nous avons retrouvé sur d’autres comptes.

La censure jusqu’au bout

À la suite de ces attaques, des rumeurs ont circulé faisant état de la mort ou de l’enlèvement du chef d’état-major. Le patron de la Sécurité d’État, le général Modibo Koné, aurait été blessé selon plusieurs médias étrangers, et certains internautes ont annoncé son décès. Le chef d’état-major est depuis réapparu, contrairement au responsable de la Sécurité d’État.

Selon le gouvernement malien, l’attaque ayant visé la résidence de Sadio Camara a coûté la vie à plusieurs fidèles dans une mosquée proche. De nombreuses sources officieuses font état de la mort de l’une des épouses du ministre, d’un de ses enfants, d’un neveu et d’autres victimes collatérales non mentionnées dans le communiqué. D’après la presse étrangère, le jour des attaques, le président Goita a été exfiltré de sa résidence pour être placé en lieu sûr. Les médias publics, contrairement à leur mission d’informer, n’ont toujours pas levé le voile sur le mystère qui entoure ces événements. Ces points restent des questions sans réponse.

Les victimes collatérales étaient les grandes absentes de la cérémonie d’hommage national à Sadio Camara, aucune mention n’ayant été faite de leur mort. La version officielle de ces attaques terroristes est également devenue un sujet de débat. Selon le porte-parole du gouvernement :

« Un véhicule piégé conduit par un kamikaze a visé la résidence dudit ministre, qui a engagé des échanges avec des assaillants dont il a réussi à éliminer certains. Au cours d’intenses affrontements, il a été blessé puis transporté à l’hôpital où il a malheureusement succombé. »

Comment un rescapé d’une explosion de ce type a-t-il pu se retrouver avec une arme et échanger des tirs ? Les journalistes maliens sont les mieux placés pour apporter des réponses à cette interrogation, et à tant d’autres. Mais, une fois de plus, l’ORTM1 se manifeste par son silence à un moment clé de l’histoire nationale. Les médias nationaux sont les plus appropriés pour mener cette enquête et publier le bilan. La mainmise du gouvernement sur les médias publics réduit leur crédibilité auprès des citoyens.

Après ces attaques, le porte-parole du JNIM Nabi Diarra a annoncé un nouveau blocus autour de Bamako. En dépit de cette déclaration, l’ORTM1 a publié, vendredi, les images de l’entrée de plus de 800 camions-citernes dans la capitale. Ces images prouvent que les djihadistes n’ont pas réussi à couper Bamako du reste du pays. Certes l’ORTM1 cherche ainsi à rassurer les Maliens, mais dans ce contexte extrêmement tendu, ces derniers, surtout au sein de la diaspora, critiquent de plus en plus leurs médias officiels, et se demandent à quelles sources d’informations ils peuvent se fier.

The Conversation

Ayouba Sow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le black-out autour de l’assassinat de Sadio Camara : la presse malienne au garde-à-vous ? – https://theconversation.com/le-black-out-autour-de-lassassinat-de-sadio-camara-la-presse-malienne-au-garde-a-vous-282070

Europe’s dilemma – to use China’s turbines to meet its renewable targets or not

Source: The Conversation – UK – By Chee Meng Tan, Assistant Professor of Business Economics, University of Nottingham

Europe’s wind turbines have become part of a wider struggle over energy security, industrial power and the west’s dependence on China.

European wind power capacity has surged dramatically in recent years. Wind energy now supplies 17% of EU electricity up from 13% in 2019. Offshore wind has expanded particularly rapidly, with installed capacity growing strongly over the past decade.

But Brussels wants renewables to provide at least 42.5% of the EU’s total energy mix by 2030. Wind is “pivotal” to this strategy, according to the European Commission’s wind power action plan. The challenge for Europe is to meet its 2030 target, it needs to build 33 gigawatts (GW) of new wind turbines annually.

So far, data from 2022, 2023 and 2024 indicates that Europe has averaged only around 16-19 GW of new installations per year. This leaves a significant gap between Europe’s target and its implementation.

Across the Atlantic, the picture is just as uncertain. The US Inflation Reduction Act introduced during Joe Biden’s presidency promised a surge in renewable energy investment, including wind. But growing political opposition to turbines, especially from Donald Trump and his political allies, has cast doubt over how far that momentum can go.

Cheap turbines and fast delivery

Europe’s installation shortfall and the US’s retreat from wind energy create a strategic opening for China. Chinese manufacturers dominate the global wind industry, with six of the top ten turbine makers and producing over 70% of the world’s new wind turbines in 2024. Companies like Goldwind, Envision and Mingyang offer turbines that are 30-40% cheaper than western equivalents and promise faster delivery.

This puts the west in a bind: accept Chinese help to meet climate targets quickly and cheaply, or reject it and risk falling further behind.

Europe could certainly rely on Chinese wind power to close its gap in renewable energy. The same could be said about the US, although its desire to push forward with wind power is not clear. US wind deployment fell to 5.2 GW in 2024, the lowest level in a decade, and turbine orders dropped 50% in the first half of 2025.

However, allowing Chinese firms greater market access creates a real policy dilemma. While purchases of Chinese turbines would speed up Europe’s energy transition and is cost effective, the EU sees China as an economic rival and security risk that potentially undermines the union’s industrial and strategic autonomy.

The US appetite for Chinese wind tech is much lower than Europe’s. Aside from permit delays, grid connection bottlenecks and rising costs, Trump’s return to office in 2025 is an important factor in the US’s renewable slowdown. The US president has publicly labelled wind power “a joke”, and has frozen federal permits for offshore and onshore wind projects, in addition to eliminating renewable energy tax credits.

But that’s not all. Washington views China’s dominance in wind turbine technology as a security threat requiring protectionist barriers, and has effectively blocked Chinese wind technology through various measures. This includes
national security probes into wind turbine imports, 50% tariffs on wind turbines and parts, and tax credit restrictions that bar companies using Chinese-manufactured components from accessing federal clean energy incentives.

Western tariffs haven’t slowed China’s wind industry but have redirected it. Chinese wind turbine exports surged 50% in 2025. By the end of 2025, cumulative exports had exceeded 28 GW, a thirteenfold increase from 2015. Chinese manufacturers are now selling wind turbines to more than 60 countries, and have established production or research operations in more than 20.

The UK’s largest wind farm is off the east coast.

Targeting new markets

The pattern is clear: China is targeting developing markets where western competition is weak and renewable energy demand is surging. The biggest purchasers of turbines from China in 2024 were Saudi Arabia, Uzbekistan, Brazil, Egypt and Kazakhstan. All are participants in China’s economic development plan, the Belt and Road Initiative.

But China’s wind momentum shows no signs of slowing. Pakistan, Indonesia, Vietnam, Saudi Arabia and Malaysia are expected to add 120 GW of wind and solar capacity over the next decade, requiring US$73 billion (£53.5 billion) in investment. Chinese firms already captured over 60% of renewable energy capacity in these markets since 2024, and is set to expand further.

While China’s wind turbine sales to the US and Europe may be uncertain, Beijing has secured a different prize. Since 2013, Chinese companies have installed 156 GW of power capacity across Belt and Road Initiative countries, 70% in Asia and 15% in Africa.

The west may be protecting its own energy independence, but may also be handing the control of Africa and Latin America’s energy future and security to China, if things don’t change.

The Conversation

Chee Meng Tan does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Europe’s dilemma – to use China’s turbines to meet its renewable targets or not – https://theconversation.com/europes-dilemma-to-use-chinas-turbines-to-meet-its-renewable-targets-or-not-281475

Massive marine heatwave caused Caribbean coral reefs to collapse much faster than predicted – new research

Source: The Conversation – UK – By Chris Perry, Professor in Tropical Coastal Geoscience, University of Exeter

For decades, coral reefs throughout the Caribbean have been suffering from disease, pollution, overfishing and rising sea temperatures, yet most have continued to grow – until now.

In 2023 and 2024, surface temperatures climbed to record highs in the world’s oceans, and a marine heatwave of unprecedented length and intensity spread across the tropics. Satellites from the US National Oceanic and Atmospheric Administration detected heat stress that could cause corals to bleach across more than 80% of the planet’s reef areas.

During these periods of extreme stress, corals expel the symbiotic algae that give them their colour and most of their food – turning them stark white and leaving them vulnerable to starvation, diseases and eventually death.

Across the North Atlantic, including the Caribbean, the heat stayed for months, with heat stress two-to-three times higher than reefs had ever experienced. Heat stress, the phenomena of high temperatures putting fragile ecosystems under pressure, can permanently alter their ability to function.

This triggered what is now recognised as the fourth global coral bleaching event, the most severe one that has been documented.

Widespread coral bleaching during the 2023 marine heatwave.

Coral reefs are among the most productive ecosystems on Earth, and their importance to people is fundamental. They feed hundreds of millions through small-scale fisheries, underpin tourism across the Caribbean, and serve as natural breakwaters that protect the coast from storms and reduce flooding events.

Caribbean reefs are eroding fast

In a new study, we found that across the Caribbean, the 2023 marine heatwave – combined with a deadly disease known as stony coral tissue loss disease – has pushed reefs over a threshold scientists thought was a decade or more away. They are now eroding faster than corals can rebuild them.

We studied reefs in the Mexican Caribbean and the Gulf of Mexico, comparing data collected before the heatwave (2018–2022) with surveys after it (2023–24). At each reef, we counted live corals and organisms that break down the reef, like parrotfish and sea urchins. From those counts, we estimated how much reef-building (carbonate production) and reef-breaking (bioerosion) was happening, then calculated the net result – whether the reef was gaining or losing material.

The results were stark: between 70% and 75% of our Caribbean sites had tipped from net growth into net erosion. They are now losing calcium carbonate faster than corals can add it. The threshold that earlier models had suggested might be crossed over during the next decade or so has already arrived.

This shift was driven by the loss of fast‑growing, branching and plate‑forming corals, especially the Acropora species, which have very high growth rates and disproportionately contribute to reef building.

One of our most unsettling findings is that the Caribbean reef sites that still had high coral cover and high carbonate production before the disease and heatwave were the ones that lost the most. Some lost up to 8 kilograms of calcium carbonate per square metre per year.

A tale of two seas

Our survey also revealed a striking contrast. While Caribbean reefs collapsed, reefs in the Gulf of Mexico largely held their ground. The great majority of Gulf sites remained net positive after the heatwave.

The difference comes down to which corals are pre-eminent in each region. In the Gulf of Mexico, reefs are dominated by slow-growing, mound-shaped corals. They grow more slowly, but they are tougher when the heat kicks in. They bleached during the heatwave but mostly survived, keeping the reef’s carbonate budget positive.

This is the balance between the constructing and eroding processes. When more is added than removed, the coral reef can grow. When that balance flips, the reef stops growing and may even erode.

Moreover, sites in the Gulf of Mexico have not yet been affected by stony coral tissue loss disease, which preferentially kills the same massive, long-lived species that are keeping Gulf reefs alive. By the time the heat arrived, large parts of the Caribbean had already lost their most resilient corals because of the disease outbreak. What it started, the heatwave finished.

Why reef erosion matters

All the benefits reefs provide rely on a delicate balance between reef construction and erosion.

Tropical reefs are essentially vast limestone structures, built slowly over centuries as corals deposit calcium carbonate skeletons. At the same time, waves and various reef organisms like parrotfish, sea urchins and boring sponges chip away at them.

An eroding, flattening reef begins to lose its capacity to provide benefits to other species, and people.

We did not expect to be documenting the moment at which a major region of the ocean crossed from growing to eroding. The fact that it happened this quickly, and at some of the most iconic and well-studied reefs in the Caribbean, suggests the timelines scientists have been using may be too optimistic.

Main reef-builders in the Caribbean died as heat stress increased.

Our findings may also force a rethink of how to approach coral restoration. Programmes across the Caribbean have invested heavily in replanting fast-growing branching species of coral, such as Acropora, because they rebuild structural complexity quickly. The 2023–24 heatwave wiped out many of these restored populations, along with wild ones.

Restoration will have to diversify. Exploring approaches such as moving heat-tolerant genes between populations (assisted gene flow) and breeding corals that survive heat better (selective breeding) might be a promising path.

But restoration alone will not be enough. Reversing the decline requires rapid cuts in greenhouse gas emissions to slow the frequency and intensity of marine heatwaves, alongside serious local action on pollution, nutrient runoff, sedimentation and disease – the stressors that weaken corals before the heat arrives.

The Conversation

Chris Perry receives funding from the UK Natural Environment Research Council.

Lorenzo Alvarez-Filip does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Massive marine heatwave caused Caribbean coral reefs to collapse much faster than predicted – new research – https://theconversation.com/massive-marine-heatwave-caused-caribbean-coral-reefs-to-collapse-much-faster-than-predicted-new-research-281478

School dinners are changing: the strong emotions and memories around these meals reflect their social, economical and cultural importance

Source: The Conversation – UK – By Heather Ellis, Vice-Chancellor’s Fellow, School of Education, University of Sheffield

The UK government has launched its first review of school food standards in over a decade, alongside plans to extend free school meals to an additional 500,000 children in families receiving universal credit.

Much of the coverage has focused on specific menu changes, including the possible removal of sugary desserts such as steamed sponge. The focus on such changes might be reflective of how school food has never been only about nutrition for those who have experienced it. It is also about welfare, discipline, pleasure, stigma and care.

The School Meals Service: Past, Present – and Future? is a project I worked on that brings together archival research, oral histories and ethnographic work in schools across the UK. We were also the principal academic partner for the Food Museum’s ongoing School Dinners exhibition near Ipswich, which explores the changing history of school meals through objects, menus, memories and tastes – from semolina and sponge pudding to Turkey Twizzlers.

Since school meals were first introduced in legislation in 1906, they have changed repeatedly. Early provision was patchy and often associated with charity. After the 1944 Education Act, school meals became part of the postwar welfare settlement, intended to provide children with a nutritious meal during the school day.

For decades, the classic image of the school dinner was “meat and two veg”, followed by puddings such as sponge, semolina, rice pudding, jam roly-poly or custard.

From the 1980s, the provision of school meals became more fragmented. Nutritional standards were removed, local authorities had more freedom, and commercial catering reshaped menus. Later debates around Turkey Twizzlers and processed food, driven by people like celebrity chef Jamie Oliver, were part of this longer story. Today’s government review of school food standards is another chapter in that history.

What children remember

When people recall school dinners, they rarely talk about calories or guidelines. They remember texture, smell and noise.

Joanne, who attended school in Surrey and East Yorkshire from the late 1960s to 1980, described being served vegetables she could not eat: “Mush. Cold … you can’t have that unless you eat your beans … it put me off for life.”

The dining hall mattered as much as the food. Ella, who went to school in Rotherham from 1996 to 2010, remembered the anxiety of a space where “someone would puke and I would freak out … I can’t be in here”. Lauren, who attended schools in Northumbria and Merseyside from 1998 to 2012, recalled mashed potato that “you could pick up with a fork and it would just stick”.

Stigma, inequality and school food

School meals could also expose inequality. Free school meals have long been a vital safety net, but they have also carried stigma.

Joyce, who went to school in Glasgow in the 1960s, remembered the teacher calling children forward with the phrase “come out the frees”. She described it as “the walk of shame”.

Naomi, who attended school in Birmingham in the 1980s, showed how this could intersect with racism. Her mother paid for school meals despite financial strain because she worried Naomi might be singled out: “there weren’t many Black kids in my school”.

Yet school dinners were also remembered with affection. For many people, puddings such as sponge and custard were the best part of the day. For others they evoke control, compulsion or, like for Joyce and Naomi, embarrassment. That is why the removal of steamed sponge resonates. It is not just dessert. It is part of a shared national memory.

Beyond the menu

The Food Museum exhibition captures this complexity. Visitors encounter the familiar foods, but also the people behind them: pupils, parents, cooks, dinner staff, teachers and policymakers.

The exhibition, which has been shortlisted for a 2026 Museums and Heritage Award, draws directly on our research into how school meals changed over time and why those changes mattered socially, economically and culturally.

Today’s reforms emphasise healthier ingredients, more fruit and vegetables, fewer fried foods and less sugar. These aims matter. History and our research suggests what is served matters. So do the dining hall, the queue, the noise, the payment system, the stigma, the pleasure and the memories children carry into adulthood.

School dinners are one of the most widely shared experiences of British childhood. As they continue to evolve it is worth considering not just what is on the plate, but how it feels to eat it.

The School Dinners Exhibition is on at the Food Museum in Suffolk until February 21 2027

The Conversation

Heather Ellis received ESRC funding for The School Meals Service: Past, Present – and Future? project

ref. School dinners are changing: the strong emotions and memories around these meals reflect their social, economical and cultural importance – https://theconversation.com/school-dinners-are-changing-the-strong-emotions-and-memories-around-these-meals-reflect-their-social-economical-and-cultural-importance-281917

Probiotics: what are we swallowing?

Source: The Conversation – UK – By Berenice Langdon, Senior Lecturer and Honorary Consultant, St George’s, University of London

BearFotos/Shutterstock.com

Standing by the counter at the pharmacist waiting to pick up my prescription, I couldn’t help noticing the prominent display of probiotics on the counter. It was two years ago, and I was reading everything I could find on microbiomes and probiotics – whether in books, journals or in shops – in preparation for writing my book The Microbiome: What Everyone Needs to Know.

For days I had focused just on probiotics and here they were, temptingly in front of me, ready for me to buy. The packaging was so glossy and it’s claims so intriguing, I found myself picking up the box to see what they were saying.

“Supporting gut health.” “Friendly bacteria.”

I was about to get antibiotics for my tonsillitis. Should I get some probiotics? I’d heard they might help replace the “good” gut bacteria that antibiotics can wipe out.

The pharmacist knew me by sight, partly because he had just looked down my throat and prescribed them for me and partly because I’m a local GP. He nodded encouragingly and pointed at the display. “These are very popular,” he said.

I turned the box over. The packaging did best when describing what it contained. Thirty capsules to be taken every day, each containing 5 billion live cultures. I compared it with the others on the shelf. Some contained 2 billion, some 10 billion. One contained 25 billion bacteria per capsule. It was a huge number and a huge dosage range. Were these dosages safe?

It wasn’t so clear on what live cultures were exactly, describing them variously as “trusted” or “friendly”. Higher-dose brands described themselves as “diverse” or “powerful”, sounding more like the boardroom of a Fortune 500 company than a dietary supplement.

When it came to what they did, things became vague. Apparently, probiotics are there to “complement your natural gut bacteria” or alternatively to “complement your everyday life”.

It took a bit of time for the pharmacist to package up my medication and label it, so I carried on and read the small print. Each brand was very confident its ability to survive the stomach acid: they were also confident on the research. “Most researched live culture.” “Highly researched strains.” I had no difficulty in believing this, it was the lack of claims to efficacy that baffled me.

Finally, I found the actual ingredients. Each listed their various combinations of bacteria, some containing up to 15 different sorts, but always including several versions of lactobacilli and bifidobactera.

Lactobacillus acidophilus I knew as a bacteria needed to make yogurt. Bifidobacteria are also often used in the food industry. Both are typical residents of our guts, known to account for about 12% of our usual gut bacteria.

So why do probiotic products all seem to contain the same bacterial species? And why are their claims always so deliberately vague?

Almost one in 20 adults are taking probiotics: typically those of us with higher educational levels, higher incomes and better diets. If we just knew a bit more about microbes, would we still want to take them?

Stomach acid – the great destroyer

It is normal to consume a lot of bacteria on our food. Even with freshly washed or cooked food, on a typical day we consume 1.3 billion bacteria a day either on or in our food.

As soon as our food hits the stomach, our high levels of stomach acid kill or injure almost all the bacteria we consume. Only a few ever reach the colon and those few probiotic bacteria that survive usually only ever stay a few days.

But to swallow a probiotic capsule containing 25 billion, is 20 times the number of bacteria our body is used to handling: a huge microbial load. Even “friendly” probiotic bacteria can cause a serious infection if they get in the wrong place, such as the blood stream. It’s true that most people can manage this huge microbial load fine because of our innate gut defence systems. But probiotics should be avoided by those with weak immune systems, who may be less able to keep these bacteria contained and are at higher risk of them spreading and causing infection.

The reason that out of all the millions of bacteria available in the world, probiotic brands always home in on exactly the same microbes is because these are all bacteria that are known to be safe or used in the food industry since before 1958. If a microbe is officially designated “Generally Recognized As Safe”, then the producer need undertake no further research. And if the producer then sticks to general claims of efficacy – what’s known as a “qualified health claim”, they don’t even have to prove it works.

Generally Recognized as Safe explained.

But even with no efficacy claims at all, the probiotic industry still seems to get its message across – and, as I handled the box of probiotics, I still had a strong feeling that this product was good for me, would make me healthier and that I should buy it.

I held the box uncertainly. “Do you want these as well?” the pharmacist asked.
I checked the price: £17.99 for 30 probiotic capsules (low dose) for something I already had inside me from eating ordinary food. I decided to stick to the antibiotic prescription only, for £9.90.

So, do probiotics work? I have learned to equivocate when asked this, because people who ask me – usually enthusiastically and with a smile – are invested in the concept of probiotics and have often already been taking them. To avoid upsetting people I now usually say: “Well, they probably haven’t done you any harm.” Apart from the cost.

The Conversation

Berenice Langdon is the author of: The microbiome: What Everyone Needs to Know, published by Oxford University Press.

ref. Probiotics: what are we swallowing? – https://theconversation.com/probiotics-what-are-we-swallowing-280999

L’engagement sociétal local des marques suscite une consommation socialement et localement plus responsable

Source: The Conversation – in French – By Yolande Piris, Professeure des Universités, Université Bretagne Sud (UBS)

Les marques qui s’ancrent dans leur territoire ne font pas seulement du bien à la communauté : elles renforcent aussi leur relation avec les consommateurs. Mais attention, tout dépend de la manière dont cet engagement est perçu.


Les Français sont non seulement concernés par l’engagement des marques dans des causes sociétales mais ils ont également compris que c’est par leur choix de consommation, et grâce aux marques, qu’ils peuvent eux aussi agir. Ainsi, l’étude menée par BVA Xsight, montre que 75 % des Français sont sensibles à l’engagement des marques dans des causes sociétales. Mais 39 % d’entre eux pensent que l’offre de biens et de services est insuffisante pour leur permettre d’adopter un comportement responsable. L’acte d’achat n’est plus seulement la volonté de satisfaire un besoin de consommation. Il peut aussi traduire la volonté d’agir plus largement pour une cause sociétale.

Face à des consommateurs de plus en plus sensibles aux enjeux sociétaux, les entreprises multiplient les initiatives et notamment les initiatives locales : soutien à des associations, partenariats avec des acteurs régionaux, mise en avant du patrimoine culturel. La consommation d’une offre locale n’est donc pas seulement recherchée pour l’offre elle-même, mais également pour les retombées qu’elle peut susciter sur la communauté qui compose le territoire local.

Des atouts nombreux

Le caractère local d’une marque est souvent associé par les consommateurs à des enjeux sociétaux. Notamment, la marque locale porte la promesse d’une consommation qui minimise les transports polluants, contribuant ainsi à garantir un mode de vie plus durable et plus sain au sein de la communauté locale. La consommation de produits de marques locales permet également de maintenir ou créer des emplois locaux qui offrent de plus l’avantage d’être plus respectueux des droits des salariés comparativement aux emplois localisés dans des pays disposant d’une législation du travail peu développée.

Notre recherche montre que l’engagement sociétal local d’une marque conduit ses consommateurs à se sentir davantage capable d’influencer positivement le bien-être au sein de leur communauté locale grâce à leur consommation. Nous montrons que c’est l’attachement des consommateurs envers la marque engagée localement qui explique cet effet positif. En outre, une marque est incitée à pérenniser son engagement local parce que ce dernier améliore la fidélité d’achat des clients.




À lire aussi :
Quand les imaginaires des marques nous inspirent


Deux formes d’engagement

L’engagement sociétal local des marques peut prendre deux formes. Tout d’abord, les marques peuvent jouer sur « l’iconicité » culturelle locale : la marque incarne les aspirations et les valeurs de la population, en opposition à l’uniformisation des marques mondiales. Ainsi, le chipsier français Brets, par exemple, joue sur l’iconicité de la Bretagne en mobilisant la figure de la Bigoudène ou la thématique de la mer avec un slogan comme « C’est à babord qu’on CHIPS le plus fort ».

Ensuite, la marque peut adopter un comportement prosocial en agissant directement pour le bien-être de la communauté, par exemple en soutenant des associations locales ou en favorisant des pratiques durables. Metro, par exemple, prône un développement local en collaborant avec plus de 1 300 producteurs et en soutenant plus de 80 000 emplois. L’entreprise contribue à un écosystème vertueux où l’ensemble des acteurs bénéficie d’une dynamique collective positive. Elle contribue aussi à faire revivre des filières agricoles locales, encourage l’agriculture responsable et accompagne les professionnels dans leur transition durable. L’entreprise tente ainsi de démontrer qu’une stratégie économique peut pleinement intégrer les enjeux locaux pour soutenir des valeurs sociales et environnementales.

Engagement local et attachement du consommateur

L’attachement peut se définir comme la force du lien chargé d’émotions entre un consommateur et une marque. Il résulte du jugement de l’authenticité et de la congruence d’une marque par le consommateur lorsque ce jugement se fonde sur sa perception de l’engagement local de la marque. La perception des bénéfices sociétaux procurés par la marque, rendus plus tangibles par leur proximité géographique, conduit le consommateur à associer cette marque à un idéal : celui d’une culture locale valorisée et ou d’un engagement responsable attendu.

En conséquence, la marque est jugée plus bienveillante, plus honnête, plus crédible et porteuse de sens, c’est-à-dire plus authentique. De plus, la volonté de la marque de procurer à la communauté locale des bénéfices sociétaux est de nature à amener le consommateur à ressentir une similarité avec elle, c’est-à-dire une congruence entre l’identité de la marque et sa propre représentation de lui-même. Les consommateurs s’attachent aux marques qui leur apparaissent congruentes et ou authentiques parce qu’elles contribuent à renforcer la représentation de leur citoyenneté locale et à améliorer leur estime personnelle.

Une consommation plus vertueuse ?

L’attachement du consommateur envers une marque qui s’engage localement le conduit à s’identifier à elle et à s’approprier son projet sociétal en faveur de la communauté locale. Il tend alors à adopter une attitude cohérente à l’égard de ses choix de consommation socialement et localement responsable. L’association de l’attachement envers une marque engagée localement et de l’attachement envers une communauté locale renforce l’identité prosociale locale du consommateur.

Elle motive le consommateur à adopter un comportement cohérent avec cette identité, et cela d’autant plus que ce comportement lui procure un sentiment d’élévation morale. La marque qui s’engage localement peut donc poursuivre un objectif de performance sociétale qui consiste à susciter auprès du consommateur un comportement socialement et localement responsable.

Puissant levier

Nous mesurons la performance sociétale de l’engagement local d’une marque par son effet positif sur la croyance des consommateurs que leur consommation contribue positivement au bien-être au sein de leur communauté locale. La performance commerciale de l’engagement local de la marque se rapporte quant à elle à la fidélité d’achat que cet engagement peut susciter auprès des clients. Notre recherche montre que « l’iconicité » culturelle locale et le comportement prosocial local de la marque conduisent de façon équivalente à ces deux types de performance.

Plus précisément, « l’iconicité » culturelle locale constitue un levier puissant. Lorsqu’une marque est perçue comme emblématique de la culture locale, elle suscite un attachement fort chez les consommateurs. Cet attachement renforce à la fois la pertinence perçue de la consommation locale et la fidélité à la marque. Ce lien peut même se créer sans que les consommateurs évaluent explicitement l’authenticité ou la cohérence de la marque : le simple fait qu’elle incarne une identité culturelle locale peut suffire.

Des actions crédibles

Le comportement prosocial local, qui correspond au fait d’agir volontairement pour aider, soutenir ou améliorer la vie de sa communauté proche (son quartier, sa ville ou son territoire), lui, doit être crédible. Les actions vertueuses, comme le soutien à des causes ou les partenariats locaux, n’ont d’effet positif que si elles sont perçues comme authentiques et alignées avec les valeurs des consommateurs. Sans cette crédibilité, elles ne génèrent, ni attachement ni fidélité ni pertinence perçue de la consommation locale. Autrement dit, le prosocial « déclaré » ne suffit pas, il doit être prouvé.




À lire aussi :
Au cœur des villes, la consommation locale n’atteint pas toujours le cœur de la clientèle


Les consommateurs semblent moins sceptiques face à « l’iconicité » culturelle, qui repose sur des éléments visibles et vérifiables (origine, savoir-faire, terroir). À l’inverse, les comportements prosociaux sont plus facilement mis en doute s’ils paraissent opportunistes ou déconnectés des valeurs de la marque. Ce constat souligne un risque que l’on pourrait appeler la « RSE_washing » lorsque les promesses ne sont pas suivies d’actes tangibles.

Motivations profondes

Finalement, les entreprises peuvent mobiliser la communauté locale pour donner du sens à leur marque mais en respectant quelques conseils. Tout d’abord, rendre visibles les motivations profondes de la marque. Cela peut, par exemple, passer par des collaborations avec des acteurs locaux crédibles (associations, collectivités) pour renforcer l’authenticité. Il est également nécessaire de prouver l’alignement des valeurs. Cela peut se faire via différentes actions : formaliser la mission, publier des indicateurs, faire auditer les engagements, etc. Enfin, il semble pertinent de cultiver l’iconicité culturelle de la marque : raconter son histoire, valoriser le savoir-faire, célébrer les traditions locales, etc.

La Bretagne, qui a servi de terrain d’analyse, comporte de nombreux exemples. On pense notamment à la marque Hénaff qui s’associe à des projets régionaux pour la biodiversité. La marque de café Lobodis adopte le statut de société à mission pour afficher ses valeurs. La Trinitaine et Traou Mad s’appuient quant à elles sur le patrimoine culinaire breton pour nourrir l’attachement des consommateurs.

Finalement, l’engagement local n’est pas qu’une question d’image. Bien conçu, il crée un cercle vertueux : bien-être communautaire, attachement émotionnel, fidélité commerciale. Mais, pour y parvenir, les marques doivent prouver qu’elles sont authentiques, cohérentes ou profondément iconiques !

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’engagement sociétal local des marques suscite une consommation socialement et localement plus responsable – https://theconversation.com/lengagement-societal-local-des-marques-suscite-une-consommation-socialement-et-localement-plus-responsable-272952

Vent de panique sur l’indépendance des banques centrales avec la nomination de Kevin Warsh et la succession de Christine Lagarde

Source: The Conversation – in French – By Camila Villard Duran, Associate Professor of Law, ESSCA School of Management

La nomination de Kevin Warsh à la tête de la Réserve fédérale (Fed), considéré comme la « marionnette » de Donald Trump, interroge sur l’indépendance de la banque centrale états-unienne. Or, le dollar états-unien représente environ 57 % des réserves de change mondiales. En Europe, la succession de Christine Lagarde en 2027 ouvre la boîte de Pandore à la redéfinition de l’orientation de la politique monétaire et le profil du futur président.


Pendant les dernières décennies, l’autonomie des banques centrales s’est imposée comme un principe structurant de la gouvernance macroéconomique. L’argument était simple : soustraire la gestion de la monnaie aux pressions électorales devait permettre de maîtriser l’inflation et soutenir une croissance plus stable.

Ce modèle, apparu en réponse aux crises inflationnistes des années 1970 et 1980, s’est progressivement transformé en norme institutionnelle, acceptée par tous. En protégeant la banque centrale des pressions politiques de court terme, ce que l’on appelle l’incohérence temporelle, elle vise à garantir la crédibilité de la politique monétaire, à assurer la stabilité des prix et à éviter des décisions opportunistes susceptibles de fragiliser l’économie à long terme.

Dans un contexte de cycles politiques instables, garantir aux banques centrales le dernier mot relatif aux taux d’intérêt, à la régulation financière et à la supervision bancaire demeure essentiel. Ce principe est par exemple strict dans le cas de la Banque Centrale européenne (BCE), dont l’indépendance est juridiquement protégée.

Aux États-Unis, cette fragilité institutionnelle se manifeste par des pressions politiques directes de l’exécutif sur la politique monétaire et la gouvernance de la Fed – une situation qui contraste avec le cadre plus juridiquement verrouillé de la BCE. Car les banques centrales font face à un paradoxe : être à la fois protégées et réactives, détachées des contingences politiques quotidiennes, tout en étant attentives aux effets distributifs, au débat démocratique et aux dynamiques géopolitiques.

Calendriers électoraux aux États-Unis

Aux États-Unis, la position de la Réserve fédérale (Fed) est regardée de près. Le dollar états-unien représente environ 57 % des réserves de change mondiales. Toute remise en cause de la gouvernance de la Fed a de facto des répercussions mondiales. Les décisions de taux influencent directement le rendement des actifs libellés en dollars détenus par un large éventail d’acteurs, publics comme privés.

Durant le second mandat de Donald Trump, les pressions publiques sont devenues récurrentes. Le président a affirmé que les États-Unis devraient avoir « les taux d’intérêt les plus bas du monde ». La situation a pris une dimension nouvelle lorsque des poursuites pénales ont été engagées contre le président de la Fed Jerome Powell. Le contexte politique a été interprété comme révélateur d’une pression accrue sur l’autonomie opérationnelle de la Fed.

« Marionnette du président »

Jerome Powell n’est que le deuxième membre de la Réserve fédérale que Trump a cherché à révoquer de ses fonctions. Une controverse, portée devant la Cour suprême, mettait en lumière une tentative de révocation de Lisa Cook, la première femme afro-américaine à siéger au conseil des gouverneurs de la Fed. La question de savoir si une telle révocation pouvait intervenir for cause (c’est-à-dire, pour motif valable), puisque le Federal Reserve Act touche au cœur même de l’architecture institutionnelle de la Fed.




À lire aussi :
Les pressions de Donald Trump sur la Fed annoncent-elles la fin du dollar ?


Les mandats longs et échelonnés ont précisément été conçus pour éviter la synchronisation entre cycles monétaires et calendriers électoraux. Affaiblir la protection contre la révocation reviendrait à redéfinir l’équilibre des pouvoirs entre l’exécutif et l’autorité monétaire.

L’épisode rappelle la décision Humphrey’s Executor v. United States en 1935, qui avait consolidé la position des agences indépendantes en limitant la révocation présidentielle.

Lors de son audition, Kevin Warsh a cherché à rassurer les sénateurs en affirmant qu’il ne serait pas « la marionnette du président » et qu’il n’avait pris aucun engagement en faveur d’une baisse des taux, tout en reconnaissant que l’indépendance monétaire « dépend avant tout de la Fed » elle-même – une formulation qui souligne le caractère désormais contingent de cette indépendance.

La BCE, modèle le plus abouti d’indépendance

Dans le cas de la Banque centrale européenne (BCE), les débats autour de la succession de Christine Lagarde en 2027 illustrent la tension persistante entre technocratie monétaire et légitimité politique. Ils révèlent des lignes de fracture entre États membres, tant sur le profil du futur président que sur l’orientation de la politique monétaire en termes d’inflation, de souveraineté ou de transition climatique.

La BCE représente pourtant le modèle institutionnel le plus abouti en matière d’indépendance. L’article 130 du Traité sur le fonctionnement de l’Union européenne interdit explicitement à toute institution européenne, à tout gouvernement ou à tout autre organisme de chercher à influencer ses décisions. Contrairement à la Fed, dont l’indépendance repose sur une loi ordinaire – le Federal Reserve Act, que le Congrès peut en théorie modifier –, celle de la BCE est consacrée par un traité international, dont la révision requiert l’accord unanime de l’ensemble des États membres.

Contrairement au modèle états-unien, la nomination à la tête de la BCE implique le Conseil européen, sur recommandation du Conseil de l’Union européenne et après consultation du Parlement européen et du Conseil des gouverneurs de la Banque centrale européenne. Ce mécanisme expose néanmoins la fonction de président de la BCE à des arbitrages politiques entre États membres, où les considérations de nationalité, d’équilibre géographique et de sensibilité économique jouent un rôle déterminant.

Préserver l’État de droit

Les formules institutionnelles héritées de la fin du XXᵉ siècle semblent ne plus suffire.

L’enseignement est clair : l’autonomie des banques centrales n’est jamais autoentretenue. Elle subsiste tant que les règles juridiques, les institutions politiques et l’opinion publique la soutiennent activement. Dans un monde où la monnaie est devenue un actif stratégique et où les réseaux financiers peuvent être instrumentalisés, préserver une capacité de décision techniquement fondée revient aussi à préserver la démocratie et l’État de droit.

The Conversation

Camila Villard Duran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Vent de panique sur l’indépendance des banques centrales avec la nomination de Kevin Warsh et la succession de Christine Lagarde – https://theconversation.com/vent-de-panique-sur-lindependance-des-banques-centrales-avec-la-nomination-de-kevin-warsh-et-la-succession-de-christine-lagarde-277030