After resignations at the top, the BBC faces a defining test: what does impartiality mean now?

Source: The Conversation – UK – By Tom Felle, Associate Professor of Journalism, University of Galway

Taljat David/Shutterstock

The sudden departure of the BBC’s director general and head of news marks a moment of real consequence for British public service broadcasting.

Tim Davie and Deborah Turness’s resignations followed controversy over an inaccurately edited clip in a BBC Panorama documentary about Donald Trump. Opponents of the BBC seized on this as further evidence of widespread bias at the broadcaster. It has now become a flashpoint in the wider political and cultural battles surrounding the corporation.

The resignations come as the BBC enters a decisive period. The renewal of its royal charter in 2027 will define the corporation’s funding model and public purpose for the next decade. At the same time, the BBC faces a hostile political climate, sustained financial pressure and a rapidly fragmenting audience.

Recent controversies – from the Panorama edit to earlier disputes over social media conduct and political coverage – have reignited debate about the broadcaster’s duty of “impartiality”. Yet in today’s febrile information climate, it is fair to ask whether that duty remains fit for purpose.

Media regulator Ofcom defines impartiality as “not favouring one side over another”, but also as ensuring “due weight” is given to the evidence. That distinction matters: impartiality is not the same as neutrality. It demands that news be fair, accurate and proportionate – not that every claim be treated as equal.

Impartiality under pressure

The BBC’s crisis, as academic and commentator Adrian Monck observes, is not simply a matter of poor governance, but “the sinking of a ship of the twentieth century British state, dependent on conditions that no longer really exist”.

Impartiality as a professional norm took shape in the mid-20th century, when it became central to the BBC’s mission under its 1947 royal charter. It emerged in a period when there was still broad agreement on shared facts, and a civic space where citizens could reason together even when they disagreed.




Read more:
BBC has survived allegations of political bias before – but the latest crisis comes at a pivotal moment


This era has broken down over the past 20 to 25 years, with the rise of digital platforms and populist politics that eroded traditional journalistic gatekeeping. Today’s information environment is shaped by technology companies, populist leaders, political strategists and partisan media outlets. All have strong incentives to create confusion and distrust. When political figures deny evidence, distort facts or lie as strategy, reporting their claims as equal to verified facts is not neutrality or impartiality, it is distortion.

Davie understood this tension. Under his leadership, the BBC tried to clarify the meaning of impartiality, strengthen editorial standards and reinforce trust in its reporting.

Yet the organisation, like many news outlets worldwide, is caught in a bind: accused of bias from both the left and the right – and while in the past this might suggest a fair balance, in today’s climate it is often weaponised.

As the sociologist Niklas Luhmann has noted, the function of news is to create a shared reality, a minimal consensus about what exists and what matters. When that consensus collapses, the public sphere itself begins to fragment and journalism loses the ground on which democratic discourse depends.

Younger audiences, who are more likely to access news mediated through influencers they perceive as authentic and relatable, are less engaged with traditional news brands. A Reuters Institute study found that young people increasingly turn to personalities rather than established outlets, or avoid news altogether because they see it as untrustworthy or biased.

The broader global trend is unmistakable. Public service broadcasters in the US, Australia, Canada and across Europe are facing declining audiences, reduced funding, politicised attacks and competition from platforms that prioritise outrage and identity performance. The BBC is not unique in this struggle, but because of its scale and cultural importance, the stakes are higher.

Public service media under siege

The BBC is imperfect. It suffers from institutional caution, uneven performance and a reluctance at times to confront its own errors. Yet it remains one of the few media organisations in the world still committed to verification rather than performance.

Its public service mandate, however strained, is one of the last structural defences against the current media culture: one dominated by outrage merchants and ideological broadcasters whose business model is provocation rather than truth.

Once a public sphere is shaped primarily by rumour and outrage, it becomes almost impossible to restore a shared sense of reality. The alternative is visible already in GB News, Fox and Breitbart, where conflict and grievance have displaced evidence.




Read more:
Perfect storm of tech bros, foreign interference and disinformation is an urgent threat to press freedom


The question now is not whether the BBC should continue to defend impartiality, but which version of impartiality it intends to defend. If impartiality means placing all claims side by side regardless of evidential grounding, it becomes a mechanism for laundering falsehood into public discourse. But if it means rigorous truth-telling, proportionate scrutiny and transparency about what we know and how we know it, then it remains both viable and essential.

BBC chair Samir Shah has apologised for the Panorama edit, describing it as an “error of judgement”. But it has exposed how fragile impartiality has become as both a principle and a perception. In an environment where trust is brittle, even minor lapses are magnified into institutional political positions. Impartiality is now judged as much by perception as by practice.

The resignations at the top of the BBC make this moment all the more precarious. The next leadership will determine whether the BBC becomes a smaller, defensive organisation that avoids offence, or a confident public service broadcaster that accepts that truth-telling will sometimes be mistaken for taking sides. Only the latter approach offers any chance of sustaining public relevance.


Want more politics coverage from academic experts? Every week, we bring you informed analysis of developments in government and fact check the claims being made.

Sign up for our weekly politics newsletter, delivered every Friday.


The Conversation

Tom Felle does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. After resignations at the top, the BBC faces a defining test: what does impartiality mean now? – https://theconversation.com/after-resignations-at-the-top-the-bbc-faces-a-defining-test-what-does-impartiality-mean-now-269575

Kyiv’s European allies debate ways of keeping the cash flowing to Ukraine but the picture on the battlefield is grim

Source: The Conversation – UK – By Veronika Hinman, Deputy Director, Portsmouth Military Education Team, University of Portsmouth

The EU is considering a range of options as it tries to work out how to continue to fund Ukraine’s defence against Russia. There are three mechanisms presently under consideration. One is using Russia’s frozen assets to back a loan of €140 billion (£124 billion). Another is borrowing the money at interest, although this is not popular.

The third idea, which was proposed by Norwegian economists, is that Norway could use its €1.8 trillion sovereign wealth fund – the biggest in the world – to guarantee the loan. Their reasoning was that Norway, Europe’s biggest producer of oil and gas, has made an extra €109 billion from the rise in gas prices after Russia’s invasion.

The situation on the front has been largely static for months, although Russian forces have been making small gains in some key areas. The battles for the strategically important cities of Pokrovsk in the Donetsk region of eastern Ukraine and Huliaipole in the southern region of Zaporizhzhia are a good indication of the progress of the war in general.

It’s hard, amid the flood of disinformation, to accurately monitor from a distance the exact status of these two important battles. Each day brings fresh reports of multiple attacks and advances by Russian troops. There have also been reports that Russian units have captured Pokrovsk. This would be a serious blow for Ukraine, as it’s an important supply hub, with several roads and rail lines converging there.

But the US-based military think-tank the Institute for the Study of War (ISW), which uses geolocated footage on which to base its assessments, has determined that Russia is not yet in full control of Pokrovsk, having to date seized 46% of the city. ISW analysts say Russian military bloggers are “mounting a concerted informational campaign prematurely calling the fall of Pokrovsk, likely to influence the information space”.

The battle for Pokrovsk has raged for nearly 18 months now, without resolution – but with huge casualties on both sides.

Similarly, while the situation in Huliaipole is deteriorating for the Ukrainian defenders, “Russian forces will probably spend considerable time setting conditions for efforts to seize the settlement”, the ISW says.

It’s important to realise that Russian troops initially entered Huliaipole on March 5 2022 within weeks of its initial invasion the previous month, but were quickly pushed back by Ukrainian troops. Fighting has continued in the region ever since.

In other words while both sides have made some tactical gains, neither holds the strategic upper hand.

One thing is clear: despite the claims and counter-claims, both sides have suffered significant casualties. In June 2025, the UK Ministry of Defence estimated more than one million Russian troops have been killed or injured since the invasion in February 2022. But Russia still retains considerable reserves of troops to call on, and has not yet had to resort to full mobilisation.

Meanwhile Russia’s economy is holding up, despite western sanctions. The effect of the recent imposition of oil sanctions by the US has yet to be seen. At the same time, Russia’s continuing and thriving diplomatic, economic and military relationships with its “enabler ally” China, as well as others on the anti-west axis such as Iran and North Korea – which have been supplying Moscow with weaponry and troops, respectively – is helping it sustain its offensive efforts.

ISW map showing the state of the conflict in Ukraine, November 11 2025.
The state of the conflict in Ukraine, November 11 2025.
Institute for the Study of War

Financing Ukraine’s defence

Ukraine, meanwhile, is now almost entirely reliant on continued western support. Since Donald Trump took power in the US in January, the US stance towards Ukraine has shifted considerably and while Kyiv’s friends in Nato can continue to purchase US weaponry for Ukraine’s war effort, the US will not fund any of the purchases. Consequently, military aid to Ukraine has slowed considerably in the second half of 2025 – by up to 43% according to German research non-profit the Kiel Institute.

EU leaders voted in October to meet Ukraine’s “pressing financial needs” for another two years, but have yet to agree on a way of doing that. Using frozen Russian assets comes with a number of difficulties. These assets are held in Belgium by the securities depository Euroclear. But Brussels is wary of the move, arguing that a Russian lawsuit against the move, if successful, could leave Belgium liable.

The other obstacle is that it would need to be unanimously approved by EU member states, something that is thought highly unlikely. The idea of using frozen Russian assets has already been rejected by Hungary and Slovakia. And the recent victory of the populist ANO party in the Czech Republic could signal further isolation for Ukraine. One of the first gestures made by the new Czech government has been to remove the Ukrainian flag from the parliament building.

If Norway were willing to use its US$2 trillion sovereign wealth fund to guarantee a €160 billion loan to Ukraine, it would effectively bypass the need for EU unanimity. But the country’s finance minister, former Nato secretary-general Jens Stoltenberg, appeared to rule that out on November 12 when he said guaranteeing the whole amount was “not an option”.

What impact is this loan likely to make in the grand scheme of things? The funds supplied thus far have kept Ukraine from defeat, but have not enabled it to strike a decisive blow against Russia that would win the war or enable it to negotiate a just peace.

At the same time it is realistic to acknowledge that while a massive injection of funds would help Ukraine stabilise its economy and buy enough arms to give their troops a better chance on the battlefield, it cannot deliver the manpower, weapons or morale. In the end, this latest wave of aid may buy Ukraine time – but it’s unlikely to deliver victory.

The Conversation

Veronika Hinman does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Kyiv’s European allies debate ways of keeping the cash flowing to Ukraine but the picture on the battlefield is grim – https://theconversation.com/kyivs-european-allies-debate-ways-of-keeping-the-cash-flowing-to-ukraine-but-the-picture-on-the-battlefield-is-grim-269541

Early climate models got global warming right – but now US funding cuts threaten the future of climate science data

Source: The Conversation – UK – By Gemma Ware, Host, The Conversation Weekly Podcast, The Conversation

bear_productions/Shutterstock

Since the 1960s, scientists have been developing and honing models to understand how the earth’s climate is changing. These models help predict the phenomena that accompany that change, such as stronger storms, rising sea levels and warming temperatures.

One such pioneer of early climate modelling is Syukuro Manabe, who won the Nobel prize in physics in 2021 for his work laying the foundation for our current understanding of how carbon dioxide affects global temperatures. That same year, a seminal paper he co-published in 1967 was voted the most influential climate science paper of all time.

Syukuro Manabe pointing to a chart.
Syukuro Manabe at the Geophysical Fluid Dynamics Laboratory.
Geophysical Fluid Dynamics Laboratory

In this episode of The Conversation Weekly podcast,  we speak to Nadir Jeevanjee, a researcher at the same lab in the National Oceanic and Atmospheric Administration where Manabe once worked. He looks back at the history of these early climate models, and how many of their major predictions have stood the test of time.

“ On one hand, we’ve gone way beyond Manabe in the decades since,” says Jeevanjee. “And on the other hand, some of those insights were so deep that we keep coming back to them to deepening our understanding.”

And yet, as climate negotiators gather in the Brazilian city of Belem on the edge of the Amazon for the Cop30 climate summit to hammer out new pledges on reducing carbon emissions and how to pay for climate adaptation, the data sources that climate scientists around the world rely on to monitor and model the climate are under threat from funding cuts by the Trump administration.

“We all do this work because we believe in its importance,” says Jevanjee. “And so the idea that the work isn’t necessarily valued by the present government, or that we wouldn’t be able to do it, or that somehow our lab and the models that it produces and all the science that comes out of it will be curtailed or shut, is alarming.”

Listen to the interview with Nadir Jeevanjee on The Conversation Weekly podcast, and read an article he wrote about five forecasts that early climate models by Suki Manabe and his colleagues got right.

This episode of The Conversation Weekly was written and produced by Katie Flood, Mend Mariwany and Gemma Ware. Mixing by Eleanor Brezzi and theme music by Neeta Sarl.

Newsclips in this episode from CNN.

Listen to The Conversation Weekly via any of the apps listed above, download it directly via our RSS feed or find out how else to listen here. A transcript of this episode is available via the Apple Podcasts or Spotify apps.

The Conversation

Nadir Jeevanjee works for NOAA’s Geophysical Fluid Dynamics Laboratory, which is discussed in this podcast episode. The views expressed herein are in no sense official positions of the Geophysical Fluid Dynamics Laboratory, the National Oceanic and Atmospheric Administration, or the Department of Commerce.

ref. Early climate models got global warming right – but now US funding cuts threaten the future of climate science data – https://theconversation.com/early-climate-models-got-global-warming-right-but-now-us-funding-cuts-threaten-the-future-of-climate-science-data-269639

Enquête auprès de 2 400 professeurs d’EPS : « Nos élèves manquent de souffle et de force »

Source: The Conversation – in French – By David Matelot, Enseignant d’EPS, docteur en physiologie de l’exercice, Université Bretagne Sud (UBS)

Les performances des élèves français à un test d’endurance cardio-respiratoire, le Navette 20 mètres, ont diminué de 18 % entre 1999 et 2022. Konstantin Mishchenko/Unsplash, CC BY

Alors que les performances à l’endurance des élèves ont chuté de près de 18 % entre 1999 et 2022, l’éducation nationale commence à mesurer la condition physique des enfants en classe de 6e. Une vaste enquête menée auprès de 2 400 enseignants d’éducation physique et sportive révèle que ceux-ci constatent ce déclin, mais peinent à en faire une priorité, faute de temps, de moyens et de formation. Pourtant, améliorer l’endurance cardiorespiratoire et la force musculaire à l’école apparaît aujourd’hui essentiel pour prévenir les risques cardio-vasculaires et poser les bases d’habitudes durables. Une équipe de chercheurs propose cinq pistes pour redresser la barre.


Les performances des élèves français au Navette 20 mètres, un test d’endurance cardio-respiratoire, ont diminué d’environ 18 % entre 1999 et 2022. Pour comprendre cette évolution, nous avons interrogé environ 2 400 enseignants d’éducation physique et sportive (EPS) en collège et lycée. Plus de 90 % savent que l’endurance cardiorespiratoire et la force musculaire sont associées à une meilleure santé physique.

Parmi les répondants, 91 % considèrent que le niveau d’endurance des élèves a baissé ces vingt dernières années, et 66 % jugent qu’il en va de même pour leur force.

Travailler ces qualités physiques n’est pas une priorité en EPS

Cependant, comme le montrent les réponses ci-dessus, le développement de ces deux qualités physiques est un objectif plutôt secondaire de leurs cours. De plus, 47 % des enseignants considèrent que les objectifs de l’EPS dans les programmes officiels ne donnent pas une place prioritaire au développement de ces qualités, ce qui freine la prise en compte de cette problématique.

Le développement de la condition physique des élèves en EPS est difficile parce qu’il nécessite pour l’enseignant d’EPS de concevoir des cours adaptés à trois caractéristiques qui varient au sein des élèves d’une même classe : leurs niveaux de force et d’endurance cardiorespiratoire, leurs stades de croissance et de maturation, et leurs motifs d’agir.

Les résultats de ce questionnaire nous ont amenés à développer cinq pistes pour le développement des qualités d’endurance cardiorespiratoire et de force musculaire des collégiens et des lycéens.

Piste 1 : Proposer des pratiques « hybrides » motivantes pour tous les élèves

« La question des qualités physiques vient buter souvent sur le manque d’attrait pour les élèves d’un engagement dans des efforts […] il faut être habile pour habiller les situations et les rendre ludiques tout en travaillant les qualités physiques. »

Cette réponse illustre une difficulté importante à laquelle les enseignants d’EPS doivent faire face, qui semble également vraie chez les adultes comme le montrent les travaux sur le « syndrome du paresseux ».

Plus spécifiquement pour l’EPS, il semble important de s’intéresser au plaisir et au déplaisir ressentis par les élèves, car ces émotions influencent la construction d’habitudes de pratiques physiques durables. La difficulté principale ici est qu’un même exercice proposé à l’ensemble de la classe va susciter de l’intérêt et du plaisir chez certains élèves mais du désintérêt voire du déplaisir pour d’autres. Chaque élève peut en effet se caractériser par des « motifs d’agir » variés : affronter en espérant gagner, progresser pour soi-même, faire en équipe, vivre des sensations fortes…

Petites filles gym
Rendre les exercices attractifs est essentiel pour motiver les élèves.
Brett Wharton/Unsplash, CC BY

Les exercices dits « hybrides » sont une solution développée par des enseignants d’EPS : le principe est de proposer la même situation à tous les élèves, dans laquelle ils peuvent choisir leur objectif pour que chacun s’engage selon sa source de motivation privilégiée. Le « Parkour Gym » est une forme de pratique scolaire de la gymnastique artistique où les élèves composent un parcours en juxtaposant plusieurs figures d’acrobaties, en choisissant le niveau de difficulté. L’objectif pour tous est de réaliser ce parcours le plus rapidement possible, tout en réalisant correctement les figures acrobatiques choisies, qui rapportent des points selon leurs difficultés.

Cette pratique permet à chaque élève de se focaliser sur sa source de motivation privilégiée : améliorer son temps ou son score acrobatique, avoir un score final (temps et difficultés) le plus élevé possible, ou encore travailler spécifiquement la réalisation d’une acrobatie perçue comme valorisante ou génératrice de sensations fortes. Le travail ainsi réalisé en gymnastique, de par le gainage et les impulsions nécessaires, développe le système musculaire.

Piste 2 : Augmenter les temps de pratique d’EPS dans l’établissement

Le premier frein rapporté par les enseignants est le manque de temps en cours d’EPS, notamment au regard des multiples objectifs à travailler. Par exemple en Lycée Général et Technologique les programmes d’EPS contiennent cinq objectifs à travailler, en deux heures hebdomadaires. Une première solution qui apparaît serait d’augmenter le temps d’EPS obligatoire pour tous les élèves. Ou encore de prévoir des dispositifs de « soutien en EPS » avec des moyens supplémentaires dédiés aux élèves en difficulté dans cette discipline.

Des solutions existent également à moyens constants. La première possibilité est celle de l’association sportive scolaire qui existe dans chaque établissement, et qui propose des activités physiques et sportives aux élèves volontaires. Cette association est animée par les enseignants d’EPS de l’établissement, cette activité fait partie de leur temps de travail. Si les chiffres du graphique ci-dessous sont encourageants, il semble possible d’élargir encore davantage ces offres dans les collèges et lycées de France.

D’autres possibilités existent. L’équipe EPS du collège Les Hautes Ourmes (académie de Rennes) propose un dispositif intéressant, sur le modèle de ce qui est proposé en natation pour les non-nageurs, avec trois enseignants au lieu de deux qui interviennent sur deux classes en même temps. Ce fonctionnement permet de constituer des plus petits groupes de besoin encadrés par chaque enseignant, et de travailler une qualité physique ciblée prioritairement pour ce groupe (endurance cardiorespiratoire, vitesse, force et endurance musculaire, coordination, équilibre).

Enfin, l’académie de Limoges a mis en place des sections sportives scolaires « Sport-Santé ». Ce n’est plus la performance sportive qui est visée mais la recherche d’un bien-être physique, psychologique et social. La section donne l’opportunité aux élèves volontaires de s’impliquer dans la gestion de leur vie physique, en les sensibilisant à l’importance de la pratique sportive.

L’approche est axée sur la valorisation des réussites et de l’estime de soi, et propose des modalités de pratique novatrices et ludiques, adaptées aux spécificités des élèves. L’objectif est donc de donner ou de redonner le goût de la pratique physique à ces élèves, étape indispensable vers un mode de vie actif au-delà de l’École. Ces sections font partie, avec d’autres dispositifs, d’un réel système mis en place pour développer les qualités physiques de leurs élèves à différents niveaux. Nous espérons que cette démarche pourra se généraliser à d’autres Académies.

Piste 3 : Intégrer le travail des qualités aérobie et de force aux cours d’EPS

Les réponses aux deux questions ci-dessus indiquent qu’il serait intéressant de prévoir pendant les cours d’EPS plus de situations qui travaillent les qualités d’endurance cardiorespiratoire et de force musculaire des élèves. Celles-ci peuvent être stimulées et développées pendant toute la durée du cursus collège-lycée. Il est possible de développer ces qualités physiques pendant la pratique des activités physiques et sportives au programme en les intensifiant, ou alors lors de temps dédiés comme pendant un échauffement renforcé ou des exercices intermittents de haute intensité.

Piste 4 : Utiliser des tests physiques pour l’EPS

Parmi les répondants, 60 % des enseignants disent faire un test d’endurance cardio-respiratoire au moins une fois par an à leurs élèves, ce qui semble déjà élevé mais pourrait encore être généralisé. Pour la force seulement, 14 % des enseignants disent que leurs élèves font un test au moins une fois par an, et ils sont 63 % à ne jamais faire de tests de force pendant leur scolarité dans l’établissement.

Les tests physiques sont globalement assez peu exploités en France. En effet, aucune batterie de tests ni base de données nationale n’existe en France contrairement à d’autres pays (par exemple, les programmes Fitnessgram aux États-Unis, Youth-Fit en Irlande, ou Slofit en Slovénie). Mesurer les qualités physiques par des tests répétés met en évidence les progrès des élèves et améliore leur connaissance de soi, ces tests peuvent être un outil pour l’EPS.

Piste 5 : Renforcer la formation des enseignants

Globalement, les enseignants sont intéressés par une formation sur ce thème (cf. graphique ci-dessous). Si environ 80 % des enseignants disent avoir été suffisamment formés pour évaluer (83 %) et développer (78 %) l’endurance cardio-respiratoire de leurs élèves, concernant la force, ces chiffres descendent à 49 % pour son évaluation et à 58 % pour son développement.

Plusieurs études démontrent que les niveaux d’aérobie et de force des élèves sont liées à leurs risques de développer des pathologies cardio-vasculaires plus tard dans la vie, et plus globalement à leur espérance de vie. Cette association n’est connue que par 41 % des enseignants pour l’aérobie et par 22 % pour la force. La formation continue des enseignants d’EPS dans ce domaine pourrait donc également être renforcée.


Les auteurs tiennent à remercier François Carré, professeur émérite au CHU de Rennes, pour sa contribution à la rédaction de cet article.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Enquête auprès de 2 400 professeurs d’EPS : « Nos élèves manquent de souffle et de force » – https://theconversation.com/enquete-aupres-de-2-400-professeurs-deps-nos-eleves-manquent-de-souffle-et-de-force-266684

L’opéra aux Amériques, un héritage européen revisité par les identités culturelles locales

Source: The Conversation – in French – By Frédéric Lamantia, Docteur en géographie et maître de conférences, UCLy (Lyon Catholic University)

Le Palais des beaux-arts de Mexico (en espagnol : Palacio de Bellas Artes) est le premier opéra de Mexico. Sa construction fut achevée en 1934. Xavier Quetzalcoatl Contreras Castillo , CC BY-SA

L’opéra s’est enraciné sur le continent américain en hybridant répertoires et techniques d’outre-Atlantique avec des récits, des rythmes et des imaginaires empruntés aux populations autochtones. Nous poursuivons ici notre série d’articles « L’opéra : une carte sonore du monde ».


Ne cherchant ni à copier ni à rompre avec l’histoire de l’opéra en Europe, l’histoire de l’opéra aux Amériques est plutôt celle d’un long processus d’acclimatation. La circulation des artistes et les innovations esthétiques y rencontrent des terrains sociaux, politiques et économiques spécifiques selon les pays. Si depuis le XVIIe siècle, Christophe Colomb a inspiré de nombreux opéras, cet art est aujourd’hui présent sur tout le continent où il met en exergue des éléments locaux du patrimoine culturel conjugués avec la matrice européenne.

En Amérique du Nord, et notamment aux États-Unis, l’art lyrique trouve ses origines dans les ballad operas anglais du XVIIIe siècle joués dans les premiers théâtres à Philadelphie ou à New York.

Au XIXe siècle, l’opéra s’implante comme un divertissement « importé » et rencontre un certain succès dont bénéficient l’Academy of Music (l’Opéra de New York) ou le Metropolitan Opera tandis que la Nouvelle-Orléans, foyer francophone, sert de tête de pont aux opéras français mais aussi italiens. Ces derniers, apportés par nombre d’immigrants en provenance de Rome, de Naples ou de Palerme, ont nécessité la construction de théâtres, comme celui de San Francisco.

Spécificités états-uniennes

Au XXe siècle, l’art lyrique possède ses hauts lieux aux États-Unis, tels que le Metropolitan Opera (Met) qui s’impose comme le champion des créations nationales impliquant des spécificités états-uniennes quant aux sujets, aux styles et aux voix.

La quête d’une couleur « nationale » passe par le recours à des matériaux amérindiens puis par l’intégration de langages musicaux afro-américains comme les spirituals, le jazz, le ragtime, le blues, jusqu’aux sujets explicitement liés à l’esclavage, à la ségrégation et aux droits civiques.

De Porgy and Bess à X : The Life and Times of Malcom X ou The Central Park Five, l’opéra devient un miroir social avec des œuvres qui se fondent dans le paysage culturel, sa grande diversité et les conséquences de celle-ci. Le progrès technique s’invite aussi à l’opéra avec des œuvres comme Le téléphone, opéra comique de Menotti. Parallèlement, le langage musical évolue, porté par le néoromantisme de Barber, la satire politico-sociale de Blitzstein, le minimalisme de Glass ou d’Adams.

En Amérique du Nord, une économie fragile

Sur le plan économique, l’écosystème lyrique états-unien comme canadien combine recettes propres, dons privés et mécénat, le rendant particulièrement vulnérable à des crises, comme celle survenue lors de l’épidémie de Covid qui a vu ses publics se contracter, tandis que les coûts de production restaient élevés. Le marketing de l’opéra innove sans cesse, contraint à une nécessaire démocratisation garantissant le renouvellement de ses publics, avec des représentations dans des lieux insolites – Ikea à Philadelphie –, et à une digitalisation de l’espace lyrique et de sa programmation.

Si des réseaux efficaces, comme Opera America ou Opera Europa, facilitent communication, diffusion et levée de fonds, d’autres solutions ont pu voir le jour pour sécuriser l’activité lyrique aux États-Unis, comme cet accord pluriannuel signé entre le Met et l’Arabie saoudite.

Hybridations en Amérique centrale

En Amérique centrale, l’art lyrique s’inscrit également dans l’espace urbain comme en témoigne le Palacio de Bellas Artes à Mexico. Conçu en 1901 et inauguré en 1934, ce bâtiment fusionne art nouveau par son extérieur en marbre et art déco pour l’intérieur de la salle, décorée avec des fresques monumentales. Le modèle architectural comme une partie du répertoire – Mozart, Strauss, Puccini ou Donizetti – sont européens, mais l’institution a aussi servi de carrefour aux arts mexicains à l’image du Ballet folklorique d’Amalia Hernández ou de créations de compositeurs locaux comme Ibarra, Catán ou Jimenez.

Le rideau de scène représentant les volcans Popocatépetl et Iztaccíhuatl symbolise ce lien entre opera house « à l’européenne » et imaginaires locaux. Dans cette zone géographique, l’hybridation architecturale et artistique s’opère dans les institutions nationales avec une volonté d’articuler répertoire européen et identité culturelle locale, tant du point de vue musical, iconographique que chorégraphique.

Offenbach-mania au Brésil

L’Amérique du Sud a connu un développement de son territoire lyrique dans les grandes métropoles, mais également dans des lieux insolites comme à Manaus, au Brésil, en pleine Amazonie, où le théâtre d’opéra était la sortie privilégiée des riches industriels producteurs d’hévéa tandis que la bourgeoisie de Sao Paulo, souvent proche de l’industrie du café se retrouvait en son opéra.

L’import d’œuvres européennes, notamment d’Offenbach ou de Puccini dont le succès fulgurant a inspiré de nombreux compositeurs locaux, a façonné le paysage lyrique sud-américain. On note que dans les années 1860-1880, Rio connaît une véritable Offenbach-mania et devient un creuset pour des hybridations diverses : de nombreuses œuvres sont traduites en portugais tandis que des troupes francophones sont régulièrement accueillies.

Dans le même temps se développent des parodies brésiliennes qui, sans copier Offenbach, procèdent à une « brésilianisation » du style par l’insertion de danses et rythmes afro-brésiliens – polca-lundu, cateretê, samba de roda – et par l’apparition de la capoeira sur scène. Naît alors un débat, ressemblant mutatis mutandis à la « querelle des Bouffons » française, opposant « art national » et « opérette importée » et aboutissant parfois à une « parodie de parodie » d’Offenbach !

Ces échanges lyriques montrent que les Amériques ne se contentent pas d’importer de l’opéra occidental, mais qu’elles transforment puis réémettent des œuvres vers l’Europe, enrichies d’un apport exotique.

En Argentine, l’opéra comme symbole de réussite sociale

En Argentine, Puccini triomphe en 1905 à Buenos Aires alors qu’il vient superviser la nouvelle version d’Edgar. Il consolidera sa notoriété grâce à ses succès sur les scènes latino-américaines avant de livrer en 1910, à New York, La fanciulla del West(la Fille du Far-West), western lyrique basé sur l’imaginaire américain. Dans une capitale marquée par une importante immigration italienne initiée dès les années 1880, l’opéra reste un symbole de réussite sociale.

Le Teatro Colon, érigé en 1908, opère une synthèse architecturale entre néo-Renaissance italienne et néo-baroque français, agrémentée de touches Art nouveau. Dotée d’une excellente acoustique et accessible sur le plan tarifaire, la salle s’impose comme un centre lyrique important sur le continent. L’art lyrique argentin reste ouvert à de nombreux sujets, comme en témoigne l’opéra Aliados (2013), d’Esteban Buch et Sebastian Rivas, évoquant les liens entre Margaret Thatcher et Augusto Pinochet, alliés à l’époque de la guerre des Malouines en 1982.

On trouve ainsi des traits communs à l’art lyrique sud-américain, associant grandes maisons emblématiques, appropriations esthétiques locales et coopérations internationales par-delà une vulnérabilité économique due à sa dépendance au mécénat.

Au Chili et en Bolivie, des lieux d’échanges et de métissage

Le cas du Teatro Municipal de Santiago inauguré en 1857 avec une architecture néoclassique française et toujours intact malgré de nombreux séismes, a été victime de crises budgétaires récurrentes mais développe depuis 2023 un partenariat avec l’Opéra National de Paris.

L’objectif est de permettre une circulation des savoir-faire au sein d’une coopération Sud-Nord au service de la formation de talents locaux. Le Chili accueille également un théâtre musical ouvert à des sujets politiques.

En Bolivie, le théatre Grand Mariscal de Ayacuchode, dans la ville de Sucre, construit en 1894 sur un modèle inspiré de la Scala pour accueillir des opérettes et des zarzuelas est devenu malgré son inachèvement un lieu patrimonial mêlant histoire locale et pratiques lyriques au croisement de l’Europe et des cultures andines.

Par ailleurs, ce métissage a donné naissance à des œuvres parfois anciennes comme cet opéra baroque datant de 1740 écrit par un indigène évangélisé en bésiro, dialecte ancien en voie de disparition.

De New York à Buenos Aires, l’opéra aux Amériques s’est bâti une identité singulière par sa capacité à assimiler apports européens et patrimoine culturel autochtone. Sur l’héritage des techniques et du répertoire européen sont venus se greffer des spécificités culturelles locales issues de traditions propres aux indiens, aux créoles ou aux populations afro-américaines. Loin d’un modèle importé à l’identique, il constitue un « palimpseste lyrique » où se côtoient Puccini, Offenbach, jazz et capoeira. Les voix de l’Amérique sont devenues l’écho d’un territoire lyrique complexe, où traditions culturelles et mémoires collectives s’incarnent dans un patrimoine musical et architectural singulier.

The Conversation

Frédéric Lamantia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’opéra aux Amériques, un héritage européen revisité par les identités culturelles locales – https://theconversation.com/lopera-aux-ameriques-un-heritage-europeen-revisite-par-les-identites-culturelles-locales-268684

L’intelligence artificielle peut-elle améliorer la prévision météorologique ?

Source: The Conversation – in French – By Laure Raynaud, Météorologiste, Météo France

L’intelligence artificielle a déjà impacté de nombreux secteurs, et la météorologie pourrait être le suivant. Moins coûteux, plus rapide, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?


Transport, agriculture, énergie, tourisme… Les prévisions météorologiques jouent un rôle essentiel pour de nombreux secteurs de notre société. Disposer de prévisions fiables est donc indispensable pour assurer la sécurité des personnes et des biens, mais également pour organiser les activités économiques. Dans le contexte du changement climatique, où les épisodes de très fortes pluies, de vagues de chaleur ou de mégafeux ne cessent de se multiplier, les populations sont d’autant plus vulnérables, ce qui renforce le besoin en prévisions précises à une échelle très locale.

L’élaboration d’une prévision météorologique est un processus complexe, qui exploite plusieurs sources de données et qui demande une grande puissance de calcul. Donner du sens et une utilité socio-économique à la prévision pour la prise de décision est aussi un enjeu majeur, qui requiert une expertise scientifique et technique, une capacité d’interprétation et de traduction de l’information en services utiles à chaque usager. L’intelligence artificielle (IA) peut aider à répondre à ces défis.

L’IA : un nouveau paradigme pour la prévision météorologique ?

Comme on peut le lire dans le rapport Villani sur l’IA, rendu public en mars 2018, « définir l’intelligence artificielle n’est pas chose facile ». On peut considérer qu’il s’agit d’un champ pluridisciplinaire qui recouvre un vaste ensemble de méthodes à la croisée des mathématiques, de la science des données et de l’informatique. L’IA peut être mise en œuvre pour des tâches variées, notamment de la prévision, de la classification, de la détection ou encore de la génération de contenu.

Les méthodes d’IA parmi les plus utilisées et les plus performantes aujourd’hui fonctionnent sur le principe de l’apprentissage machine (machine learning) : des programmes informatiques apprennent, sur de grands jeux de données, la meilleure façon de réaliser la tâche demandée. Les réseaux de neurones profonds (deep learning) sont un type particulier d’algorithmes d’apprentissage, permettant actuellement d’atteindre des performances inégalées par les autres approches. C’est de ce type d’algorithme dont il est question ici.

La prévision météorologique repose actuellement, et depuis plusieurs décennies, sur des modèles qui simulent le comportement de l’atmosphère. Ces modèles intègrent des lois physiques, formulées pour calculer l’évolution des principales variables atmosphériques, comme la température, le vent, l’humidité, la pression, etc. Connaissant la météo du jour, on peut ainsi calculer les conditions atmosphériques des prochains jours. Les modèles météorologiques progressent très régulièrement, en particulier grâce à l’utilisation de nouvelles observations, satellitaires ou de terrain, et à l’augmentation des ressources de calcul.

La prochaine génération de modèles aura pour objectif de produire des prévisions à un niveau de qualité et de finesse spatiale encore plus élevé, de l’ordre de quelques centaines de mètres, afin de mieux appréhender les risques locaux comme les îlots de chaleur urbains par exemple. Cette ambition soulève néanmoins plusieurs challenges, dont celui des coûts de production : effectuer une prévision météo requiert une puissance de calcul très importante, qui augmente d’autant plus que la précision spatiale recherchée est grande et que les données intégrées sont nombreuses.

Gagner en temps et en qualité

Cette étape de modélisation atmosphérique pourrait bientôt bénéficier des avantages de l’IA. C’est ce qui a été démontré dans plusieurs travaux récents, qui proposent de repenser le processus de prévision sous l’angle des statistiques et de l’apprentissage profond. Là où les experts de la physique atmosphérique construisent des modèles de prévision où ils explicitement le fonctionnement de l’atmosphère, l’IA peut apprendre elle-même ce fonctionnement en analysant de très grands jeux de données historiques.

Cette approche par IA de la prévision du temps présente plusieurs avantages : son calcul est beaucoup plus rapide – quelques minutes au lieu d’environ une heure pour produire une prévision à quelques jours d’échéance – et donc moins coûteux, et la qualité des prévisions est potentiellement meilleure. Des études montrent par exemple que ces modèles sont déjà au moins aussi efficaces que des modèles classiques, puisqu’ils permettent d’anticiper plusieurs jours à l’avance des phénomènes tels que les cyclones tropicaux, les tempêtes hivernales ou les vagues de chaleur.

Les modèles d’IA sont encore au stade de développement dans plusieurs services météorologiques nationaux, dont Météo France, et font l’objet de recherches actives pour mieux comprendre leurs potentiels et leurs faiblesses. À court terme, ces modèles d’IA ne remplaceront pas les modèles fondés sur la physique, mais leur utilisation pour la prévision du temps est amenée à se renforcer, à l’instar du modèle AIFS, produit par le Centre européen de prévision météorologique à moyen terme, opérationnel depuis début 2025.

De la prévision météorologique à la prise de décision

Au-delà des modèles, c’est toute la chaîne d’expertise des prévisions et des observations météorologiques qui pourrait être facilitée en mobilisant les techniques d’IA. Cette expertise repose actuellement sur des prévisionnistes qui, chaque jour, analysent une grande quantité de données afin d’y détecter des événements potentiellement dangereux, d’élaborer la carte de vigilance météorologique en cas d’événements extrêmes, comme les fortes pluies, ou encore les bulletins à destination de différents usagers. Dans un contexte où le volume de données à traiter croît rapidement, l’IA pourrait aider les prévisionnistes dans l’extraction et la synthèse de l’information.

Une grande partie des données météorologiques étant assimilable à des images, les méthodes d’IA utilisées en traitement d’images, notamment pour la reconnaissance de formes et la classification automatique, peuvent être appliquées de façon similaire à des données météo. Les équipes de recherche et développement de Météo France ont par exemple mis en œuvre des méthodes d’IA pour l’identification du risque d’orages violents à partir de cartes météorologiques. D’autres travaux ont porté sur le développement d’IA pour la détection de neige sur les images issues de webcams, et l’estimation des quantités de pluie à partir d’images satellites. Enfin, des travaux sont en cours pour utiliser les grands modèles de langage (à l’origine des applications comme ChatGPT) comme support d’aide à la rédaction des bulletins météo.

Dans tous les cas il ne s’agit pas de remplacer l’humain, dont l’expertise reste essentielle dans le processus de décision, mais de développer des IA facilitatrices, qui permettront de concentrer l’expertise humaine sur des tâches à plus forte valeur ajoutée.

En poursuivant les efforts déjà engagés, l’IA contribuera à répondre aux défis climatiques et à renforcer les services de proximité avec une réactivité et une précision accrues. Faire de l’IA un outil central pour la prévision du temps nécessite néanmoins une vigilance particulière sur plusieurs aspects, en particulier la disponibilité et le partage de données de qualité, la maîtrise de l’impact environnemental des IA développées en privilégiant des approches frugales, et le passage de preuves de concept à leur industrialisation.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Laure Raynaud a reçu des financements de l’Agence Nationale de la Recherche (ANR), l’Union Européenne.

ref. L’intelligence artificielle peut-elle améliorer la prévision météorologique ? – https://theconversation.com/lintelligence-artificielle-peut-elle-ameliorer-la-prevision-meteorologique-269457

La privatisation du service public, un non-sens économique et une menace pour notre démocratie

Source: The Conversation – in French – By Nathalie Sonnac, Professeure en sciences de l’information et de la communication, Université Paris-Panthéon-Assas

Les campagnes de dénigrement de l’audiovisuel public, portées par des médias privés, ont récemment pris une ampleur inédite. Le Rassemblement national ne cache pas son intention de le privatiser s’il arrive au pouvoir. Quelles seraient les conséquences de ce choix aux plans économique et politique ?


Nous assistons depuis plusieurs années à une crise des régimes démocratiques, qui se traduit par la montée de dirigeants populistes et/ou autoritaires au pouvoir et à une défiance massive des populations envers les institutions, journalistes et médias. En l’espace d’une génération, les réseaux sociaux les ont supplantés comme les principales sources d’information : 23 % des 18-25 ans dans le monde (Reuters Institute, 2024) s’informent sur TikTok, 62 % des Américains s’informent sur les réseaux sociaux, tandis que seul 1 % des Français de moins de 25 ans achètent un titre de presse.

Pour autant, dans ce nouveau paysage médiatique, la télévision continue d’occuper une place centrale dans la vie des Français, qu’il s’agisse du divertissement, de la culture ou de la compréhension du monde. Elle demeure le mode privilégié d’accès à l’information : 36 millions de téléspectateurs lors d’une allocution du président Macron pendant la crise sanitaire ; près de 60 millions de Français (vingt heures en moyenne par personne) ont suivi les JO de Paris sur France Télévisions. Le groupe public – qui réunit 28 % de part d’audience en 2024 – est la première source d’information chez les Français, il bénéficie d’un niveau de confiance supérieur à celui accordé aux chaînes privées.

L’impossible équation économique d’une privatisation de l’audiovisuel public

Pourtant, tel un marronnier, l’audiovisuel public est régulièrement attaqué par des politiques prônant sa privatisation, voire sa suppression, parfois au nom d’économies pour le contribuable ; d’autres fois, par idéologie. La « vraie-fausse » vidéo des journalistes Thomas Legrand et Patrick Cohen, diffusée en boucle sur la chaîne CNews, donne l’occasion à certains de remettre une pièce dans la machine.

Concrètement, privatiser l’audiovisuel public signifierait vendre les chaînes France 2, France 3 ou France 5 à des acheteurs privés, comme le groupe TF1, propriétaire des chaînes gratuites, telles que TF1, LCI et TFX ; le groupe Bertelsmann, propriétaire des chaînes gratuites M6, W9 ou 6Ter… ou encore le groupe CMA-CGM, propriétaire de BFM TV.

Sur le plan économique, cela relève aujourd’hui du mirage. Même les chaînes privées, pourtant adossées à de grands groupes, peinent à équilibrer leurs comptes. Dans un environnement aussi fortement compétitif, sur l’audience et les revenus publicitaires – les chaînes, les plateformes numériques, comme YouTube, et les services de vidéo à la demande (SVOD), comme Netflix ou Disney+ (qui ont ouvert leur modèle à la publicité), se livrent une concurrence acharnée. Comment imaginer qu’un nouvel entrant aussi puissant qu’une chaîne du service public soit viable économiquement ? Cela revient à ignorer la situation du marché de la publicité télévisée, qui n’est plus capable d’absorber une chaîne de plus.

Ce marché a reculé de 9 % entre 2014 et 2024. Et la télévision ne pèse plus que 20 % du marché total contre 26 % en 2019, quand le numérique capte désormais 57 % des recettes et pourrait atteindre 65 % en 2030. La fuite des annonceurs vers les plateformes en ligne fragilise toutes les chaînes gratuites de la TNT, dont le financement repose quasi exclusivement sur la publicité.

Le service public, pivot économique de l’écosystème audiovisuel

Une chaîne de télévision, ce sont d’abord des programmes : documentaires, films, séries, jeux, divertissements et informations. Or, malgré l’arrivée de nouveaux acteurs, comme les services de vidéo à la demande, qui investissent à hauteur d’un quart des obligations versées au secteur, la production audiovisuelle reste largement dépendante des chaînes de télévision. Ce secteur pèse lourd : plus de 5 500 entreprises, 125 000 emplois et un chiffre d’affaires d’environ 3 milliards d’euros.

Le paysage audiovisuel français reste dominé par trois groupes : TF1, M6 et France TV concentrent plus de 90 % du chiffre d’affaires des chaînes gratuites et assurent 75 % de la contribution totale de la production. Parmi eux, le groupe public France TV est le premier partenaire de la production audiovisuelle et cinématographique nationale : il investit chaque année 600 millions d’euros en achat de programmes audiovisuels et cinématographiques et irrigue ainsi toute l’industrie culturelle.

Le secteur de la production audiovisuelle, malgré l’arrivée des acteurs de la SVOD et leur demande croissante de programmes de création originale française (films, animation, documentaires), demeure largement dépendant des commandes des chaînes de télévision : la diminution du nombre de chaînes, notamment publiques, conduirait à fragiliser l’ensemble de la filière audiovisuelle et culturelle.

Une étude d’impact, réalisée en 2021, établit que le groupe France Télévisions génère 4,4 milliards d’euros de contribution au produit intérieur brut (PIB) pour 2,3 milliards d’euros de contributions publiques, 62 000 équivalents temps plein (pour un emploi direct, cinq emplois supplémentaires sont soutenus dans l’économie française), dont 40 % en région et en outre-mer » et pour chaque euro de contribution à l’audiovisuel public (CAP) versé, 2,30 € de production additionnelle sont générés. Loin d’être une charge, le service public audiovisuel est donc un levier économique majeur, créateur d’emplois, de richesse et de cohésion territoriale.

Le service public : un choix européen

Au-delà des chiffres, l’audiovisuel public constitue un choix démocratique. Les missions de services publics sont au cœur des missions de l’Europe, déjà présentes dans la directive Télévision sans frontière, à la fin des années 1980. Aujourd’hui, c’est la directive de services de médias audiovisuels qui souligne l’importance de la coexistence de fournisseurs publics et privés, allant jusqu’à formuler qu’elle caractérise le marché européen des médias audiovisuels.

Le Parlement européen l’a rappelé en réaffirmant l’importance d’un système mixte associant médias publics et privés, seul modèle capable de garantir à la fois la diversité et l’indépendance. Il ajoute en 2024 dans le règlement sur la liberté des médias l’indispensable « protection des sources journalistiques, de la confidentialité et de l’indépendance des fournisseurs de médias de service public ».

L’étude publiée par l’Observatoire européen de l’audiovisuel en 2022, malgré la diversité des médias publics européens, tous s’accordent autour de valeurs communes : l’indépendance face aux ingérences politiques, l’universalité pour toucher tous les publics, le professionnalisme dans le traitement de l’information, la diversité des points de vue, la responsabilité éditoriale.

Un rôle démocratique indispensable

En France, un suivi très concret et précis du fonctionnement des services publics est assuré par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Ces principes sont encadrés par des contrats d’objectifs et de moyens (COM) qui garantissent leur mission démocratique, leur transparence et font l’objet d’un suivi rigoureux par l’autorité de régulation. Plus de 70 articles déterminent les caractéristiques de chaque service public édité, qui vont de la nécessité de faire vivre le débat démocratique à la promotion de la langue française ou l’éducation aux médias et à l’information, en passant par la communication gouvernementale en temps de crise ou encore la lutte contre le dopage. Un cahier des charges est adossé à des missions d’intérêt général, il garantit le pluralisme, la qualité de l’information et l’indépendance éditoriale.

L’information est une de ses composantes essentielles de sa mission d’intérêt général. Elle représente 62,6 % de l’offre globale d’information de la TNT (hors chaînes d’information) en 2024 : JT, émissions spéciales au moment d’élections, magazines de débats politiques et d’investigations. Ces derniers apparaissent comme des éléments distinctifs de l’offre.

Une consultation citoyenne de 127 109 personnes, menée par Ipsos en 2019 pour France Télévisions et Radio France, faisait apparaître que « la qualité de l’information et sa fiabilité » ressortaient comme la première des attentes (68 %), devant « un large éventail de programmes culturels » (43 %) et « le soutien à la création française » (38 %). Dans un climat généralisé de défiance à l’égard des institutions, l’audiovisuel public demeure une référence pour les téléspectateurs.

Il est temps de siffler la fin de la récréation

Le cocktail est explosif : concurrence féroce entre chaînes d’info, fuite des annonceurs vers les plateformes numériques, déficit chronique des chaînes privées. En pleine guerre informationnelle, sans réinvestissement massif dans le service public et sans réflexion sur le financement de la TNT, le risque est clair : l’affaiblissement des piliers démocratiques de notre espace public.

En France, ce rôle doit être pleinement assumé. L’État, à travers l’Arcom, est le garant de la liberté de communication, de l’indépendance et du pluralisme. Il va de sa responsabilité d’assurer la pérennité du financement du service public et de protéger son rôle contre les dérives des logiques commerciales et idéologiques.

The Conversation

Nathalie Sonnac est membre du Carism et du Laboratoire de la République.

ref. La privatisation du service public, un non-sens économique et une menace pour notre démocratie – https://theconversation.com/la-privatisation-du-service-public-un-non-sens-economique-et-une-menace-pour-notre-democratie-266692

Infrastructures côtières menacées : comment mieux évaluer les risques climatiques pour mieux les anticiper ?

Source: The Conversation – in French – By Anthony Schrapffer, PhD, EDHEC Climate Institute Scientific Director, EDHEC Business School

Élévation du niveau de la mer, intensification des tempêtes… La concentration d’infrastructures sur le littoral les place en première ligne face au changement climatique. Les risques sont nombreux : paralysie des transports, coupures d’électricité, ruptures d’approvisionnement. De quoi inviter à mieux mesurer ces vulnérabilités pour mieux anticiper et prévenir les impacts. Ce travail est aujourd’hui compliqué par des données souvent partielles, des méthodes trop diverses et l’absence d’un cadre commun pour bien appréhender le risque.


La fin du mois d’octobre 2025 a été marquée par le passage dévastateur, dans les Caraïbes, de l’ouragan Melissa. Le changement climatique a rendu ce type d’événement quatre fois plus probable, selon une étude du Grantham Institute de l’Imperial College London. En plus de la soixantaine de morts déplorés à ce stade, le coût des dégâts engendrés a déjà été estimé à 43 milliards d’euros.

De nombreuses grandes agglomérations, ainsi que des ports, des zones industrielles et des infrastructures critiques, se trouvent en milieu littoral. 40 % de la population mondiale vit à moins de 100 kilomètres des côtes et 11 % dans des zones côtières de faible altitude – à moins de 10 mètres au-dessus du niveau marin. Ce phénomène s’explique en partie par la facilité d’accès aux échanges maritimes ainsi qu’aux ressources naturelles telles que l’eau et la pêche, et au tourisme.

Mais avec l’élévation du niveau de la mer et l’intensification des tempêtes, cette concentration d’infrastructures sur le littoral se retrouve en première ligne face au changement climatique. Transports paralysés, coupures d’électricité, ruptures d’approvisionnement… les risques sont plus divers et amplifiés.

La mesure de ces vulnérabilités s’impose pour anticiper les effets économiques, environnementaux et sociaux et, surtout, prévenir les ruptures. Mais comment prévoir l’impact du changement climatique sur les infrastructures côtières sans adopter un référentiel commun du risque ?

Des catastrophes climatiques de plus en plus coûteuses

Sous l’effet du changement climatique, de la montée du niveau des mers et de l’érosion qui rend les côtes plus fragiles, les tempêtes, cyclones et inondations côtières gagnent en fréquence et en intensité. Les infrastructures littorales sont particulièrement exposées à ces phénomènes extrêmes, avec des bilans humains et économiques toujours plus lourds.

En 2005, l’ouragan Katrina a submergé 80 % de La Nouvelle-Orléans et causé plus de 1 800 morts et 125 milliards de dollars (soit 107,6 milliards d’euros) de dégâts, dévastant des centaines de plates-formes pétrolières et gazières ainsi que plus de 500 pipelines. En 2019, le cyclone Idai a ravagé le Mozambique, entraînant 1 200 victimes, 2 milliards de dollars (1,7 milliard d’euros) de dommages et la paralysie du port de Beira. Deux ans plus tard, des pluies diluviennes en Allemagne, Belgique et Pays-Bas ont inondé villes et campagnes, avec pour conséquences : routes coupées, voies ferrées détruites, réseaux d’eau hors service et les transports ont mis plusieurs semaines à se rétablir.

Au-delà des dommages, ces catastrophes provoquent des interruptions d’activité des services produits par les infrastructures, et laissent moins de temps pour les reconstructions étant donné leur fréquence accrue.

Plus préoccupant encore, il existe des effets en cascade entre secteurs étroitement liés. Une défaillance locale devient le premier domino d’une chaîne de vulnérabilités, et un incident isolé peut tourner à la crise majeure. Une route bloquée par une inondation côtière, une panne d’électricité, sont autant de possibles impacts sur la chaîne d’approvisionnement globale. Faute de mesures adaptées, les dommages engendrés par les inondations côtières pourraient être multipliés par 150 d’ici à 2080.

Il y a donc urgence à mesurer les fragilités des infrastructures côtières de manière comparable, rigoureuse et transparente. L’enjeu étant de mieux anticiper les risques afin de préparer ces territoires économiques vitaux aux impacts futurs du changement climatique.

Vers un langage commun pour mesurer les risques

Estimer les potentiels points de rupture des infrastructures côtières n’est pas évident. Les données sont souvent partielles, les méthodes utilisées dans les études souvent diverses, les critères peuvent être différents et il manque généralement d’un cadre commun. Cela rend la prise de décision plus complexe, ce qui freine les investissements ciblés.

Pour bâtir un référentiel commun, une solution consisterait à mesurer les risques selon leur matérialité financière. Autrement dit, en chiffrant les pertes directes, les coûts de réparation et les interruptions d’activité.

L’agence Scientific Climate Ratings (SCR) applique cette approche à grande échelle, en intégrant les risques climatiques propres à chaque actif. La méthodologie élaborée en lien avec l’EDHEC Climate Institute sert désormais de référence scientifique pour évaluer le niveau d’exposition des infrastructures, mais aussi pour comparer, hiérarchiser et piloter les investissements d’adaptation aux risques climatiques.

Ce nouveau langage commun constitue le socle du système de notations potentielles d’exposition climatique (Climate Exposure Ratings) développé et publié par la SCR. Celle-ci s’appuie sur cette échelle graduée de A à G pour comparer l’exposition des actifs côtiers et terrestres. Une notation de A correspond à un risque minimal en comparaison avec l’univers d’actifs alors que G est donné aux actifs les plus risqués.

Comparaison des notations potentielles d’exposition climatique entre les actifs côtiers et l’ensemble des actifs pris en compte dans l’évaluation de l’agence Scientific Climate Ratings (fourni par l’auteur).
Anthony Schrapffer, Fourni par l’auteur

Les résultats de la SCR montrent ainsi que les actifs côtiers concentrent plus de notations risquées (F, G) et moins de notation à faible risque (A, B). En d’autres termes, leur exposition climatique est structurellement supérieure à celle des autres infrastructures terrestres.

Risque bien évalué, décisions éclairées

Dans le détail, la méthode de quantification du risque physique élaborée par l’EDHEC Climat Institute consiste à croiser la probabilité de survenue d’un aléa avec son intensité attendue. Des fonctions de dommage relient ensuite chaque scénario climatique à la perte potentielle selon le type d’actif et sa localisation. Pour illustrer cela, nous considérons par exemple qu’une crue centennale, autrement dit avec une probabilité d’occurrence de 1 % par an, correspond à une intensité de deux mètres et peut ainsi détruire plus de 50 % de la valeur d’un actif résidentiel en Europe.

Ces indicateurs traduisent la réalité physique en coût économique, ce qui permet d’orienter les politiques publiques et les capitaux privés. Faut-il construire ? Renforcer ? Adapter les infrastructures ? Lesquelles, en priorité ?

L’analyse prend aussi en compte les risques de transition : effets des nouvelles normes, taxation carbone, évolutions technologiques… Un terminal gazier peut ainsi devenir un « actif échoué » si la demande chute ou si la réglementation se durcit. À l’inverse, une stratégie d’adaptation précoce améliore la solidité financière et la valeur de long terme d’une infrastructure exposée aux aléas climatiques.

S’adapter est possible : l’exemple de l’aéroport de Brisbane

La résilience pour une infrastructure représente la capacité à absorber un choc, et à se réorganiser tout en conservant ses fonctions essentielles. En d’autres termes, c’est la capacité pour ces actifs à revenir à un fonctionnement normal à la suite d’un choc.

L’initiative ClimaTech évalue les actions de résilience, de décarbonation et d’adaptation selon leur efficacité à réduire le risque et leur coût. Cette approche permet de limiter le greenwashing : seules les mesures efficaces améliorent significativement la notation d’un actif sur des bases objectives et comparables. Plus on agit, mieux on est noté.

L’aéroport de Brisbane (Australie), situé entre océan et rivière, est particulièrement exposé aux risques climatiques.
Nate Cull/WikiCommons, CC BY-SA

L’aéroport de Brisbane (Australie), situé entre océan et rivière, en est un bon exemple. Des barrières anti-crues et la surélévation des pistes ont réduit à hauteur de 80 % le risque d’inondations pour les crues centennales. L’infrastructure a ainsi gagné deux catégories sur l’échelle de notation SCR : une amélioration mesurable qui accroît son attractivité.

Le cas de Brisbane révèle qu’investir dans la résilience des infrastructures côtières est possible, et même rentable. Ce modèle d’adaptation qui anticipe les dommages liés aux catastrophes climatiques pourrait être généralisé, à condition que les décideurs s’appuient une évaluation des risques fiable, cohérente et lisible comme celle que nous proposons.

Face au changement climatique, les infrastructures côtières sont à un tournant. En première ligne, elles concentrent des enjeux économiques, sociaux et environnementaux majeurs. Leur protection suppose une évaluation rigoureuse, comparable et transparente des risques, intégrant matérialité financière et évolution climatique. Une telle approche permet aux acteurs publics et privés de décider, d’investir et de valoriser les actions concrètes : rendre le risque visible, c’est déjà commencer à agir.

The Conversation

Anthony Schrapffer, PhD ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Infrastructures côtières menacées : comment mieux évaluer les risques climatiques pour mieux les anticiper ? – https://theconversation.com/infrastructures-cotieres-menacees-comment-mieux-evaluer-les-risques-climatiques-pour-mieux-les-anticiper-268859

First indictments issued as Donald Trump’s ‘grand conspiracy’ theory begins to take shape

Source: The Conversation – UK – By Robert Dover, Professor of Intelligence and National Security & Dean of Faculty, University of Hull

In recent weeks, Donald Trump’s supporters have begun to align around the idea that a Democrat-led “grand conspiracy” – potentially involving former president Barack Obama – has been plotting against the US president since 2016. The narrative is that the 2016 Russia investigation, which resulted in the Mueller inquiry was part of this deep-state opposition to Trump, as was the investigation into the January 6 riot at the US Capitol.

The focus of the fightback by Trump’s supporters is in Miami, where a Trump-appointed US attorney, Jason A. Reding Quiñones, has begun to issue subpoenas to a wide range of former officials.

This has included former CIA director John Brennan, former FBI counterintelligence official Peter Strzok, former FBI attorney Lisa Page and former director of national intelligence James Clapper, all of whom were involved in the federal investigation into alleged links between Russian intelligence and Trump’s 2016 presidential campaign.

The way the so-called conspiracy is unfolding will feel familiar to anyone who has watched US politics closely in the past decade. There’s been a constant stream of allegations and counter-allegations. But the narrative from the Trump camp is that the powerful “deep state” forces have been arrayed against the president. The “two-tier” justice system that has persecuted Trump can only be rebalanced by pursuing those who investigated him in 2017 and 2021.

The Grand Conspiracy contains similarities with other prominent conspiracy theories and how they spread. The QAnon movement, whose most famous claim is of a global paedophile ring run out of a Washington pizza parlour involving senior Democrats, is one where disparate claims are sporadically and partially evidenced. The political potency of these claims does not sit in the individual pieces of evidence but in the overarching story.

The story is that hidden government and proxy networks manipulate the truth and judicial outcomes and that only through pressure from “truthers” (what many people in the US who believe conspiracy theories call themselves) will wrongdoers be brought to account. Once these ideas are popularised, they take on a momentum and a direction that is difficult to control.

Campaign of ‘lawfare’

Soon after his inauguration, Trump set up a “weaponization working group” within the Department of Justice. Its director, Ed Martin, said in May that he would expose and discredit people he believes to be guilty, even if the evidence wasn’t sufficient to charge them: “If they can be charged, we’ll charge them. But if they can’t be charged, we will name them. And we will name them, and in a culture that respects shame, they should be people that are ashamed.”

In the US the norm has been to “charge crimes, not people”, so this modification fundamentally changes the focus of prosecutors.

Former FBI director James Comey responds to his indictment by grand jury in September.

The recent subpoenas in Florida show this principle at work, effectively making legal process into the punishment. Even without full court hearings on specific charges, being forced to provide testimony or documents creates suspicion around those who are targeted. Criticism from legal officials that this is a “indict first, investigate second” method suggests that this is a break from historical norms.

Lawfare, defined as “legal action undertaken as part of a hostile campaign”, doesn’t require a successful prosecution. It merely requires enough investigative activity to solidify a narrative of suspected guilt and enough costs and pressure to seriously inconvenience those affected by it. In the new era of digital media, it’s enough to degrade the standing of a political opponent.

In that way, political retaliation has become a prosecuting objective. This is clear from what the US president has indicated in his frequent posts on his social media platforms for his enemies, such as former FBI director James Comey, who investigated his alleged links to Russia, or Adam Schiff, the senator who led his impeachment in 2019.

Hardball politics or authoritarianism?

Political scientists argue that authoritarianism is something that happens little by little. Some of these steps involve using state power to target political opponents, degrading checks and balances and making loyalty a legal requirement.

There are reasons to believe that the US seems to be tracking this trajectory currently, certainly when it comes to using the Justice Department to harass the president’s political enemies and pushing back against court judgments while attacking the judges that have issued them.

Further slides towards authoritarianism are possible because of the political potency of contemporary conspiracy movements. The right-wing QAnon movement, for example, has been exceptionally agile. It has offered its followers identity, community spaces and a logic that encourages active participation, exhorting believers to “do your own research”, for example.

In the wake of the near daily addition of material from the investigations into the allegations that the late financier, Jeffrey Epstein, ran a sex trafficking ring, involving some influential US citizens, many American citizens have concluded as a general truth that their elites do hide things. This makes it far simpler for broader conspiracies to gain traction and more difficult for politicians and journalists to work out what is conspiracy and what is evidence. This is creating a problematic feedback loop – hints of wrongdoing fuel public suspicion, and public suspicion fuels the idea of a further need for investigation.

But to suggest that anyone has control over this would be wrong. These movements can just as easily consume those seen as supporters as they do those seen as enemies. Marjorie Taylor-Greene’s determination to release the full and unredacted Epstein files could well produce negative outcomes for some Maga supporters, including prominent ones.

So, the transformation of legal process into public spectacle in America is suggestive of a drift towards authoritarianism. America’s famous “constitutional guardrails” of separation of powers, independent courts, juries and counsels will be pivotal in preventing this. They will need to stand firm.

The grand conspiracy theory might be more about seeking to isolate, and financially and emotionally exhaust opponents, while at the same time destroying America’s system of checks and balances. It might work.

The Conversation

Robert Dover does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. First indictments issued as Donald Trump’s ‘grand conspiracy’ theory begins to take shape – https://theconversation.com/first-indictments-issued-as-donald-trumps-grand-conspiracy-theory-begins-to-take-shape-269542

COP30: Governments must empower forest communities to keep fossil fuels underground

Source: The Conversation – Canada – By Philippe Le Billon, Professor, Geography Department and School of Public Policy & Global Affairs, University of British Columbia

Brazilian President Luiz Inácio Lula da Silva has dubbed COP30 the forest COP. Taking place in Belém, a large urban centre in the Amazon, this choice signals a welcome shift from the capital cities of petro-states to the heart of the world’s most bio-diverse rainforest.

Yet, even as Belém hosts global climate negotiators, the Amazon and its coastline are under renewed pressure. While the spotlight is on protecting trees, new oil concessions are being awarded to keep rigs pumping.

On Nov. 11, dozens of Indigenous protesters forced their way into the COP30 venue demanding an end to industrial development in the Amazon. Indigenous leaders attending COP30 are demanding more say in how forests are managed.

Amid this tension, a new financial initiative has emerged as the potential solution: the Tropical Forest Forever Facility (TFFF). Managed by the World Bank as a multilateral trust fund, it would mobilize US$125 billion from public and private investors to reward forested countries for keeping their forests standing — forever.

The pitch is seductive — save forests, earn profits and mitigate climate change all at once. But the proposal raises two questions that demand scrutiny: Will this scheme actually make a major difference for the climate, and how will it impact communities who live in forests?




Read more:
From the Amazon, Indigenous Peoples offer new compass to navigate climate change


Protecting trees

The first question is easier to tackle. Yes, tropical forests store immense amounts of carbon so protecting them is vital. But this contribution is largely contingent on keeping global temperature below 2 C and is dwarfed by the emissions risked if fossil fuels buried beneath those same forests are extracted and burned.

Out of the 74 countries with TFFF-qualifying forests, 68 countries have fossil fuel deposits within them. In total, according to a study by the NGO Leave It In The Ground, there would be some 317 billion tonnes of potential carbon dioxide emissions from recoverable reserves and more than 4.6 trillion tonnes if all deposits were exploited.

Nearly all of it is concentrated in just three countries: China, India and Indonesia. To be truly effective, forest protection must come with a firm commitment: no fossil fuel extraction underneath.

To be equitable, a similar scheme must cover non-TFFF countries, and in particular those with boreal forests covering major fossil fuel deposits, namely in Canada and Russia.

That means prioritizing forests located above fossil fuel reserves and ensuring they remain completely off-limits to exploitation.

For this to happen, countries must make binding commitments, investors must accept lower-risk but longer-term returns and local communities must hold forest tenure rights that cannot be overridden by state ownership of subsoil resources. It’s a tall order — but without such a framework, the “forever forest” concept risks becoming just another limited climate solution.

The term forever forests evokes the advertising slogan of diamond company De Beers — “A Diamond is forever” — and reveals a similar logic: to turn nature into financial assets. A more fitting concept might be what fisheries economist Rashid Sumaila would call the infinity forest — a forest that, like fish stocks, is renewable when soundly managed as a common good.

Many of the world’s forests are not untouched wildernesses but co-created landscapes, shaped through millennia of Indigenous and local stewardship. The Amazon, for instance, is a complex social biome, nurtured through practices such as controlled burning, seed dispersal and farming.

While not all traditional practices are benign, archaeological and ecological evidence shows that many Indigenous and peasant communities have managed forests sustainably — often more effectively than state-led conservation programs and with major implications for biodiversity protection.

In fact, many studies show that biodiversity conservation is more effective in territories governed by Indigenous peoples than in state-managed protected areas.

A financial trap for forest communities

Beyond its likely ineffectiveness for the climate, the TFFF could also have devastating consequences for forest communities. Under Brazil’s current proposal, countries would receive around US$4 for every hectare of protected forest, with 80 cents trickling down to local communities.

But they would be fined US$400 per hectare for any deforestation. This creates a dangerous dynamic: states will crack down on small-scale forest use by local people while giving free rein to industries — such as oil — that generate far higher returns.

In effect, the scheme risks criminalizing traditional forest practices — from small-scale clearing to hunting or gathering — that have sustained these ecosystems for centuries.

As governments seek to avoid penalties, forest communities could face exclusion, forced resettlement or even violence, echoing a long history of displacement caused by “conservation” projects and carbon offset schemes such as REDD+.

Financializing the forest’s future

This brings us to the Indigenous and forest defenders who disrupted COP30 events on Nov. 11. Their protest highlighted the real danger behind the TFFF: the financialization of Indigenous territories.

The scheme does nothing to prevent oil and gas extraction beneath forest lands. What were once commons could become commodities promising investors lucrative returns.

In short, “forever forests” may deliver forever profits — not so much for the people who protect them as for those who exploit their value. This is, bluntly, a new form of green colonialism — a profitable appropriation of the forest’s future.

If the TFFF goes ahead, it must first grant some degree of self-government to Indigenous forest communities — as Colombia recently did — and explicitly prohibit fossil fuel extraction in protected forests.

Investors should pay a premium for forests covering fossil fuel reserves, and both state and community rights must be rebalanced to make no-go zones truly binding. In this way, “forever forests” can become territories of life — not assets of accumulation.

Ultimately, no financial mechanism will save the world’s forests unless it also saves the people who depend on them, and the carbon that must remain buried beneath.

The path to a livable planet runs not through markets or bonds, but through justice: recognition of forest community stewardship and a global commitment to keep fossil fuels in the ground.

The Conversation

Philippe Le Billon receives funding from the Social Sciences and Humanities Research Council of Canada.

ref. COP30: Governments must empower forest communities to keep fossil fuels underground – https://theconversation.com/cop30-governments-must-empower-forest-communities-to-keep-fossil-fuels-underground-269686