Infrastructures côtières menacées : comment mieux évaluer les risques climatiques pour mieux les anticiper ?

Source: The Conversation – in French – By Anthony Schrapffer, PhD, EDHEC Climate Institute Scientific Director, EDHEC Business School

Élévation du niveau de la mer, intensification des tempêtes… La concentration d’infrastructures sur le littoral les place en première ligne face au changement climatique. Les risques sont nombreux : paralysie des transports, coupures d’électricité, ruptures d’approvisionnement. De quoi inviter à mieux mesurer ces vulnérabilités pour mieux anticiper et prévenir les impacts. Ce travail est aujourd’hui compliqué par des données souvent partielles, des méthodes trop diverses et l’absence d’un cadre commun pour bien appréhender le risque.


La fin du mois d’octobre 2025 a été marquée par le passage dévastateur, dans les Caraïbes, de l’ouragan Melissa. Le changement climatique a rendu ce type d’événement quatre fois plus probable, selon une étude du Grantham Institute de l’Imperial College London. En plus de la soixantaine de morts déplorés à ce stade, le coût des dégâts engendrés a déjà été estimé à 43 milliards d’euros.

De nombreuses grandes agglomérations, ainsi que des ports, des zones industrielles et des infrastructures critiques, se trouvent en milieu littoral. 40 % de la population mondiale vit à moins de 100 kilomètres des côtes et 11 % dans des zones côtières de faible altitude – à moins de 10 mètres au-dessus du niveau marin. Ce phénomène s’explique en partie par la facilité d’accès aux échanges maritimes ainsi qu’aux ressources naturelles telles que l’eau et la pêche, et au tourisme.

Mais avec l’élévation du niveau de la mer et l’intensification des tempêtes, cette concentration d’infrastructures sur le littoral se retrouve en première ligne face au changement climatique. Transports paralysés, coupures d’électricité, ruptures d’approvisionnement… les risques sont plus divers et amplifiés.

La mesure de ces vulnérabilités s’impose pour anticiper les effets économiques, environnementaux et sociaux et, surtout, prévenir les ruptures. Mais comment prévoir l’impact du changement climatique sur les infrastructures côtières sans adopter un référentiel commun du risque ?

Des catastrophes climatiques de plus en plus coûteuses

Sous l’effet du changement climatique, de la montée du niveau des mers et de l’érosion qui rend les côtes plus fragiles, les tempêtes, cyclones et inondations côtières gagnent en fréquence et en intensité. Les infrastructures littorales sont particulièrement exposées à ces phénomènes extrêmes, avec des bilans humains et économiques toujours plus lourds.

En 2005, l’ouragan Katrina a submergé 80 % de La Nouvelle-Orléans et causé plus de 1 800 morts et 125 milliards de dollars (soit 107,6 milliards d’euros) de dégâts, dévastant des centaines de plates-formes pétrolières et gazières ainsi que plus de 500 pipelines. En 2019, le cyclone Idai a ravagé le Mozambique, entraînant 1 200 victimes, 2 milliards de dollars (1,7 milliard d’euros) de dommages et la paralysie du port de Beira. Deux ans plus tard, des pluies diluviennes en Allemagne, Belgique et Pays-Bas ont inondé villes et campagnes, avec pour conséquences : routes coupées, voies ferrées détruites, réseaux d’eau hors service et les transports ont mis plusieurs semaines à se rétablir.

Au-delà des dommages, ces catastrophes provoquent des interruptions d’activité des services produits par les infrastructures, et laissent moins de temps pour les reconstructions étant donné leur fréquence accrue.

Plus préoccupant encore, il existe des effets en cascade entre secteurs étroitement liés. Une défaillance locale devient le premier domino d’une chaîne de vulnérabilités, et un incident isolé peut tourner à la crise majeure. Une route bloquée par une inondation côtière, une panne d’électricité, sont autant de possibles impacts sur la chaîne d’approvisionnement globale. Faute de mesures adaptées, les dommages engendrés par les inondations côtières pourraient être multipliés par 150 d’ici à 2080.

Il y a donc urgence à mesurer les fragilités des infrastructures côtières de manière comparable, rigoureuse et transparente. L’enjeu étant de mieux anticiper les risques afin de préparer ces territoires économiques vitaux aux impacts futurs du changement climatique.

Vers un langage commun pour mesurer les risques

Estimer les potentiels points de rupture des infrastructures côtières n’est pas évident. Les données sont souvent partielles, les méthodes utilisées dans les études souvent diverses, les critères peuvent être différents et il manque généralement d’un cadre commun. Cela rend la prise de décision plus complexe, ce qui freine les investissements ciblés.

Pour bâtir un référentiel commun, une solution consisterait à mesurer les risques selon leur matérialité financière. Autrement dit, en chiffrant les pertes directes, les coûts de réparation et les interruptions d’activité.

L’agence Scientific Climate Ratings (SCR) applique cette approche à grande échelle, en intégrant les risques climatiques propres à chaque actif. La méthodologie élaborée en lien avec l’EDHEC Climate Institute sert désormais de référence scientifique pour évaluer le niveau d’exposition des infrastructures, mais aussi pour comparer, hiérarchiser et piloter les investissements d’adaptation aux risques climatiques.

Ce nouveau langage commun constitue le socle du système de notations potentielles d’exposition climatique (Climate Exposure Ratings) développé et publié par la SCR. Celle-ci s’appuie sur cette échelle graduée de A à G pour comparer l’exposition des actifs côtiers et terrestres. Une notation de A correspond à un risque minimal en comparaison avec l’univers d’actifs alors que G est donné aux actifs les plus risqués.

Comparaison des notations potentielles d’exposition climatique entre les actifs côtiers et l’ensemble des actifs pris en compte dans l’évaluation de l’agence Scientific Climate Ratings (fourni par l’auteur).
Anthony Schrapffer, Fourni par l’auteur

Les résultats de la SCR montrent ainsi que les actifs côtiers concentrent plus de notations risquées (F, G) et moins de notation à faible risque (A, B). En d’autres termes, leur exposition climatique est structurellement supérieure à celle des autres infrastructures terrestres.

Risque bien évalué, décisions éclairées

Dans le détail, la méthode de quantification du risque physique élaborée par l’EDHEC Climat Institute consiste à croiser la probabilité de survenue d’un aléa avec son intensité attendue. Des fonctions de dommage relient ensuite chaque scénario climatique à la perte potentielle selon le type d’actif et sa localisation. Pour illustrer cela, nous considérons par exemple qu’une crue centennale, autrement dit avec une probabilité d’occurrence de 1 % par an, correspond à une intensité de deux mètres et peut ainsi détruire plus de 50 % de la valeur d’un actif résidentiel en Europe.

Ces indicateurs traduisent la réalité physique en coût économique, ce qui permet d’orienter les politiques publiques et les capitaux privés. Faut-il construire ? Renforcer ? Adapter les infrastructures ? Lesquelles, en priorité ?

L’analyse prend aussi en compte les risques de transition : effets des nouvelles normes, taxation carbone, évolutions technologiques… Un terminal gazier peut ainsi devenir un « actif échoué » si la demande chute ou si la réglementation se durcit. À l’inverse, une stratégie d’adaptation précoce améliore la solidité financière et la valeur de long terme d’une infrastructure exposée aux aléas climatiques.

S’adapter est possible : l’exemple de l’aéroport de Brisbane

La résilience pour une infrastructure représente la capacité à absorber un choc, et à se réorganiser tout en conservant ses fonctions essentielles. En d’autres termes, c’est la capacité pour ces actifs à revenir à un fonctionnement normal à la suite d’un choc.

L’initiative ClimaTech évalue les actions de résilience, de décarbonation et d’adaptation selon leur efficacité à réduire le risque et leur coût. Cette approche permet de limiter le greenwashing : seules les mesures efficaces améliorent significativement la notation d’un actif sur des bases objectives et comparables. Plus on agit, mieux on est noté.

L’aéroport de Brisbane (Australie), situé entre océan et rivière, est particulièrement exposé aux risques climatiques.
Nate Cull/WikiCommons, CC BY-SA

L’aéroport de Brisbane (Australie), situé entre océan et rivière, en est un bon exemple. Des barrières anti-crues et la surélévation des pistes ont réduit à hauteur de 80 % le risque d’inondations pour les crues centennales. L’infrastructure a ainsi gagné deux catégories sur l’échelle de notation SCR : une amélioration mesurable qui accroît son attractivité.

Le cas de Brisbane révèle qu’investir dans la résilience des infrastructures côtières est possible, et même rentable. Ce modèle d’adaptation qui anticipe les dommages liés aux catastrophes climatiques pourrait être généralisé, à condition que les décideurs s’appuient une évaluation des risques fiable, cohérente et lisible comme celle que nous proposons.

Face au changement climatique, les infrastructures côtières sont à un tournant. En première ligne, elles concentrent des enjeux économiques, sociaux et environnementaux majeurs. Leur protection suppose une évaluation rigoureuse, comparable et transparente des risques, intégrant matérialité financière et évolution climatique. Une telle approche permet aux acteurs publics et privés de décider, d’investir et de valoriser les actions concrètes : rendre le risque visible, c’est déjà commencer à agir.

The Conversation

Anthony Schrapffer, PhD ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Infrastructures côtières menacées : comment mieux évaluer les risques climatiques pour mieux les anticiper ? – https://theconversation.com/infrastructures-cotieres-menacees-comment-mieux-evaluer-les-risques-climatiques-pour-mieux-les-anticiper-268859

La privatisation du service public, un non-sens économique et une menace pour notre démocratie

Source: The Conversation – in French – By Nathalie Sonnac, Professeure en sciences de l’information et de la communication, Université Paris-Panthéon-Assas

Les campagnes de dénigrement de l’audiovisuel public, portées par des médias privés, ont récemment pris une ampleur inédite. Le Rassemblement national ne cache pas son intention de le privatiser s’il arrive au pouvoir. Quelles seraient les conséquences de ce choix aux plans économique et politique ?


Nous assistons depuis plusieurs années à une crise des régimes démocratiques, qui se traduit par la montée de dirigeants populistes et/ou autoritaires au pouvoir et à une défiance massive des populations envers les institutions, journalistes et médias. En l’espace d’une génération, les réseaux sociaux les ont supplantés comme les principales sources d’information : 23 % des 18-25 ans dans le monde (Reuters Institute, 2024) s’informent sur TikTok, 62 % des Américains s’informent sur les réseaux sociaux, tandis que seul 1 % des Français de moins de 25 ans achètent un titre de presse.

Pour autant, dans ce nouveau paysage médiatique, la télévision continue d’occuper une place centrale dans la vie des Français, qu’il s’agisse du divertissement, de la culture ou de la compréhension du monde. Elle demeure le mode privilégié d’accès à l’information : 36 millions de téléspectateurs lors d’une allocution du président Macron pendant la crise sanitaire ; près de 60 millions de Français (vingt heures en moyenne par personne) ont suivi les JO de Paris sur France Télévisions. Le groupe public – qui réunit 28 % de part d’audience en 2024 – est la première source d’information chez les Français, il bénéficie d’un niveau de confiance supérieur à celui accordé aux chaînes privées.

L’impossible équation économique d’une privatisation de l’audiovisuel public

Pourtant, tel un marronnier, l’audiovisuel public est régulièrement attaqué par des politiques prônant sa privatisation, voire sa suppression, parfois au nom d’économies pour le contribuable ; d’autres fois, par idéologie. La « vraie-fausse » vidéo des journalistes Thomas Legrand et Patrick Cohen, diffusée en boucle sur la chaîne CNews, donne l’occasion à certains de remettre une pièce dans la machine.

Concrètement, privatiser l’audiovisuel public signifierait vendre les chaînes France 2, France 3 ou France 5 à des acheteurs privés, comme le groupe TF1, propriétaire des chaînes gratuites, telles que TF1, LCI et TFX ; le groupe Bertelsmann, propriétaire des chaînes gratuites M6, W9 ou 6Ter… ou encore le groupe CMA-CGM, propriétaire de BFM TV.

Sur le plan économique, cela relève aujourd’hui du mirage. Même les chaînes privées, pourtant adossées à de grands groupes, peinent à équilibrer leurs comptes. Dans un environnement aussi fortement compétitif, sur l’audience et les revenus publicitaires – les chaînes, les plateformes numériques, comme YouTube, et les services de vidéo à la demande (SVOD), comme Netflix ou Disney+ (qui ont ouvert leur modèle à la publicité), se livrent une concurrence acharnée. Comment imaginer qu’un nouvel entrant aussi puissant qu’une chaîne du service public soit viable économiquement ? Cela revient à ignorer la situation du marché de la publicité télévisée, qui n’est plus capable d’absorber une chaîne de plus.

Ce marché a reculé de 9 % entre 2014 et 2024. Et la télévision ne pèse plus que 20 % du marché total contre 26 % en 2019, quand le numérique capte désormais 57 % des recettes et pourrait atteindre 65 % en 2030. La fuite des annonceurs vers les plateformes en ligne fragilise toutes les chaînes gratuites de la TNT, dont le financement repose quasi exclusivement sur la publicité.

Le service public, pivot économique de l’écosystème audiovisuel

Une chaîne de télévision, ce sont d’abord des programmes : documentaires, films, séries, jeux, divertissements et informations. Or, malgré l’arrivée de nouveaux acteurs, comme les services de vidéo à la demande, qui investissent à hauteur d’un quart des obligations versées au secteur, la production audiovisuelle reste largement dépendante des chaînes de télévision. Ce secteur pèse lourd : plus de 5 500 entreprises, 125 000 emplois et un chiffre d’affaires d’environ 3 milliards d’euros.

Le paysage audiovisuel français reste dominé par trois groupes : TF1, M6 et France TV concentrent plus de 90 % du chiffre d’affaires des chaînes gratuites et assurent 75 % de la contribution totale de la production. Parmi eux, le groupe public France TV est le premier partenaire de la production audiovisuelle et cinématographique nationale : il investit chaque année 600 millions d’euros en achat de programmes audiovisuels et cinématographiques et irrigue ainsi toute l’industrie culturelle.

Le secteur de la production audiovisuelle, malgré l’arrivée des acteurs de la SVOD et leur demande croissante de programmes de création originale française (films, animation, documentaires), demeure largement dépendant des commandes des chaînes de télévision : la diminution du nombre de chaînes, notamment publiques, conduirait à fragiliser l’ensemble de la filière audiovisuelle et culturelle.

Une étude d’impact, réalisée en 2021, établit que le groupe France Télévisions génère 4,4 milliards d’euros de contribution au produit intérieur brut (PIB) pour 2,3 milliards d’euros de contributions publiques, 62 000 équivalents temps plein (pour un emploi direct, cinq emplois supplémentaires sont soutenus dans l’économie française), dont 40 % en région et en outre-mer » et pour chaque euro de contribution à l’audiovisuel public (CAP) versé, 2,30 € de production additionnelle sont générés. Loin d’être une charge, le service public audiovisuel est donc un levier économique majeur, créateur d’emplois, de richesse et de cohésion territoriale.

Le service public : un choix européen

Au-delà des chiffres, l’audiovisuel public constitue un choix démocratique. Les missions de services publics sont au cœur des missions de l’Europe, déjà présentes dans la directive Télévision sans frontière, à la fin des années 1980. Aujourd’hui, c’est la directive de services de médias audiovisuels qui souligne l’importance de la coexistence de fournisseurs publics et privés, allant jusqu’à formuler qu’elle caractérise le marché européen des médias audiovisuels.

Le Parlement européen l’a rappelé en réaffirmant l’importance d’un système mixte associant médias publics et privés, seul modèle capable de garantir à la fois la diversité et l’indépendance. Il ajoute en 2024 dans le règlement sur la liberté des médias l’indispensable « protection des sources journalistiques, de la confidentialité et de l’indépendance des fournisseurs de médias de service public ».

L’étude publiée par l’Observatoire européen de l’audiovisuel en 2022, malgré la diversité des médias publics européens, tous s’accordent autour de valeurs communes : l’indépendance face aux ingérences politiques, l’universalité pour toucher tous les publics, le professionnalisme dans le traitement de l’information, la diversité des points de vue, la responsabilité éditoriale.

Un rôle démocratique indispensable

En France, un suivi très concret et précis du fonctionnement des services publics est assuré par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Ces principes sont encadrés par des contrats d’objectifs et de moyens (COM) qui garantissent leur mission démocratique, leur transparence et font l’objet d’un suivi rigoureux par l’autorité de régulation. Plus de 70 articles déterminent les caractéristiques de chaque service public édité, qui vont de la nécessité de faire vivre le débat démocratique à la promotion de la langue française ou l’éducation aux médias et à l’information, en passant par la communication gouvernementale en temps de crise ou encore la lutte contre le dopage. Un cahier des charges est adossé à des missions d’intérêt général, il garantit le pluralisme, la qualité de l’information et l’indépendance éditoriale.

L’information est une de ses composantes essentielles de sa mission d’intérêt général. Elle représente 62,6 % de l’offre globale d’information de la TNT (hors chaînes d’information) en 2024 : JT, émissions spéciales au moment d’élections, magazines de débats politiques et d’investigations. Ces derniers apparaissent comme des éléments distinctifs de l’offre.

Une consultation citoyenne de 127 109 personnes, menée par Ipsos en 2019 pour France Télévisions et Radio France, faisait apparaître que « la qualité de l’information et sa fiabilité » ressortaient comme la première des attentes (68 %), devant « un large éventail de programmes culturels » (43 %) et « le soutien à la création française » (38 %). Dans un climat généralisé de défiance à l’égard des institutions, l’audiovisuel public demeure une référence pour les téléspectateurs.

Il est temps de siffler la fin de la récréation

Le cocktail est explosif : concurrence féroce entre chaînes d’info, fuite des annonceurs vers les plateformes numériques, déficit chronique des chaînes privées. En pleine guerre informationnelle, sans réinvestissement massif dans le service public et sans réflexion sur le financement de la TNT, le risque est clair : l’affaiblissement des piliers démocratiques de notre espace public.

En France, ce rôle doit être pleinement assumé. L’État, à travers l’Arcom, est le garant de la liberté de communication, de l’indépendance et du pluralisme. Il va de sa responsabilité d’assurer la pérennité du financement du service public et de protéger son rôle contre les dérives des logiques commerciales et idéologiques.

The Conversation

Nathalie Sonnac est membre du Carism et du Laboratoire de la République.

ref. La privatisation du service public, un non-sens économique et une menace pour notre démocratie – https://theconversation.com/la-privatisation-du-service-public-un-non-sens-economique-et-une-menace-pour-notre-democratie-266692

L’intelligence artificielle peut-elle améliorer la prévision météorologique ?

Source: The Conversation – in French – By Laure Raynaud, Météorologiste, Météo France

L’intelligence artificielle a déjà impacté de nombreux secteurs, et la météorologie pourrait être le suivant. Moins coûteux, plus rapide, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?


Transport, agriculture, énergie, tourisme… Les prévisions météorologiques jouent un rôle essentiel pour de nombreux secteurs de notre société. Disposer de prévisions fiables est donc indispensable pour assurer la sécurité des personnes et des biens, mais également pour organiser les activités économiques. Dans le contexte du changement climatique, où les épisodes de très fortes pluies, de vagues de chaleur ou de mégafeux ne cessent de se multiplier, les populations sont d’autant plus vulnérables, ce qui renforce le besoin en prévisions précises à une échelle très locale.

L’élaboration d’une prévision météorologique est un processus complexe, qui exploite plusieurs sources de données et qui demande une grande puissance de calcul. Donner du sens et une utilité socio-économique à la prévision pour la prise de décision est aussi un enjeu majeur, qui requiert une expertise scientifique et technique, une capacité d’interprétation et de traduction de l’information en services utiles à chaque usager. L’intelligence artificielle (IA) peut aider à répondre à ces défis.

L’IA : un nouveau paradigme pour la prévision météorologique ?

Comme on peut le lire dans le rapport Villani sur l’IA, rendu public en mars 2018, « définir l’intelligence artificielle n’est pas chose facile ». On peut considérer qu’il s’agit d’un champ pluridisciplinaire qui recouvre un vaste ensemble de méthodes à la croisée des mathématiques, de la science des données et de l’informatique. L’IA peut être mise en œuvre pour des tâches variées, notamment de la prévision, de la classification, de la détection ou encore de la génération de contenu.

Les méthodes d’IA parmi les plus utilisées et les plus performantes aujourd’hui fonctionnent sur le principe de l’apprentissage machine (machine learning) : des programmes informatiques apprennent, sur de grands jeux de données, la meilleure façon de réaliser la tâche demandée. Les réseaux de neurones profonds (deep learning) sont un type particulier d’algorithmes d’apprentissage, permettant actuellement d’atteindre des performances inégalées par les autres approches. C’est de ce type d’algorithme dont il est question ici.

La prévision météorologique repose actuellement, et depuis plusieurs décennies, sur des modèles qui simulent le comportement de l’atmosphère. Ces modèles intègrent des lois physiques, formulées pour calculer l’évolution des principales variables atmosphériques, comme la température, le vent, l’humidité, la pression, etc. Connaissant la météo du jour, on peut ainsi calculer les conditions atmosphériques des prochains jours. Les modèles météorologiques progressent très régulièrement, en particulier grâce à l’utilisation de nouvelles observations, satellitaires ou de terrain, et à l’augmentation des ressources de calcul.

La prochaine génération de modèles aura pour objectif de produire des prévisions à un niveau de qualité et de finesse spatiale encore plus élevé, de l’ordre de quelques centaines de mètres, afin de mieux appréhender les risques locaux comme les îlots de chaleur urbains par exemple. Cette ambition soulève néanmoins plusieurs challenges, dont celui des coûts de production : effectuer une prévision météo requiert une puissance de calcul très importante, qui augmente d’autant plus que la précision spatiale recherchée est grande et que les données intégrées sont nombreuses.

Gagner en temps et en qualité

Cette étape de modélisation atmosphérique pourrait bientôt bénéficier des avantages de l’IA. C’est ce qui a été démontré dans plusieurs travaux récents, qui proposent de repenser le processus de prévision sous l’angle des statistiques et de l’apprentissage profond. Là où les experts de la physique atmosphérique construisent des modèles de prévision où ils explicitement le fonctionnement de l’atmosphère, l’IA peut apprendre elle-même ce fonctionnement en analysant de très grands jeux de données historiques.

Cette approche par IA de la prévision du temps présente plusieurs avantages : son calcul est beaucoup plus rapide – quelques minutes au lieu d’environ une heure pour produire une prévision à quelques jours d’échéance – et donc moins coûteux, et la qualité des prévisions est potentiellement meilleure. Des études montrent par exemple que ces modèles sont déjà au moins aussi efficaces que des modèles classiques, puisqu’ils permettent d’anticiper plusieurs jours à l’avance des phénomènes tels que les cyclones tropicaux, les tempêtes hivernales ou les vagues de chaleur.

Les modèles d’IA sont encore au stade de développement dans plusieurs services météorologiques nationaux, dont Météo France, et font l’objet de recherches actives pour mieux comprendre leurs potentiels et leurs faiblesses. À court terme, ces modèles d’IA ne remplaceront pas les modèles fondés sur la physique, mais leur utilisation pour la prévision du temps est amenée à se renforcer, à l’instar du modèle AIFS, produit par le Centre européen de prévision météorologique à moyen terme, opérationnel depuis début 2025.

De la prévision météorologique à la prise de décision

Au-delà des modèles, c’est toute la chaîne d’expertise des prévisions et des observations météorologiques qui pourrait être facilitée en mobilisant les techniques d’IA. Cette expertise repose actuellement sur des prévisionnistes qui, chaque jour, analysent une grande quantité de données afin d’y détecter des événements potentiellement dangereux, d’élaborer la carte de vigilance météorologique en cas d’événements extrêmes, comme les fortes pluies, ou encore les bulletins à destination de différents usagers. Dans un contexte où le volume de données à traiter croît rapidement, l’IA pourrait aider les prévisionnistes dans l’extraction et la synthèse de l’information.

Une grande partie des données météorologiques étant assimilable à des images, les méthodes d’IA utilisées en traitement d’images, notamment pour la reconnaissance de formes et la classification automatique, peuvent être appliquées de façon similaire à des données météo. Les équipes de recherche et développement de Météo France ont par exemple mis en œuvre des méthodes d’IA pour l’identification du risque d’orages violents à partir de cartes météorologiques. D’autres travaux ont porté sur le développement d’IA pour la détection de neige sur les images issues de webcams, et l’estimation des quantités de pluie à partir d’images satellites. Enfin, des travaux sont en cours pour utiliser les grands modèles de langage (à l’origine des applications comme ChatGPT) comme support d’aide à la rédaction des bulletins météo.

Dans tous les cas il ne s’agit pas de remplacer l’humain, dont l’expertise reste essentielle dans le processus de décision, mais de développer des IA facilitatrices, qui permettront de concentrer l’expertise humaine sur des tâches à plus forte valeur ajoutée.

En poursuivant les efforts déjà engagés, l’IA contribuera à répondre aux défis climatiques et à renforcer les services de proximité avec une réactivité et une précision accrues. Faire de l’IA un outil central pour la prévision du temps nécessite néanmoins une vigilance particulière sur plusieurs aspects, en particulier la disponibilité et le partage de données de qualité, la maîtrise de l’impact environnemental des IA développées en privilégiant des approches frugales, et le passage de preuves de concept à leur industrialisation.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Laure Raynaud a reçu des financements de l’Agence Nationale de la Recherche (ANR), l’Union Européenne.

ref. L’intelligence artificielle peut-elle améliorer la prévision météorologique ? – https://theconversation.com/lintelligence-artificielle-peut-elle-ameliorer-la-prevision-meteorologique-269457

First indictments issued as Donald Trump’s ‘grand conspiracy’ theory begins to take shape

Source: The Conversation – UK – By Robert Dover, Professor of Intelligence and National Security & Dean of Faculty, University of Hull

In recent weeks, Donald Trump’s supporters have begun to align around the idea that a Democrat-led “grand conspiracy” – potentially involving former president Barack Obama – has been plotting against the US president since 2016. The narrative is that the 2016 Russia investigation, which resulted in the Mueller inquiry was part of this deep-state opposition to Trump, as was the investigation into the January 6 riot at the US Capitol.

The focus of the fightback by Trump’s supporters is in Miami, where a Trump-appointed US attorney, Jason A. Reding Quiñones, has begun to issue subpoenas to a wide range of former officials.

This has included former CIA director John Brennan, former FBI counterintelligence official Peter Strzok, former FBI attorney Lisa Page and former director of national intelligence James Clapper, all of whom were involved in the federal investigation into alleged links between Russian intelligence and Trump’s 2016 presidential campaign.

The way the so-called conspiracy is unfolding will feel familiar to anyone who has watched US politics closely in the past decade. There’s been a constant stream of allegations and counter-allegations. But the narrative from the Trump camp is that the powerful “deep state” forces have been arrayed against the president. The “two-tier” justice system that has persecuted Trump can only be rebalanced by pursuing those who investigated him in 2017 and 2021.

The Grand Conspiracy contains similarities with other prominent conspiracy theories and how they spread. The QAnon movement, whose most famous claim is of a global paedophile ring run out of a Washington pizza parlour involving senior Democrats, is one where disparate claims are sporadically and partially evidenced. The political potency of these claims does not sit in the individual pieces of evidence but in the overarching story.

The story is that hidden government and proxy networks manipulate the truth and judicial outcomes and that only through pressure from “truthers” (what many people in the US who believe conspiracy theories call themselves) will wrongdoers be brought to account. Once these ideas are popularised, they take on a momentum and a direction that is difficult to control.

Campaign of ‘lawfare’

Soon after his inauguration, Trump set up a “weaponization working group” within the Department of Justice. Its director, Ed Martin, said in May that he would expose and discredit people he believes to be guilty, even if the evidence wasn’t sufficient to charge them: “If they can be charged, we’ll charge them. But if they can’t be charged, we will name them. And we will name them, and in a culture that respects shame, they should be people that are ashamed.”

In the US the norm has been to “charge crimes, not people”, so this modification fundamentally changes the focus of prosecutors.

Former FBI director James Comey responds to his indictment by grand jury in September.

The recent subpoenas in Florida show this principle at work, effectively making legal process into the punishment. Even without full court hearings on specific charges, being forced to provide testimony or documents creates suspicion around those who are targeted. Criticism from legal officials that this is a “indict first, investigate second” method suggests that this is a break from historical norms.

Lawfare, defined as “legal action undertaken as part of a hostile campaign”, doesn’t require a successful prosecution. It merely requires enough investigative activity to solidify a narrative of suspected guilt and enough costs and pressure to seriously inconvenience those affected by it. In the new era of digital media, it’s enough to degrade the standing of a political opponent.

In that way, political retaliation has become a prosecuting objective. This is clear from what the US president has indicated in his frequent posts on his social media platforms for his enemies, such as former FBI director James Comey, who investigated his alleged links to Russia, or Adam Schiff, the senator who led his impeachment in 2019.

Hardball politics or authoritarianism?

Political scientists argue that authoritarianism is something that happens little by little. Some of these steps involve using state power to target political opponents, degrading checks and balances and making loyalty a legal requirement.

There are reasons to believe that the US seems to be tracking this trajectory currently, certainly when it comes to using the Justice Department to harass the president’s political enemies and pushing back against court judgments while attacking the judges that have issued them.

Further slides towards authoritarianism are possible because of the political potency of contemporary conspiracy movements. The right-wing QAnon movement, for example, has been exceptionally agile. It has offered its followers identity, community spaces and a logic that encourages active participation, exhorting believers to “do your own research”, for example.

In the wake of the near daily addition of material from the investigations into the allegations that the late financier, Jeffrey Epstein, ran a sex trafficking ring, involving some influential US citizens, many American citizens have concluded as a general truth that their elites do hide things. This makes it far simpler for broader conspiracies to gain traction and more difficult for politicians and journalists to work out what is conspiracy and what is evidence. This is creating a problematic feedback loop – hints of wrongdoing fuel public suspicion, and public suspicion fuels the idea of a further need for investigation.

But to suggest that anyone has control over this would be wrong. These movements can just as easily consume those seen as supporters as they do those seen as enemies. Marjorie Taylor-Greene’s determination to release the full and unredacted Epstein files could well produce negative outcomes for some Maga supporters, including prominent ones.

So, the transformation of legal process into public spectacle in America is suggestive of a drift towards authoritarianism. America’s famous “constitutional guardrails” of separation of powers, independent courts, juries and counsels will be pivotal in preventing this. They will need to stand firm.

The grand conspiracy theory might be more about seeking to isolate, and financially and emotionally exhaust opponents, while at the same time destroying America’s system of checks and balances. It might work.

The Conversation

Robert Dover does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. First indictments issued as Donald Trump’s ‘grand conspiracy’ theory begins to take shape – https://theconversation.com/first-indictments-issued-as-donald-trumps-grand-conspiracy-theory-begins-to-take-shape-269542

COP30: Governments must empower forest communities to keep fossil fuels underground

Source: The Conversation – Canada – By Philippe Le Billon, Professor, Geography Department and School of Public Policy & Global Affairs, University of British Columbia

Brazilian President Luiz Inácio Lula da Silva has dubbed COP30 the forest COP. Taking place in Belém, a large urban centre in the Amazon, this choice signals a welcome shift from the capital cities of petro-states to the heart of the world’s most bio-diverse rainforest.

Yet, even as Belém hosts global climate negotiators, the Amazon and its coastline are under renewed pressure. While the spotlight is on protecting trees, new oil concessions are being awarded to keep rigs pumping.

On Nov. 11, dozens of Indigenous protesters forced their way into the COP30 venue demanding an end to industrial development in the Amazon. Indigenous leaders attending COP30 are demanding more say in how forests are managed.

Amid this tension, a new financial initiative has emerged as the potential solution: the Tropical Forest Forever Facility (TFFF). Managed by the World Bank as a multilateral trust fund, it would mobilize US$125 billion from public and private investors to reward forested countries for keeping their forests standing — forever.

The pitch is seductive — save forests, earn profits and mitigate climate change all at once. But the proposal raises two questions that demand scrutiny: Will this scheme actually make a major difference for the climate, and how will it impact communities who live in forests?




Read more:
From the Amazon, Indigenous Peoples offer new compass to navigate climate change


Protecting trees

The first question is easier to tackle. Yes, tropical forests store immense amounts of carbon so protecting them is vital. But this contribution is largely contingent on keeping global temperature below 2 C and is dwarfed by the emissions risked if fossil fuels buried beneath those same forests are extracted and burned.

Out of the 74 countries with TFFF-qualifying forests, 68 countries have fossil fuel deposits within them. In total, according to a study by the NGO Leave It In The Ground, there would be some 317 billion tonnes of potential carbon dioxide emissions from recoverable reserves and more than 4.6 trillion tonnes if all deposits were exploited.

Nearly all of it is concentrated in just three countries: China, India and Indonesia. To be truly effective, forest protection must come with a firm commitment: no fossil fuel extraction underneath.

To be equitable, a similar scheme must cover non-TFFF countries, and in particular those with boreal forests covering major fossil fuel deposits, namely in Canada and Russia.

That means prioritizing forests located above fossil fuel reserves and ensuring they remain completely off-limits to exploitation.

For this to happen, countries must make binding commitments, investors must accept lower-risk but longer-term returns and local communities must hold forest tenure rights that cannot be overridden by state ownership of subsoil resources. It’s a tall order — but without such a framework, the “forever forest” concept risks becoming just another limited climate solution.

The term forever forests evokes the advertising slogan of diamond company De Beers — “A Diamond is forever” — and reveals a similar logic: to turn nature into financial assets. A more fitting concept might be what fisheries economist Rashid Sumaila would call the infinity forest — a forest that, like fish stocks, is renewable when soundly managed as a common good.

Many of the world’s forests are not untouched wildernesses but co-created landscapes, shaped through millennia of Indigenous and local stewardship. The Amazon, for instance, is a complex social biome, nurtured through practices such as controlled burning, seed dispersal and farming.

While not all traditional practices are benign, archaeological and ecological evidence shows that many Indigenous and peasant communities have managed forests sustainably — often more effectively than state-led conservation programs and with major implications for biodiversity protection.

In fact, many studies show that biodiversity conservation is more effective in territories governed by Indigenous peoples than in state-managed protected areas.

A financial trap for forest communities

Beyond its likely ineffectiveness for the climate, the TFFF could also have devastating consequences for forest communities. Under Brazil’s current proposal, countries would receive around US$4 for every hectare of protected forest, with 80 cents trickling down to local communities.

But they would be fined US$400 per hectare for any deforestation. This creates a dangerous dynamic: states will crack down on small-scale forest use by local people while giving free rein to industries — such as oil — that generate far higher returns.

In effect, the scheme risks criminalizing traditional forest practices — from small-scale clearing to hunting or gathering — that have sustained these ecosystems for centuries.

As governments seek to avoid penalties, forest communities could face exclusion, forced resettlement or even violence, echoing a long history of displacement caused by “conservation” projects and carbon offset schemes such as REDD+.

Financializing the forest’s future

This brings us to the Indigenous and forest defenders who disrupted COP30 events on Nov. 11. Their protest highlighted the real danger behind the TFFF: the financialization of Indigenous territories.

The scheme does nothing to prevent oil and gas extraction beneath forest lands. What were once commons could become commodities promising investors lucrative returns.

In short, “forever forests” may deliver forever profits — not so much for the people who protect them as for those who exploit their value. This is, bluntly, a new form of green colonialism — a profitable appropriation of the forest’s future.

If the TFFF goes ahead, it must first grant some degree of self-government to Indigenous forest communities — as Colombia recently did — and explicitly prohibit fossil fuel extraction in protected forests.

Investors should pay a premium for forests covering fossil fuel reserves, and both state and community rights must be rebalanced to make no-go zones truly binding. In this way, “forever forests” can become territories of life — not assets of accumulation.

Ultimately, no financial mechanism will save the world’s forests unless it also saves the people who depend on them, and the carbon that must remain buried beneath.

The path to a livable planet runs not through markets or bonds, but through justice: recognition of forest community stewardship and a global commitment to keep fossil fuels in the ground.

The Conversation

Philippe Le Billon receives funding from the Social Sciences and Humanities Research Council of Canada.

ref. COP30: Governments must empower forest communities to keep fossil fuels underground – https://theconversation.com/cop30-governments-must-empower-forest-communities-to-keep-fossil-fuels-underground-269686

À moins de trois mois des JO d’hiver, quelles attentes environnementales ?

Source: The Conversation – in French – By Alizée Pillod, Doctorante en science politique, Université de Montréal

L’Italie s’apprête à accueillir cet hiver la 25e édition des Jeux olympiques d’hiver, prévus du 6 au 22 février 2026, suivis des Jeux paralympiques, qui se tiendront du 6 au 15 mars.

Après l’effervescence des Jeux de Paris, lesquels avaient placé la durabilité au cœur de leur stratégie de planification, ceux de Milan seront déterminants pour savoir si l’on assiste véritablement à un changement de paradigme au sein du mouvement olympique.

À moins de 100 jours de l’échéance, le comité organisateur des Jeux de Milan-Cortina sera-t-il capable de tenir sa promesse verte ?

Doctorante en science politique à l’Université de Montréal, mes travaux portent à la fois sur la communication climatique et l’élaboration de politiques environnementales, y compris dans le secteur du sport.

Les Jeux d’hiver dans la tourmente climatique

Tout d’abord, il faut souligner que peu de secteurs dépendent autant des conditions météorologiques que celui du sport.

Avec la crise climatique, la pratique sportive, en particulier celle des sports d’hiver, devient de plus en plus difficile. L’annulation de la Coupe du monde de ski alpin au Mont Tremblant l’an dernier, faute de neige, en est un exemple frappant.

Selon une étude de l’Université Waterloo, d’ici 2050, seuls 10 anciens sites olympiques demeureront viables pour accueillir de futurs Jeux d’hiver. À l’horizon 2080, ce nombre pourrait chuter à seulement 6.

Parallèlement, l’organisation de mégaévènements sportifs tels que les Jeux, engendre une empreinte carbone et environnementale considérable.

Bien que généralement plus modestes que celles estivales, les éditions hivernales des Jeux ont fait l’objet de nombreuses controverses écologiques, en lien notamment avec la destruction de réserves naturelles jusque-là préservées.

La plus récente, Pékin 2022, a conduit à l’abattage de plus de 20,000 arbres ancestraux pour permettre l’expansion du domaine skiable et la construction d’infrastructures en tout genre, telles que des routes d’accès, des stationnements ou encore des sites d’hébergement.

Le sport de haut niveau se trouve ainsi pris dans une relation à la fois de dépendance et de contribution au réchauffement climatique.

Les Agendas 20 et 20+5 comme nouveaux standards

Conscient de ces défis, le Comité international olympique (CIO) a adopté ces dernières années plusieurs politiques visant à réduire l’empreinte des Jeux, comme l’Agenda 20, dont les objectifs stratégiques ont été réitérés en 2021 avec l’Agenda 20+5.

Après Paris 2024, les Jeux de Milan-Cortina seront les premiers Jeux d’hiver à devoir respecter ces exigences.

Parmi les intentions formulées figurent la volonté de promouvoir des Jeux durables et de faire de ceux-ci un tremplin pour l’atteinte des objectifs du développement durable de l’ONU.

Pour cela, le CIO demande désormais aux villes hôtes de réduire leurs émissions de CO₂ et met de l’avant la notion d’héritage, en encourageant la réutilisation de sites déjà existants et la reconversion de ceux-ci une fois l’évènement terminé.

Milan-Cortina sur la piste verte

Heureusement pour nous, il semble que le comité organisateur italien ait décidé de faire de la lutte contre le réchauffement climatique un élément central de son plan stratégique. Dès le départ, celui-ci a mis en place un processus rigoureux d’évaluation de ses émissions de gaz à effet de serre.

Dans son deuxième rapport sur sa stratégie de durabilité, publié en septembre 2025, le comité a également présenté plusieurs mesures visant à réduire davantage l’empreinte carbone de l’événement.

Parmi les initiatives phares, le comité s’est notamment engagé à utiliser une alimentation énergétique 100 % renouvelable et à limiter le gaspillage alimentaire en redistribuant l’intégralité des surplus à des organismes caritatifs locaux. Dans une volonté d’encourager l’économie circulaire, plus de 20 000 équipements issus des Jeux de Paris ont aussi été rachetés.

Du côté des infrastructures, à l’instar de ce qui avait été fait à Paris, l’accent est à nouveau mis sur la réutilisation des installations existantes et sur le recours à des structures temporaires qui seront démantelées après les Jeux. Au total, près de 90 % des sites entreront dans cette catégorie.

Les quelques nouvelles constructions permanentes deviendront des centres d’entraînement pour la future élite sportive italienne, ou bien seront transformées pour d’autres usages. Tout comme celui de Paris, le nouveau village olympique à Milan deviendra, par exemple, une résidence universitaire.

Le plan comprend également des mesures d’adaptation. Avec le réchauffement climatique, l’enneigement naturel se fait de plus en plus rare et le recours à la neige artificielle devient la nouvelle norme pour continuer d’offrir aux athlètes des conditions de performances optimales. Dans ce contexte, le comité organisateur a décidé de moderniser ses systèmes de production de neige artificielle afin de pouvoir répondre plus efficacement aux besoins en cas de températures anormalement élevées cet hiver.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Un plan italien ambitieux, non pas sans défauts

Si le plan semble rassurant sur papier, sa mise en œuvre comporte néanmoins son lot de défis.

Au-delà des retards chroniques dans l’avancement des travaux et des dépassements budgétaires colossaux (avec des dépenses multipliées au moins par deux par rapport au budget initial), la construction de nouvelles infrastructures en montagne a nécessairement une empreinte environnementale élevée.

Rappelons que les Jeux de Milan-Cortina se dérouleront sur des sites répartis dans quatre zones du nord de l’Italie : Milan, Cortina, la Valtellina et le Val di Fiemme. Ensemble, ces sites couvrent un territoire de plus de 20 000 kilomètres carrés, ce qui en fera les Jeux les plus dispersés de l’histoire. Ainsi, il n’y aura pas un mais plutôt six sites de villégiature pour les athlètes (oui, vous avez bien lu !).

Cela explique sans doute pourquoi la majeure partie du budget est allouée au développement des transports publics, notamment du réseau ferroviaire, afin de faciliter les déplacements entre les différents sites. Les infrastructures sportives, quant à elles, représentent moins du quart du budget total.

De plus, certaines constructions ont fait polémiques. La toute nouvelle piste de bobsleigh à Cortina a, par exemple, été fortement critiquée, du fait qu’elle a entraîné l’abattage de plusieurs centaines d’arbres. Même si l’on reste loin des chiffres observés à Pékin, il n’en demeure pas moins que l’organisation des Jeux perturbe la biodiversité locale.

En ce qui concerne les installations temporaires, le comité s’est engagé à restaurer les écosystèmes et, plus largement, à compenser l’ensemble des émissions résiduelles, notamment par l’achat de crédits carbone. Les plus pessimistes diront cependant que ce qui a été détruit ne pourra jamais être entièrement restauré, et qu’aucune compensation financière ou écologique ne saurait réellement en effacer l’impact.

En termes d’adaptation, notons que la production de neige artificielle, même si optimisée, nécessite beaucoup d’eau et d’énergie, en plus de dégrader la qualité des sols. Ainsi, cette solution, censée pallier les effets du réchauffement, finit paradoxalement par y contribuer. D’où l’importance de mieux penser les solutions d’adaptation.

Enfin, les habitants redoutent un effet d’embourgeoisement. À Milan, l’édification du village olympique a entraîné l’expulsion de résidents, et les loyers prévus une fois le site reconverti en résidence universitaire sont jugés trop élevés. Ainsi, dans une perspective de justice sociale, on peut se demander à qui profiteront réellement les nouvelles installations à plus long terme.

Peut-on parler d’un vrai tournant ?

Dans l’ensemble, la stratégie de Milan-Cortina montre une réelle évolution dans la façon de penser la durabilité des Jeux d’hiver. Les organisateurs ont appris des éditions précédentes et proposent désormais des approches d’autant plus innovantes.

Bien que les émissions de gaz à effet de serre anticipées soient moins élevées qu’à Pékin ou à Pyeongchang, celles de Milan-Cortina demeurent estimées à près d’un million de tonnes de CO₂ équivalent. Dans ce contexte, il reste à espérer que le comité parvienne véritablement à mettre en œuvre l’ensemble des mesures prévues afin d’en compenser la plus grande part possible.

Par ailleurs, la prochaine édition des Jeux d’hiver aura lieu, elle aussi, dans les Alpes, mais cette fois en territoire français. Le tout nouveau comité organisateur des Jeux de 2030 suit sans doute avec attention les choix faits du côté italien, conscient des défis climatiques croissants qui l’attendent.

D’ici là, on peut compter sur les athlètes et para-athlètes, lesquels sont déjà à pied d’œuvre au moment où j’écris ces lignes, pour nous éblouir encore, ne serait-ce le temps d’un instant.

La Conversation Canada

Alizée Pillod est affiliée au Centre d’Études et de Recherches Internationales de l’UdeM (CERIUM), au Centre de recherche sur les Politiques et le Développement Social (CPDS) et au Centre pour l’Étude de la Citoyenneté Démocratique (CECD). Ses recherches sont subventionnées par les Fonds de Recherche du Québec (FRQ). Alizée a aussi obtenu la Bourse départementale de recrutement en politiques publiques (2021), la Bourse d’excellence en études environnementales Rosdev (2023), ainsi que la Bourse d’excellence en politiques publiques de la Maison des Affaires Publiques et Internationales (2025). Elle a collaboré par le passé avec le consortium Ouranos, le ministère de l’Environnement du Québec et l’INSPQ.

ref. À moins de trois mois des JO d’hiver, quelles attentes environnementales ? – https://theconversation.com/a-moins-de-trois-mois-des-jo-dhiver-quelles-attentes-environnementales-268141

Ukraine: energy corruption scandal threatens to derail Zelensky’s government and undermine its war effort

Source: The Conversation – UK – By Stefan Wolff, Professor of International Security, University of Birmingham

The latest corruption scandal that has engulfed Ukraine could not have come at a worse time or in a more delicate sector of the economy for the increasingly embattled government of Volodymyr Zelensky.

Ukraine’s military is now clearly on the back foot in several key sectors of the frontline. Meanwhile, Russia’s campaign to devastate Ukraine’s energy sector is putting enormous pressure on the country’s infrastructure and bringing increasing hardship for ordinary Ukrainians as winter approaches.

The fact that the latest corruption scandal involves the energy sector is, therefore, particularly damaging to the government and public morale.

Ukraine’s independent anti-corruption agencies have just released the findings of Operation Midas, a 15-month investigation into Energoatom, which is the state-owned operator of all of Ukraine’s nuclear power plants. With a total capacity of almost 14,000 megawatts, Energoatom is the largest electricity producer in Ukraine.

Anti-corruption investigators allege a large kickback scheme of between 10% and 15% of the value of supplier contracts, amounting to about US$100 million (£76 million). Raids were carried out in 70 locations around the country on November 10. Seven people have been charged and five are in custody.

The mastermind of the corrupt scheme is alleged to be Timur Mindich a businessman and film producer, who hastily fled Ukraine a day before the raids. What makes this very dangerous for Zelensky is that Mindich is the co-owner, with the Ukrainian president, of Kvartal 95 Studio. Kvartal is the media platform on which Zelensky established his pre-presidential fame as a comedian.

Volodymyr Zelensky and Timur Mindich.
Old friends and business partners: Volodymyr Zelensky and Timur Mindich.
Harry Boone/X

The scandal, therefore, once again involves very close allies of the president. It risks tainting by association. But it also leaves him open to questions of whether he could havacting sooner about the allegations.

But the way in which this latest scandal unfolded also indicates that it is the manifestation of a much deeper conflict going on behind the scenes between elite groups vying for control of the last valuable state asset – the energy sector.

Smear campaigns

It’s the latest in a chain of events that goes back to the summer months, when Zelensky’s Servant of the People parliamentary faction tried to terminate the independence of Ukraine’s anti-corruption agencies. Mass protests by young Ukrainians forced the government to backtrack on the decision.

At this point, rumours about the existence of secretly taped conversations involving Mindich began to circulate in the Ukrainian media. However, no details of the content of the conversations were released at time, leaving any allegations of corruption to the realm of speculation.

As the government came under increasing pressure after massive Russian air strikes against the energy sector on October 10 which left Ukraine’s population without electricity for almost an entire day, mud-slinging began in earnest. Attention focused on Volodymyr Kudrytsky, the former head of Ukrenergo, the main operator of Ukraine’s electricity grid.

Kudrytsky, an outspoken figure in Ukraine’s pro-western and anti-corruption civil society, was detained on October 28 on suspicion of fraud relating to his alleged involvement in a 2018 plot to embezzle the equivalent of $1.6 million from state funds. The investigation against him was conducted by State Audit Service of Ukraine and State Bureau of Investigation, which are directly subordinate to Zelensky.

He has robustly defended his record against what he alleged were politically motivated attacks designed to shift the blame for the devastation of Ukraine’s energy grid by Russia’s air campaign away from the government.

While Kudrytsky has been released on bail, the case against him remains live.

Power struggle

Whatever their outcome in legal terms, the rumours circulating against Mindich and the attacks against Kudrytsky appear, for now at least, to be classic information campaigns aimed at assassinating reputations and damaging the people and agendas associated with them.

As they pit pro- and anti-Zelensky camps in Ukraine’s elites against each other, the latest corruption revelations reveal a power struggle over who controls the state’s most valuable assets and the levers of power in Ukraine. If Zelensky’s enemies cannot remove him from power, then his ability to rule can be severely constrained by targeting close allies like Mindich.

Another of Zelensky’s top advisers, justice minister (formerly energy minister) German Galushchenko has also been suspended as a result of Operation Midas.

This elite infighting, which is engulfing a sector that is critical to Ukraine’s ability to continue resisting Russia’s aggression, is astounding in its disregard of the existential crisis engulfing Ukraine. While its outcome, for now, is unclear, several important conclusions can already be drawn from it.

The return to a competitive political process with freedom of speech, media, and association, which was suspended as a result of the war, is vital. Fears of playing into the hands of Russian propaganda by revealing corruption in Ukraine simply enable the corrupt officials to further abuse their power and damage the country’s prospects of prevailing against Russia.

More direct involvement of the EU and the US is needed in fighting corruption in Ukraine. Corruption reduces funds allocated for the war. But it also fuels public pessimism in donor countries about the effectiveness of their continuing support.




Read more:
Ukraine war: why Zelensky’s corruption purge could be key to the outcome of the conflict


This corruption has been hugely damaging for recruitment to the armed forces. A recent survey found that 71% of Ukrainians believe the level of corruption has increased since Russia’s full-scale invasion in February 2022.

Monthly desertion rates from the army now stand roughly at the level of two-thirds of new recruits. That’s 21,000 deserters compared to 30,000 sign-ups. It’s not sustainable for Ukraine’s defence efforts – and is part of the reason for some of the recent setbacks at the frontline.

This is no longer about the country’s reputation and its prospects of European integration. Cleaning up Ukrainian politics – and being seen to do so – is now as essential for Ukraine’s survival as shoring up its air and ground defences against Russia.

Tolerating corruption is a luxury that Ukraine can no longer afford if it wants to survive as an independent country.

The Conversation

Stefan Wolff is a past recipient of grant funding from the Natural Environment Research Council of the UK, the United States Institute of Peace, the Economic and Social Research Council of the UK, the British Academy, the NATO Science for Peace Programme, the EU Framework Programmes 6 and 7 and Horizon 2020, as well as the EU’s Jean Monnet Programme. He is a Trustee and Honorary Treasurer of the Political Studies Association of the UK and a Senior Research Fellow at the Foreign Policy Centre in London.

Tetyana Malyarenko receives funding from the Elliott School of International Affairs, George Washington University.

ref. Ukraine: energy corruption scandal threatens to derail Zelensky’s government and undermine its war effort – https://theconversation.com/ukraine-energy-corruption-scandal-threatens-to-derail-zelenskys-government-and-undermine-its-war-effort-269437

We studied the walking habits of young men in Cape Town and London – and debunked a myth

Source: The Conversation – Africa – By Bradley Rink, Associate Professor of Human Geography, University of the Western Cape

Being mobile means people can get access to opportunities and take part in economic and social life. Mobility, in all its forms, is critical for cities to thrive.

Recent studies highlight what most African city dwellers already know: walking is the main way of getting around, and essential for daily life. This is true for people who live in low-income neighbourhoods across the world. When people lack money for taxi, bus or train fares, walking becomes the only option even if the distances are great.

Yet, most African cities and many low-income neighbourhoods globally lack spaces for walking that are safe and appropriate.

While researchers place a lot of emphasis on road traffic, public transport and infrastructure, little attention has been paid to the importance of walking as a daily mobility strategy for low-income communities.




Read more:
2 in 3 Africans will live in cities by 2050: how planners can put this to good use


Even less is known about the walking experiences of young men. There often seems to be an assumption they are free to travel wherever and whenever they choose, that they’re invulnerable. But what are the realities they face on the street, and what we can learn from them?

We’re a team of human geographers and anthropologists working in collaboration with an international non-governmental organisation and a group of 12 peer researchers who are walkers: six from Cape Town and six from London. Our study aimed to learn more about the experiences of men like this, aged 18-35, in low-income urban neighbourhoods in South Africa and the UK.

We wanted to better understand issues of access and opportunity for communities that rely on walking. We also wanted to explore the potential of community-based research for improving lives.

Our findings revealed what expected cultural and gender norms often mask: young men in these communities often walk with great fear and trepidation.

The study

Our focus on young men was influenced by findings from an earlier study of young women in Cape Town. That study emphasised the particular concerns women have for the safety of their male counterparts who had to walk back home after accompanying the women to transit points.

We not only set out to foreground the walking experiences of young men; we also wanted to do research differently and with maximum potential impact for those involved. Peer research provides living knowledge, and also a chance to make meaningful change in transforming policy and practice. Peer researchers are, after all, experts in their own lives.

Through a five-day workshop we trained peer researchers in research methods, ethics and data collection. We gained an understanding of their communities through shared mapping exercises. The young men then set out to collect data independently, using mobility diaries. Each of them also interviewed at least 10 other young men in their community.

Although their specific neighbourhoods aren’t named for ethical reasons, the study areas were two township neigbhourhoods in Cape Town and various boroughs in the east end of London. They were strikingly similar when it came to a sense of everyday dangers from high rates of crime, violence and deprivation.

What we found

Young men in our study helped to undermine this myth of male invulnerability. They revealed how fear shapes their daily walking experiences and has an impact on their lives. As one participant said:

I’ve been a victim of crime: at that time I felt useless, weak and vulnerable.

More than this, their stories revealed how they use various tactics and strategies to stay safe. They walk with trusted others. They pay attention to their appearance and avoid displaying things like mobile phones and jewellery. They adjust their routes depending on the weather, darkness and the presence of criminal gangs.

As one participant put it:

I walk in the afternoon to the bus (to get to a job in a distant neighbourhood). It takes 10 minutes. It’s not safe … If I see criminals I pretend I’m tying my shoelace.

Other peer researchers confirmed that even the simple act of appearing to tie a shoelace allows you to survey the street while not looking scared and protecting masculine dignity. If it looks dangerous, they said, you can pretend you’ve forgotten something and run back the way you’ve come.

Our findings illustrate the complexity of daily walks. While mediating danger on the streets and navigating the precarities of urban life, our peer researchers also reflected on the pleasures of walking. They sometimes found joy and relief in walking:

I get to breathe fresh air instead of just sitting in the house … thinking about being unemployed and stuff. I get to see people and be healed.

Encountering the city on foot has benefits for physical and mental health.

Why this matters

Safe, reliable mobility is essential for lives and livelihoods in the city. Our study identified ways that community stakeholders can support safe walking and therefore help with access to economic and social opportunities.

Lifting the veil on men’s vulnerabilities allows community members and policy makers to understand the challenges across the gender spectrum.




Read more:
Accra is a tough city to walk in: how city planners can fix the problem


But our research also matters because of how we went about it. The potential for change comes in the form of ongoing stakeholder engagement. Findings from the research were presented by the peer researchers themselves to community stakeholders and local government officials, people who have the capacity to improve infrastructure and safety.


Sam Clark and Caroline Barber from Transaid UK and Bulelani Maskiti, an independent South African researcher, contributed to this article.

The Conversation

Bradley Rink receives funding from Volvo Research and Educational Foundations (VREF)

Gina Porter receives funding from Volvo Research and Educational Foundations (VREF)

ref. We studied the walking habits of young men in Cape Town and London – and debunked a myth – https://theconversation.com/we-studied-the-walking-habits-of-young-men-in-cape-town-and-london-and-debunked-a-myth-268131

Black and Latino homeowners in Philly face discrimination when appraisers assess their properties

Source: The Conversation – USA (2) – By Gregory Squires, Professor Emeritus of Sociology, George Washington University

Home appraisal bias contributes to racial wealth disparities and violates the Fair Housing Act.
Jeff Fusco/The Conversation U.S., CC BY-SA

For most families, owning a home is the primary way to accumulate wealth and transfer that wealth to future generations.

But in Philadelphia and other U.S. cities, studies have shown that if you live in a Black or Hispanic neighborhood, your home is more likely to be appraised below its market value when compared to homes in non-Hispanic white neighborhoods. This is called home appraisal bias.

An appraisal represents an expert opinion of the value of a home. It is determined by a licensed professional who applies industry standard rules and practices.

The appraisal is critical to securing a mortgage to purchase a home or to refinancing an existing mortgage. It can determine whether an applicant gets a mortgage and influence how much the mortgage costs. For example, if a borrower must take out a mortgage for more than 80% of a property’s value, they may be required to pay for private mortgage insurance in some cases. Getting the appraisal value right is key to ensuring that homebuyers and those seeking to refinance a mortgage can do so under fair and equal conditions.

We are two academics who study urban places and the people who live in them. Together, we have more than 80 years of experience working at federal civil rights agencies, teaching at research universities and consulting for the housing industry, city and state agencies, and nonprofits.

Most recently we have been working with Philadelphia Mayor Cherelle Parker on a plan to reduce racial bias in home appraisals in Philly.

Fair Housing Act of 1968

In 1968, President Lyndon Johnson signed the Fair Housing Act, which made it unlawful to deny housing based on race, color, religion or national origin. Congress added sex in 1974 and handicap and familial status in 1988.

The Fair Housing Act was passed just seven days after the assassination of the Rev. Martin Luther King Jr. and two months after the release of the Kerner Commission report. This federal report examined the causes of racial violence in the U.S. in the 1960s and concluded, “Our nation is moving toward two societies, one black, one white, separate and unequal.”

Passage of the Fair Housing Act did not end housing discrimination. But over the years, residential segregation has declined slowly, and the most egregious and overt discriminatory acts, such as cross burnings and blockbusting, rarely happen anymore.

In recent years, attention has focused on racial disparities in home valuation established by appraisals. This reflects, in part, some high-profile, public allegations of racial bias in appraising revealed through homeowners’ “whitewashing” of their homes.

Whitewashing describes how a Black homeowner who receives a low appraisal removes all signs that a Black person lives in a home, replaces family photos with photos of white people, and has a white friend at home when a second appraiser arrives, giving the impression that it is the home of a white family. Bias is revealed when the second appraisal produces a higher value than the first.

The fact that 94% of appraisers and assessors in the U.S. are white may be a contributing factor.

Appraisal discrimination is unfair, contributes to racial wealth disparities and violates the Fair Housing Act.

Home appraisal bias is a national issue

Multiple studies establish that homes in Black and brown neighborhoods across the U.S., all else equal, are valued less than comparable homes in white neighborhoods. Appraisal bias is just one factor in this, as are historical and contemporary redlining and real estate practices, individual choices and other factors.

One way to identify appraisal discrimination would be to compare how often appraisals are below agreed-upon sale prices in nonwhite neighborhoods compared to white neighborhoods. Our research has documented that appraisals themselves are sometimes biased representations of home values.

Nationally, the percentage of appraisals below the sale price is substantially greater in nonwhite neighborhoods than in white neighborhoods. There is no apparent reason that appraisals should be systematically higher or lower than sale prices in nonwhite or white neighborhoods.

It’s a Philly issue too

Appraisal bias also persists in Philadelphia, as we’ve demonstrated in our own analyses using the Federal Housing Finance Agency’s uniform appraisal dataset, or UAD.

The UAD is the only neighborhood-level source of information on home appraisal activity. However, the dataset reports less than half of census tracts in Philadelphia because the FHFA often suppresses data due to privacy concerns. In tracts with few transactions, reporting the data could identify individual homeowners.

Earlier this year, we employed a different approach using 2021-24 lending data from the Home Mortgage Disclosure Act. HMDA is an annually released federal database containing detailed information on most mortgage applications in the U.S. The data includes race, mortgage characteristics, property value, location and other details.

We wanted to understand whether there was a pattern of denied applications for cash-out refinance mortgages where the lender’s single reason for denial was collateral, which is generally established by the appraisal. Cash-out refinance mortgages are loans that pay off the homeowner’s existing loan and allow that homeowner to additionally borrow some of the equity they have in their home.

Our study shows that it was substantially more frequent that collateral was the single reason for that denial in nonwhite neighborhoods and for nonwhite homeowners.

This was the case whether the homeowner was seeking a conventional mortgage or a mortgage insured by the Federal Housing Administration. FHA borrowers frequently have lower credit or a lower down payment than a conventional borrower and pay an insurance fee that compensates for the higher risk they represent.

These two Philadelphia-based studies used different methodologies to arrive at the same conclusion, which we shared in a September 2025 report for the nonprofit Reinvestment Fund, where one of us is a senior adviser. That conclusion is this: Whether you want to buy a home or access the stored wealth in the home you already own in Philadelphia, you are disadvantaged in the valuing of the real estate if you are a person of color or if the home is located in a mostly Black or Hispanic neighborhood.

Possible solutions

Remedies are available, but in the current political climate the burden is increasingly on local governments, nonprofit advocacy groups and industry actors rather than the federal government.

More transparency: The home appraisal industry is opaque. While the uniform appraisal dataset provides some insight into appraisal bias, much of its data is not public. Further, the U.S. Department of Housing and Urban Development has not included neighborhood-level appraisal data for Federal Housing Administration transactions.

A national database of appraisals, similar to the HMDA database for loan applications, would improve transparency and accountability. While the HMDA did not eliminate lending discrimination, it is a valuable tool to uncover and address discrimination.

Get informed: A fair appraisal ensures that homeowners have an independent, accurate, expert opinion of the value of their home. But homeowners must understand how that opinion was derived and how they can contest that opinion of value when appropriate. Some lenders now allow an owner to get a second opinion if the owner feels the appraised value is inaccurate.

Raise public awareness: Local officials can inform the public about the nuts and bolts of appraisals and outline what can be done when bias occurs. Philadelphia is taking steps. The city’s Home Appraisal Bias Program is working to increase diversity of local appraisers, enhance appraisal transparency and educate consumers.

File a complaint: HUD has substantially pulled back from combating appraisal bias, including disbanding the Biden-era PAVE Task Force, which was making progress on the issue. The Trump administration has further impaired enforcement of the Fair Housing Act through layoffs and the withdrawal of critical policies long found to be effective in fighting housing discrimination.

Nevertheless, those who believe they have been subjected to appraisal bias can file complaints with HUD or their state or local fair housing agencies. This will at least create a record of the frequency of the issue.

Given the reduced role of the federal government today, there is an extra burden on state and local civil rights agencies and nonprofits to ensure alleged violations are investigated and, when appropriate, prosecuted.

Read more of our stories about Philadelphia and Pennsylvania, or sign up for our Philadelphia newsletter on Substack.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Black and Latino homeowners in Philly face discrimination when appraisers assess their properties – https://theconversation.com/black-and-latino-homeowners-in-philly-face-discrimination-when-appraisers-assess-their-properties-268479

What’s a ‘black box’ warning? A pharmacologist explains how these labels protect patients

Source: The Conversation – USA (3) – By C. Michael White, Distinguished Professor of Pharmacy Practice, University of Connecticut

Black box warnings can influence whether or not clinicians decide to prescribe a drug. SDI Productions/E+ via Getty Images

A “black box” warning on a health product sounds pretty scary – maybe even more so when it’s suddenly being taken off the packaging.

Americans were reminded of this type of public health messaging on Nov. 10, 2025, when the Food and Drug Administration announced it is removing the “black box” warning from hormone replacement therapy for menopause.

But what are these warnings, anyway? What’s their history, and how do they affect a drug’s use?

I am a clinical pharmacologist and pharmacist studying drug prescribing, safety and effectiveness for over 25 years.

Black box warnings – or as the FDA officially calls them, boxed warnings – are a tool for alerting pharmacists and clinicians that the medication may have serious risks. These health care professionals are then expected to communicate those risks to consumers.

An official source of drug information

Black box warnings for particular medications appear on the product package inserts that the FDA requires pharmaceutical companies to create for each prescription drug.

Product package inserts provide official information about the drug to health care professionals. These pamphlets are attached to bulk containers of drugs purchased by pharmacies so that the pharmacist has the most updated official information on the product. The package inserts are also published in textbooks such as the Physician’s Desk Reference and on websites maintained by drug manufacturers.

The requirement for product package inserts came out of a consumer protection law passed in 1966, called the Fair Packaging and Labeling Act, which aimed to prevent unfair or deceptive packaging in products used by consumers.

The package insert carries a set of official information about the drug, provided by the manufacturer and regulated by the FDA. The insert must include who the drug is approved for, proper dosing and administration, and a description of the key clinical trial results that showed it was effective and safe.

It must also disclose any health risks that the drug poses – such as a boxed warning.

Flagging safety risks

The FDA has two categories for the health risks that medications could pose: precautions and warnings. Both are listed on the package insert.

Precautions warn clinicians of possible harm that could result in minor or moderate injury to patients. Warnings, on the other hand, alert them to the potential risk of dangerous adverse events that could result in serious injury or death. The most serious warnings for a drug are called boxed warnings. The text of those warnings is enclosed by a black box on the insert so they will not be missed by clinicians.

According to a 2022 study, more than 400 medications currently carry black box warnings.

The FDA announced it was removing the black box warning from hormone therapy for menopause.

Antidepressants are one example. While such drugs can lessen the severity of depression symptoms, researchers have found that during the first few weeks of taking them, patients have an increased risk of suicide – particularly children and young adults. The FDA first issued a black box warning about the drugs’ use in children and adolescents in 2004 and expanded the warning to young adults in 2007.

Another example is clozapine, a drug used to suppress delusions experienced by people with schizophrenia. Although the drug is very effective, the FDA first gave it a black box warning when it was reintroduced to the market in 1989 because it can stop the production of white blood cells, potentially leading to life-threatening infections.

Hormone replacement therapy for menopause got its black box warning in 2003 after a clinical trial called the Women’s Health Initiative pointed to an increased risk of breast cancer without a reduced risk of heart disease in women who used it.

In subsequent years, reanalyses of the Women’s Health Initiative results, as well as data from other studies, have shown that the therapy is safe in women ages 50 to 60. Newer, safer formulations of estrogen and progestin have also emerged. These factors prompted the FDA to remove the warnings in November 2025, saying the therapy doesn’t pose significant risks.

Medical and legal realities

Black box warnings can influence clinicians’ choice of whether or not to prescribe a particular drug. For example, since other drugs for schizophrenia do not carry the serious risks that clozapine does, clinicians usually reserve that medicine for people who could not use those other drugs.

The black box warnings can also play a role in malpractice cases. In some states, package inserts and any warnings they contain can be used to establish a standard of care, leaving clinicians who deviate from them liable for damages. In other states, the warnings they list can be used to support findings of negligence.

For instance, the black box warning on the insert of the drug thalidomide states it can cause birth defects. It instructs clinicians to obtain a
a negative pregnancy test before use and ensure the patient is not able to get pregnant or is taking precautions to avoid pregnancy before prescribing. Failure to do so could make the clinician liable if the person taking the drug bears a child with birth defects.

Product package inserts are living documents. As new information becomes available, the FDA may find a medication’s risk is untenable and request the drug be removed from the market. Or it may decide to remove the boxed warning from the drug if new data shows the drug is less dangerous than previously thought.

The Conversation

C. Michael White does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. What’s a ‘black box’ warning? A pharmacologist explains how these labels protect patients – https://theconversation.com/whats-a-black-box-warning-a-pharmacologist-explains-how-these-labels-protect-patients-269470