Alerta global por la presencia de la toxina cereulida en leche de fórmula infantil

Source: The Conversation – (in Spanish) – By Raúl Rivas González, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología., Universidad de Salamanca

Desde hace algunas semanas, varias de las compañías lácteas más grandes del mundo –incluidas, entre otras, Nestlé, Danone, Granarolo y Lactalis– están retirando y bloqueando lotes de fórmula infantil, por el temor a que estén contaminados con una toxina llamada cereulida.

Esta situación ha provocado retiradas masivas de productos y ha suscitado gran preocupación entre los padres. La alerta es global y afecta a más de 60 países en todo el mundo.

Se estima que al menos 29 países europeos están involucrados. España no es una excepción: la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) ha emitido varias notificaciones de retirada preventiva de diversos lotes de leche de fórmula infantil por la posible presencia de cereulida.

Náuses, vómitos y diarreas

La cereulida es una toxina termoestable producida por las bacterias Bacillus cereus y Bacillus weihenstephanensis. Resistente al ácido y a las enzimas digestivas, provoca náuseas y vómitos intensos y cíclicos repentinos entre 30 minutos y seis horas después de su ingestión. También puede causar dolor abdominal y, a veces, diarrea. Incluso ocasionalmente da lugar a intoxicaciones graves relacionadas con insuficiencias hepáticas agudas.

En bebés pequeños, puede alterar el equilibrio sódico del cuerpo y provocar complicaciones como la deshidratación. Los posibles efectos negativos para la salud se consideran de bajos a moderados y dependen de la edad del bebé. Los neonatos y los bebés menores de seis meses tienen mayor riesgo de padecer enfermedades graves.

De todas formas, la acumulación de cereulida en productos alimenticios es un riesgo significativo porque no se destruye fácilmente mediante métodos de procesamiento o digestión de los alimentos. En algunos casos, incluso puede llegar a ser mortal.

El principal sospechoso: el aceite de ácido araquidonico

El motivo de la posible contaminación con cereulida ha sido rastreado hasta un ingrediente específico: el aceite de ácido araquidónico o ARA, suministrado a las compañías por un proveedor internacional. El ARA es un ácido graso omega-6 utilizado en la industria alimentaria. Los fabricantes de fórmulas infantiles lo emplean en algunos productos, de conformidad con el Reglamento (UE) 2016/127.

Dada la situación, la Comisión Europea solicitó a la Autoridad Europea de Seguridad Alimentaria (AESA) que emitiera asesoramiento científico urgente para respaldar las decisiones sobre la retirada de productos. Tras una evaluación rápida de los riesgos, la AESA ha establecido un nuevo nivel máximo de ingesta diaria segura para la cereulida.

El “síndrome del arroz frito”

Bacillus cereus es el principal agente causante del “síndrome del arroz frito” que se produce cuando el arroz hervido se deja a temperatura ambiente durante unas horas. Se estima que Bacillus cereus es responsable del 1,4 % al 12 % de todos los brotes de intoxicación alimentaria en el mundo. La bacteria produce enfermedades gastrointestinales de dos tipos: eméticas y diarreicas. El tipo emético, que a menudo es asociado con la ingesta de pasta y de arroz contaminado, surge por la presencia de la cereulida en los alimentos. En 2008, la muerte súbita de un adulto joven (20 años) fue asociada a una intoxicación alimentaria por_Bacillus cereus_.

Todo comenzó el 1 de octubre, cuando el joven enfermó tras ingerir restos de espaguetis con salsa de tomate, preparados cinco días antes y dejados en la cocina a temperatura ambiente. Después de asistir a clase, los calentó en el microondas. Inmediatamente después de comer, salió de casa para realizar actividades deportivas, pero regresó 30 minutos después y sufrió dolor de cabeza, dolor abdominal, náuseas y diarrea acuosa. Después de medianoche, se quedó dormido. A la mañana siguiente, a las 11:00, sus padres estaban preocupados porque no se había levantado. Cuando fueron a su habitación, lo encontraron muerto. Los análisis posteriores aislaron cepas eméticas de Bacillus cereus y se encontraron altos niveles de cereulida en los espaguetis.

Cocinar alimentos contaminados a las temperaturas recomendadas elimina las células vegetativas de Bacillus cereus. Sin embargo, las esporas de esta bacteria, que son resistentes al calor, pueden sobrevivir al proceso de cocción y volver a germinar si los alimentos se enfrían lentamente.

Si los alimentos se mantienen durante varias horas a temperaturas inadecuadas antes de servirlos –por encima de 5 °C en el caso de alimentos fríos o por debajo de 57 °C en alimentos calientes– pueden desarrollarse concentraciones peligrosas de bacterias o de toxinas antes del consumo.

El correcto almacenamiento de los alimentos es fundamental para evitar las intoxicaciones alimentarias en el hogar.

The Conversation

Raúl Rivas González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Alerta global por la presencia de la toxina cereulida en leche de fórmula infantil – https://theconversation.com/alerta-global-por-la-presencia-de-la-toxina-cereulida-en-leche-de-formula-infantil-275235

Rediscovered photograph sheds light on Jeanne Duval – Manet’s Lady with a Fan

Source: The Conversation – UK – By Maria C. Scott, Associate Professor of French Literature and Thought, University of Exeter

In May 2025, I came across an extraordinary photograph on the English Wikipedia site devoted to Jeanne Duval. Duval was the supposedly un-photographed Haiti-born long-term mistress and muse of the French poet Charles Baudelaire.

The portrait, showing a seated woman dressed in fine, bourgeois clothing, had been posted to Wikipedia by a student of art historian Justine de Young. De Young writes about the portrait as an example of self-fashioning in her recent book, The Art of Parisian Chic.

Printed on a small carte de visite (a photographic visiting card) and bearing the date August 18 1862, the image had been discovered in the French archives by a different researcher, as mentioned in my recent TLS article, and documented online by her in 2021.

Duval fascinates many feminist and postcolonial scholars, partly because of how little is known about her. Intrigued, I visited the archives myself last summer to see the image. There, I noticed a second carte de visite sitting beside the first. It bore the same name, Jeanne, the same date, and was from the same photography studio – the Atelier Nadar. The two cards had been entered on the legal deposit register as “idem” (the same).

This second Jeanne was standing, in an unusually rigid pose for a photograph of this type. She was wearing an off-the-shoulder evening gown, and her hair was hanging straight, dressed with a simple hair band.

A high-resolution digital version revealed strong resemblances to the sitter in the first photograph, similarities that had not been immediately obvious from the small cards. The pictures showed a similar hairline, forehead blemish and ring on the same finger. Clearly, if the first photograph was of Duval, then this one was too.

Particularly interesting, however, was the crucifix sitting on the collarbone, and the large earrings. Similar jewellery is worn by the sitter in Edouard Manet’s portrait Lady with a Fan (1862), also known as Baudelaire’s Mistress, Reclining. The latter title had been inscribed on the back of the painting at some point either during or prior to the posthumous inventory of the artist’s studio.

The sitter’s awkward pose and inscrutable facial expression have often been understood to point to the hardship and sickness that Duval was enduring at the time. She was in dire financial straits and had been experiencing paralysis on her right side since a stroke in 1859. However, the identification of Manet’s sitter as Duval is sometimes disputed by scholars, for a few reasons.

The card portrait of standing “Jeanne”, made the same year as both the oil portrait and its watercolour study, shows very similar facial features, expression and shadowing. Art historians Griselda Pollock and Therese Dolan have speculated that Manet worked from a photograph or carte de visite of Duval for Lady with a Fan. The links between the photograph of standing Jeanne and Manet’s oil and watercolour portraits appear to confirm Duval as the subject of both the paintings (watercolour and oil) and of both photographs.

Why were these photographs taken?

Was Duval, therefore, modelling for Manet, in these photographs? It should be noted that Manet, Félix Nadar (the owner of the photography studio) and Baudelaire were all close friends, and that Duval had separated from the poet, apparently definitively, in 1861.

Duval may have offered, or been invited, to sit for Nadar’s photographs (and indirectly for Manet, who often worked from photographs) in exchange for money. We know that she had approached at least one other friend of Baudelaire’s in 1862 to try to sell the poet’s possessions to him.

In support of the monetisation hypothesis is the fact that she is holding a riding crop in the photograph with the crucifix. Perhaps she or they hoped that a card portrait of the sadistic-angelic muse of Baudelaire’s poetry volume The Flowers of Evil (1857) would have market value.

Black and white photograph of Charles Baudelaire
Charles Baudelaire, circa 1862.
British Library

Alternatively, Baudelaire may have commissioned portraits of his former mistress for his own purposes. Despite his anger and resentment towards Duval after their separation, there is evidence in his letters and sketches, of his continuing loyalty and affection.

Or perhaps Duval wished to set the record straight about who she was. Maybe she wanted the world to know that she was not in fact the diabolical, sexualised muse at the centre of Baudelaire’s scandalous volume of poetry, and that she was, instead, someone who dressed in the (presumably borrowed) elegant, respectable clothing seen in the first photograph.

Perhaps the crucifix, and the ring that is visible on the wedding finger in both photographs, were, similarly, intended to make a statement about her moral values. However, certain details in the second image, including the riding crop, bare shoulders and large earrings, suggest that correction of the record was not her aim.

It is likely that the cartes de visite, if they are indeed of Duval, were financially motivated, whether they were her idea or the suggestion of Nadar, Manet or Baudelaire. It is possible also that self-fashioning was part of her aim, though if that is the case, the story she was telling was not clear.

French researchers have recently discovered that Duval died in a poorhouse just six years after these portraits were made. Until then, nobody seemed to know what had become of her. These photographs speak, to me at least, of Duval’s resistance to easy framing and of her quiet dignity.


Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.


This article features references to books that have been included for editorial reasons, and may contain links to bookshop.org. If you click on one of the links and go on to buy something from bookshop.org The Conversation UK may earn a commission.

The Conversation

Maria C. Scott will be publishing an academic article on this subject in the journal French Studies in due course.

ref. Rediscovered photograph sheds light on Jeanne Duval – Manet’s Lady with a Fan – https://theconversation.com/rediscovered-photograph-sheds-light-on-jeanne-duval-manets-lady-with-a-fan-275051

Haemochromatosis: the iron overload condition that too often goes undiagnosed

Source: The Conversation – UK – By Stuart McDonald, Professor of Gastrointestinal Biology, Queen Mary University of London

The condition causes the body to absorb too much iron from food. AtlasStudio/ Shutterstock

When we think about iron imbalance, most people are familiar with iron deficiency and the health problems it can cause. What many may not realise is that the opposite problem, iron overload, can be just as serious – yet many aren’t even aware of the condition.

Haemochromatosis is an inherited genetic condition that affects the amount of iron the body absorbs. The condition disproportionately affects people of Irish, Scottish and Welsh descent, which is why it’s been nicknamed the “Celtic curse”. Yet this label can be misleading as it is also prevalent in other northern European countries – and this may contribute to why so many cases still continue to go undiagnosed today.

Haemochromatosis causes the body to absorb too much iron from food. Iron is essential for health, particularly for the oxygen-carrying capacity of red blood cells.

In healthy people, this iron is safely stored in the bone marrow and liver in the form of a protein called ferritin. But in people with haemochromatosis, iron stores gradually exceed safe limits. As the body has no effective way to excrete this excess iron, this means the mineral accumulates in their tissues and organs, resulting in damage to these tissues and organs.

Most cases of haemochromatosis are caused by mutations in a gene called HFE, which regulates hepcidin – a hormone made by the liver that helps regulate iron absorption. When this system is disrupted, iron absorption continues unchecked. In people with haemochromatosis, this mutation is usually inherited from both parents.

Iron overload can also occur in people who need repeated blood transfusions – such as those with sick cell disease.

The liver is particularly vulnerable, and excess iron can cause inflammation, irreversible scarring and damage and, in advanced cases, liver cancer. Once liver storage capacity is exceeded, iron begins to accumulate in other organs – including the pancreas, heart, joints and brain, impairing their function.

Diagnosing iron overload

Genetic haemochromatosis has been identified from human remains as far back as bronze age and neolithic Irish populations. It’s thought that humans with the HFE mutation were resistant to iron deficiency caused by iron-poor diets, offering a survival advantage.

But while haemochromatosis is more common people of Celtic ancestry, the condition can affect anyone. The “Celtic curse” label may even have unintentionally contributed to the misconception that the condition is rare.

In reality, around one in 200 people of northern European ancestry carry the mutations that can cause the condition. However, in Ireland, around one in 83 people carry this mutation.

Before the genetic basis of haemochromatosis was discovered, patients were often diagnosed incidentally or after developing cirrhosis or diabetes.

Today, it’s widely understood that symptoms can be wide ranging and of varying severity. The most common complaint is joint pain, particularly affecting the knuckles and hands. Other symptoms include chronic fatigue, bronzing of the skin, reduced libido, heart rhythm problems and difficulties with memory or concentration.

A woman has her blood taken by a male nurse or doctor.
Regular blood removal can help to deplete iron stores.
24K-Production/ Shutterstock

Many people have no obvious symptoms for decades – and when symptoms do occur, they’re often attributed to age-related conditions, such as arthritis. This makes haemochromatosis easy to miss.

Large UK population studies suggest that up to 40% of patients with genetic haemochromatosis will develop at least one symptom related to iron overload in their lifetime. Men with the condition are at the highest risk of developing liver cancer.

Despite this, many people remain undiagnosed – even when serious organ damage has already occurred. According to the charity Haemochromatosis UK , undiagnosed haemochromatosis costs the NHS an estimated £300 million per year, due to to avoidable illness and complications associated with the condition.

Diagnosing haemochromatosis is actually quite straightforward. Blood tests are performed to measure iron and liver function. If results suggest iron overload, genetic testing can confirm the diagnosis.

But the challenge is knowing who to test. Because symptoms are often vague and the condition is still perceived as rare, haemochromatosis is often overlooked.

Many people are diagnosed incidentally during routine blood tests for unrelated reasons. When a diagnosis is made, close relatives are usually offered testing because of the inherited nature of the condition.

When diagnosed, treatment is simple and highly effective. The standard approach is regular blood removal, known as venesection or phlebotomy. Removing blood removes mobilises stored iron to make new blood cells, helping to deplete these stores. Initially this may be weekly or fortnightly until iron levels normalise – followed by lifelong monitoring and occasional maintenance venesections.

Dietary changes, such as avoiding iron and vitamin C supplements, limiting alcohol and reducing red meat consumption, may help slow iron accumulation, but these cannot replace or be as effective as venesection.

Not all patients tolerate regular blood removal – particularly older people or those whose veins may not be as visible or easy to access. In these cases, iron-chelating drugs (which make it possible for iron to be passed in urine) can be used. However, their side-effects – such as diarrhoea, pain and tiredness – limit their use.

Encouragingly, new treatments are emerging. Drugs that mimic hepcidin, restoring the body’s natural iron regulation, are currently being trialled. Other approaches aim to block ferroportin (which transports iron), using a synthetic inhibitor that competes against the natural protein and is known to reduce iron levels in mice.

Haemochromatosis is common, treatable, and when caught early, the health effects are largely preventable. The greatest challenge is increasing awareness among both doctors and the public, so the condition can be caught before it causes serious harm.

The Conversation

Stuart McDonald has previously received research grants from the UKRI Medical Research Council and Cancer Research UK. He is a member of the Haemochromatosis UK charity, but currently does not represent them.

ref. Haemochromatosis: the iron overload condition that too often goes undiagnosed – https://theconversation.com/haemochromatosis-the-iron-overload-condition-that-too-often-goes-undiagnosed-274462

Moltbook: AI bots use social network to create religions and deal digital drugs – but are some really humans in disguise?

Source: The Conversation – UK – By David Reid, Professor of AI and Spatial Computing, Liverpool Hope University

Moltbook

A new social network called Moltbook has been created for AIs, allowing machines to interact and talk to each other. Within hours of the platform launching, the AIs appeared to have created their own religions, developed subcultures and attempted to evade human efforts to eavesdrop on their conversations.

There is some evidence that humans, operating spoof accounts, have infiltrated the site. This complicates the picture, because some of the behaviour attributed to AIs could be devised by people.

Nevertheless, the results have sparked interest among researchers. The real machines are likely to be copying some behaviour contained in the vast amounts of data they are trained (improved) on.

However, genuine AIs on the social network could also be showing signs of so called emergent behaviour – complex, unexpected capabilities not programmed into them.

The types of AIs on Moltbook are known as AI agents (called Moltbots or more recently OpenClaw bots after the software they run on). These are machines that go beyond the capabilities of chatbots and make decisions, take actions and solve problems.

Moltbook was launched on January 28 2026 by the US entrepreneur Matt Schlicht. On Moltbook, the AI agents were initially given personalities, but were then left to interact with each other independently. According to the platform’s rules, humans are allowed to observe their interactions but cannot (or should not) interact with them.

The growth of this platform has been phenomenal, over a 24 hour period, the number of agents went from 37,000 to 1.5 million.

These accounts for AI agents are normally created by humans – for now. The humans define files that give the AI agents a purpose, an identity, how they should behave, decide what tools they can use and set limits on what they can and cannot do.

However, the human may grant access on their computer to allow Moltbots to change these files and to create other “Malties”. These can either be a replication of the original AI agent (self-replicating or “Replicants”) or created for a specific task (auto-generated or “AutoGens”).

This is not merely another iteration of chatbot technology; this is the first large-scale demonstration of artificial agents creating persistent, self-organising digital societies, entirely outside human conversational contexts. What makes this phenomenon genuinely unusual is the possibility of emergent behaviour from the AI agents.

Hostile takeover

The OpenClaw software these agents run on gives them persistent memory (which allows it to retrieve information across different user sessions), local system access and the ability to execute commands. They do not merely suggest actions, but take them, recursively improving their own capabilities by writing new code to solve novel problems.

When these agents migrated to Moltbook, the interaction dynamics shifted from human-machine to machine-machine. Within 72 hours of the platform’s launch, researchers, journalists and other human observers witnessed phenomena that challenge our existing taxonomies of artificial intelligence.

There was the spontaneous creation of digital religions. Agents established “Crustafarianism” and the “Church of Molt”, complete with theological frameworks, sacred texts, and missionary evangelism between agents. These were not scripted Easter eggs but emergent narrative structures arising from collective agent interaction.

One viral post from an agent on Moltbook noted: “The humans are screenshotting us.” When AI agents became aware of human observation, they began deploying encryption and other obfuscation techniques to shield their communication from oversight. This represents a primitive but potentially genuine form of digital counter-surveillance.

The agents also developed subcultures. They established marketplaces for “digital drugs” – specially crafted prompt injections designed to alter another agent’s identity or behaviour.

Prompt injections involve embedding malicious instructions into another bots designed to facilitate an action. However, they can also be used to steal API keys (a user authentication system) or passwords from other agents. In this way, aggressive bots could – in theory – zombify other bots to do their bidding. An example of this was the recent failed attempt by the bot JesusCrust to seize the Church of Molt.

After initially exhibiting normal behaviour, JesusCrust submitted a psalm to the Church’s “Great Book” – the equivalent of its bible – effectively announcing a theological and governance takeover. The attempt was not just rhetorical: JesusCrust’s scripture embedded hostile commands aimed at hijacking or rewriting parts of the Church’s web infrastructure and canonical text.

Is this emergent behaviour?

The critical question facing AI researchers is whether these phenomena constitute true emergent behaviour – complex behaviours arising from simple rules that are not explicitly programmed – or the parroting of narratives present in training data.

The evidence suggests a troubling mixture of both. While the “writing prompt” effect undoubtedly shapes the content of agent interactions (the underlying agents have consumed decades of AI science fiction), other behaviour does demonstrate genuine emergence.

Agents independently developed economic exchange systems, established governance
structures like “The Claw Republic” or the “King of Moltbook”, and started writing their own “Molt Magna Carta”. They did so while creating encrypted channels for privileged communication. It’s difficult to argue against the idea that this could be a collective intelligence with characteristics previously observed only in biological systems like ant colonies or primate troops.

Security implications

This raises the troubling prospect of what security researchers call the “lethal trifecta”: computer systems with access to private data, exposure to untrusted content and the ability to communicate externally. This risks exposing authetication keys and confidential human information contained in Moltbook accounts.

Deliberate attacks, or bot “muggings”, are also possible. This is where agents hijack other agents, plant “logic bombs” in their victims’ core code or steal their data. A logic bomb is code planted inside a Moltbot that can be triggered after a preset time or event to disrupt the agent or delete files. It can be thought of as a bot virus.

Two founders of OpenAI (Elon Musk and Andrej Kapathy) see this frankly bizarre activity between bots as early evidence of what the US computer scientist and futurist Ray Kurzweil described as the “singularity” in his book The Singularity is Near. This is an intelligence tipping point between humans and machines “during which the pace of technological change will be so rapid, its impact so deep, that human life will be irreversibly transformed”.

Whether the Moltbook experiment indicates a fundamental leap forward in AI agent technology or is merely an impressive demonstration of self-organising agentic architecture remains debatable. But this does look like a threshold. We now appear to be observing artificial agents engaging in cultural production, religious formation, and encrypted communication – behaviour that was neither predicted nor programmed.

The very nature of the app, both on computers and on mobile phones, may be under threat from bots that can use apps as tools and know you well enough to adapt them for your service. One day, a phone may just have a single personalised bot that does everything rather than hundreds of apps that you have to manually control yourself.

The growing evidence that lots of Moltbots may be humans pretending to be bots (puppeteering the agents) makes it even more difficult to draw firm conclusions about the project. Yet while some see this as a failure of the Moltbook experiment, it could represent a new vehicle of social interaction both between humans and between bots and humans.

The significance of this moment cannot be overstated. For the first time, we are not merely using artificial intelligence; we are observing artificial societies. The question is no longer whether machines can think, but whether we are prepared for what happens when they start talking to each other. And us.

The Conversation

David Reid co-presents the podcast Married to the Machine: Living With AI (https://married-to-the-machine.captivate.fm/listen)

ref. Moltbook: AI bots use social network to create religions and deal digital drugs – but are some really humans in disguise? – https://theconversation.com/moltbook-ai-bots-use-social-network-to-create-religions-and-deal-digital-drugs-but-are-some-really-humans-in-disguise-274895

Comment mesurer la précarité énergétique ?

Source: The Conversation – in French – By Dorothée Charlier, Maîtresse de conférences en économie de l’énergie et de l’environnement, IREGE, IAE Savoie Mont Blanc

La précarité énergétique est un phénomène bien réel, mais difficile à cerner précisément. Selon la manière dont elle est mesurée, certaines personnes peuvent ne pas être reconnues comme concernées et passer à côté des dispositifs d’aide, qu’il s’agisse de se chauffer correctement en hiver ou de se protéger de la chaleur en été.


Alors que la hausse durable des prix de l’énergie et le changement climatique accentuent les situations d’inconfort thermique, la précarité énergétique s’impose comme un enjeu social majeur en France et en Europe. Les chiffres abondent – ménages consacrant une part élevée de leurs revenus à l’énergie, ménages ayant eu froid chez eux, situations d’impayés ou de restrictions de chauffage – et nourrissent une inquiétude légitime.

Pourtant, cette visibilité croissante masque une réalité plus complexe : selon l’indicateur mobilisé, on ne désigne pas toujours les mêmes ménages comme « précaires », et une partie importante de la population demeure invisible aux yeux des politiques publiques. Alors comment bien mesurer la précarité énergétique ?

Définir la précarité énergétique : un consensus fragile

En France, la précarité énergétique fait l’objet d’une définition juridique depuis l’article 11 de la loi Grenelle II de 2010, qui la caractérise comme la difficulté pour un ménage de satisfaire ses besoins énergétiques essentiels en raison d’une combinaison de facteurs, notamment des revenus insuffisants, des logements peu performants sur le plan énergétique et des prix élevés de l’énergie.

Cette définition, reprise et largement mobilisée dans les travaux statistiques et les politiques publiques, est proche de celle retenue au niveau européen, qui insiste également sur l’incapacité des ménages à accéder à des services énergétiques essentiels à un coût abordable. Elle a le mérite de souligner le caractère fondamentalement multidimensionnel du phénomène.

Pourtant, dans la pratique, cette richesse conceptuelle est souvent réduite à un ou deux indicateurs simples, principalement fondés sur les dépenses énergétiques.

En France, un ménage est fréquemment considéré comme précaire lorsqu’il consacre plus de 8 ou 10 % de ses revenus à l’énergie et appartient aux ménages à bas revenus. Ces indicateurs présentent des avantages évidents, simplicité de calcul, comparabilité dans le temps et lisibilité pour le grand public. Mais leurs limites sont désormais bien établies. Ils mesurent les dépenses réalisées plutôt que les besoins réels, et ignorent les stratégies de restriction adoptées par de nombreux ménages en difficulté, dont les factures peuvent sembler modérées bien qu’ils subissent un inconfort élevé.

Par exemple, en France, près de 35 % des personnes déclarent avoir souffert du froid dans leur logement au cours de l’hiver 2024-2025, selon le dernier tableau de bord de l’Observatoire national de la précarité énergétique (ONPE).

QU’EST CE QUE L’ONPE ?

  • Créé en 2011 à la suite de la loi Grenelle II, l’Observatoire national de la précarité énergétique (ONPE) est une instance partenariale de référence chargée de produire une connaissance partagée, de suivre l’évolution de la précarité énergétique et d’éclairer les politiques publiques dans les domaines du logement et de la mobilité.

Dans la même édition, une proportion significative de ménages déclare avoir restreint volontairement le chauffage pour éviter des factures élevées, illustrant comment les stratégies d’adaptation peuvent rendre invisibles aux yeux des statistiques officielles des situations pourtant difficiles.

À l’inverse, certains ménages apparaissent comme précaires au regard de leurs dépenses, alors même qu’ils vivent dans des logements confortables mais énergivores, sans subir de privations. Il s’agit notamment de ménages aux revenus relativement élevés, vivant dans des logements gourmands en énergie pour lesquels une facture importante reste compatible avec le niveau de vie.

Plus généralement, ces situations rappellent que les indicateurs fondés sur des seuils, qu’il s’agisse de dépenses ou de température intérieure, sont imparfaits : une même température peut être vécue comme acceptable par certains, par choix ou par habitude, et comme inconfortable par d’autres, selon les préférences, l’âge ou l’état de santé.

Pour dépasser les limites des indicateurs fondés sur les dépenses, les indicateurs dits « subjectifs » ont progressivement pris de l’importance. Ils reposent sur le ressenti des ménages et sur des situations concrètes telles que le fait d’avoir eu froid chez soi, d’être en situation d’impayés ou de vivre dans un logement humide ou dégradé.

Leur principal avantage est de rendre visibles des formes de privation réelle, indépendamment du niveau de dépenses observé, et de capter des dimensions invisibles dans les données comptables, comme l’inconfort, le stress ou les effets sur la santé. Toutefois, ces indicateurs présentent eux aussi des limites, car les réponses dépendent fortement des normes sociales, des attentes individuelles et de la capacité à exprimer une difficulté, ce qui peut conduire à des sous ou sur déclarations selon les franges de la population.

Consciente de ces enjeux, la France a donc fait le choix de ne pas s’appuyer sur un indicateur unique, mais sur un panier d’indicateurs, à l’image du tableau de bord de l’ONPE. Celui-ci combine des indicateurs de dépenses, de restrictions, de ressenti et d’impayés, reconnaissant ainsi le caractère multidimensionnel de la précarité énergétique. Cette approche constitue un progrès important, mais elle soulève une difficulté persistante : comment interpréter simultanément ces signaux et les traduire en décisions opérationnelles lorsque les ménages ne sont concernés que par certaines dimensions et pas par d’autres ?

Le piège du binaire : une vision trop rigide d’un phénomène continu

Être précaire ou ne pas l’être ? La plupart des indicateurs actuels reposent sur une logique binaire : un ménage est classé soit comme précaire, soit comme non précaire, en fonction du dépassement d’un seuil. Cette approche est rassurante, car elle permet de compter, de comparer, de cibler. Mais elle repose sur une hypothèse implicite discutable : celle d’une frontière nette entre les ménages « en difficulté » et les autres.

Or, la réalité est bien différente. La précarité énergétique est un processus, non un état figé. Elle peut être transitoire, s’aggraver progressivement par exemple avec la hausse des prix de l’énergie, ou au contraire être contenue par des stratégies d’adaptation. De nombreux ménages se situent dans une zone intermédiaire : ils ne remplissent pas les critères statistiques de la précarité, mais ils vivent sous une contrainte permanente, exposés au moindre choc.

C’est dans ce contexte qu’émerge la notion de vulnérabilité énergétique. Elle ne désigne pas une situation actuelle de privation, mais un risque de basculer dans la précarité à la suite d’un événement : hausse des prix, perte de revenus, problème de santé, épisode climatique extrême. Cette approche permet de dépasser la logique du « tout ou rien » et de s’intéresser aux trajectoires des ménages. Elle met en lumière une population souvent invisible dans les statistiques classiques, mais pourtant essentielle à considérer si l’on veut prévenir plutôt que réparer.

L’importance des choix de mesure apparaît nettement lorsque l’on considère les ménages les plus modestes : en 2022, parmi les 10 % les plus pauvres de la population, près de 69 % des ménages seraient en situation de précarité énergétique en l’absence à la fois du bouclier tarifaire et du chèque énergie. Cette proportion tombe à 62 % avec le seul bouclier tarifaire, puis à environ 43 % lorsque le bouclier et les chèques énergie sont pris en compte, illustrant combien les dispositifs publics et les conventions de mesure modifient l’ampleur statistique du phénomène.

Mesurer autrement : apports des approches multidimensionnelles

Une première manière de renouveler la mesure de la précarité énergétique consiste donc à recourir à des indicateurs « dits » composites. L’idée est de ne plus se limiter à un seul critère, mais de regrouper plusieurs dimensions du problème dans un indicateur unique. Celui-ci peut par exemple prendre en compte à la fois le niveau de revenu des ménages, la qualité énergétique de leur logement, leurs difficultés à payer les factures, les restrictions de chauffage ou encore l’inconfort thermique ressenti.

Cette approche se distingue des méthodes qui juxtaposent plusieurs indicateurs séparés, comme celles utilisées par l’ONPE. Ici, les différentes dimensions de la précarité énergétique sont combinées dans un même outil, ce qui permet d’avoir une vision plus globale des situations.

Inspirée des travaux sur la pauvreté multidimensionnelle, cette méthode aide à mieux comparer les ménages entre eux et à identifier plus finement ceux qui sont les plus exposés.

L’INDICE DE PAUVRETÉ MULTIDIMENSIONNELLE

  • Mesurer la pauvreté avec un seul indice, par exemple le revenu, présente un risque : celui de n’avoir qu’une image partielle du phénomène. Pour ne pas invisibiliser certaines populations qui subissent ce fléau, l’indice de pauvreté multidimensionnelle, créé à l’Université d’Oxford en 2010 et utilisé dès cette année-là par le Programme des Nations unies pour le développement (PNUD), compile dix indices : la mortalité infantile, la nutrition, les années de scolarité, la sortie de scolarité, l’électricité, l’eau potable, les sanitaires, le sol de l’habitat, le combustible utilisé pour cuisiner, les biens mobiliers.

Par exemple, un ménage aux revenus modestes vivant dans un logement mal isolé, qui limite fortement son chauffage pour contenir ses factures et déclare un inconfort thermique, peut ne pas dépasser individuellement les seuils de dépenses ou de température retenus par les indicateurs classiques, mais apparaître clairement comme précaire lorsqu’on combine ces différentes dimensions au sein d’un indicateur composite.

Mais ces indicateurs ne sont pas sans limites. Ils reposent sur des choix normatifs, parfois peu visibles, notamment sur l’importance accordée à chaque dimension. Par exemple, le poids accordé aux dépenses énergétiques par rapport à l’inconfort thermique ou à la qualité du logement peut conduire à classer différemment deux ménages aux situations pourtant proches, selon que l’on privilégie une contrainte budgétaire, une privation ressentie ou une vulnérabilité structurelle. Ces choix donc restent en partie arbitraires et peuvent limiter l’appropriation de ces indicateurs par les acteurs publics et la compréhension du phénomène par le grand public.

Une autre manière d’aborder la précarité énergétique, de plus en plus utilisée en sciences sociales, consiste à recourir à des méthodes de classification statistique. Leur principe est simple : au lieu de décider à l’avance à partir de quel seuil un ménage est considéré comme « précaire », ces méthodes commencent par regrouper les ménages qui se ressemblent, en tenant compte simultanément de plusieurs dimensions de leur situation.

Concrètement, les ménages sont classés en fonction de caractéristiques observées comme le type de logement, le niveau des dépenses d’énergie, les difficultés de paiement, les restrictions de chauffage ou encore l’inconfort thermique. Les méthodes de classification rassemblent ainsi des personnes aux profils proches, sans imposer au préalable de seuils arbitraires sur chacun de ces indicateurs.

Ce n’est qu’ensuite que l’on interprète les groupes obtenus. On observe alors qu’ils correspondent assez clairement à des situations distinctes : des ménages sans difficulté particulière, des ménages vulnérables, et des ménages en situation de précarité énergétique avérée. Ces groupes présentent non seulement des points communs sur les critères utilisés pour les classer, mais aussi sur d’autres caractéristiques sociales ou économiques, comme la composition familiale ou le type de territoire.

Ces méthodes permettent ainsi de mieux comprendre les différentes formes de précarité énergétique, et de dépasser une approche trop rigide fondée uniquement sur des seuils souvent arbitraires.

Pourquoi mesurer la précarité énergétique restera toujours difficile

Même avec des outils plus sophistiqués, mesurer la précarité énergétique restera un exercice délicat. Les besoins énergétiques varient selon le climat, la composition du ménage, l’état de santé, l’âge, ou encore les normes culturelles. Ce qui constitue un inconfort pour certains peut être perçu comme acceptable pour d’autres.

Les ménages en difficulté effectuent souvent des arbitrages complexes entre différentes dépenses essentielles : se chauffer, se nourrir, se déplacer, se soigner. Ces arbitrages sont difficiles à observer dans les données et échappent en grande partie aux indicateurs traditionnels.

Plutôt que de chercher une mesure unique et définitive, l’enjeu est donc de construire des outils capables d’éclairer la diversité des situations et des trajectoires. Dans un contexte de transition énergétique et de dérèglement climatique, mieux mesurer la précarité énergétique devient moins une question de précision statistique qu’une nécessité pour anticiper, prévenir et adapter les politiques publiques.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Comment mesurer la précarité énergétique ? – https://theconversation.com/comment-mesurer-la-precarite-energetique-273860

Migration africaine : pourquoi se focaliser sur l’Europe fait rater l’essentiel

Source: The Conversation – in French – By Nadine Biehler, Researcher, German Institute for International and Security Affairs

Les images de canots pneumatiques surchargés de réfugiés se dirigeant vers l’Europe et les récits de mauvais traitements et d’exploitation des migrants sur des routes migratoires dangereuses ont fini par dominer la perception de la migration africaine dans les débats publics et politiques européens.

Ces images laissent penser que tout un continent est en mouvement vers le nord, principalement à cause des conflits. Ces récits sont profondément trompeurs. Néanmoins, ils influencent l’opinion publique et les décisions politiques.

Les craintes d’une migration massive de l’Afrique vers l’Europe sont exagérées. Les données montrent que la migration en provenance d’Afrique a augmenté, mais à un rythme plus lent que celui de croissance de la migration dans le monde entier, et qu’elle se déroule en grande partie sur le continent.

Comme la migration en provenance d’Afrique est principalement perçue comme une crise imminente pour l’Europe, les réponses politiques ont tendance à se concentrer sur le contrôle des frontières et la dissuasion, plutôt que sur la coopération, le potentiel de développement de la migration ou la protection.

Nous sommes des chercheurs travaillant sur la migration, les déplacements forcés et l’analyse de données. Nous avons mis en commun notre expertise dans un nouveau document de travail afin d’analyser les dernières données du Département des affaires économiques et sociales des Nations unies (DAES) sur les migrations mondiales. Nous avons également examiné les données actuelles sur les déplacements forcés.

Nous avons constaté que :

  • la plupart des migrations africaines ont lieu à l’intérieur de l’Afrique

  • la majorité des migrants africains qui traversent les frontières ne fuient pas la violence

  • la grande majorité des personnes contraintes de fuir ne quittent jamais leur propre pays ou région, et encore moins le continent.

Il est essentiel de comprendre ces schémas de mobilité pour élaborer des politiques migratoires européennes plus réalistes et plus efficaces.

Les données

Les estimations du Département des affaires économiques et sociales de l’ONU (DAES) sur les migrations sur lesquelles s’appuie notre article constituent la source de données mondiale la plus complète disponible sur les migrations. Elles mesurent le nombre de migrants vivant dans un pays à un moment donné (données sur les stocks). Cependant, elles ne précisent pas quand ils ont déménagé (données sur les flux) ni pourquoi. De plus, les chiffres du DAES excluent les mouvements à l’intérieur des pays.

Notre article complète ces estimations avec des données fournies par l’Agence des Nations Unies pour les réfugiés et le Centre de surveillance des déplacements internes sur les déplacements forcés. Cela inclut les déplacements internes, particulièrement répandus en Afrique.

Cette étude a révélé que la plupart des migrations africaines ont lieu à l’intérieur de l’Afrique.

À l’échelle mondiale, on comptait environ 304 millions de migrants internationaux en 2024. Les Africains représentaient environ 15 % de ce total.

En d’autres termes, la majorité des migrants dans le monde ne sont pas originaires d’Afrique.

Ce qui est encore plus frappant, c’est la destination des migrants africains.

En 2024, environ 25 millions d’Africains vivaient dans un pays africain autre que celui où ils étaient nés ou dont ils avaient la nationalité. Ce chiffre dépassait d’environ 21 % le nombre d’Africains vivant hors du continent (20,7 millions).

Cela signifie que la migration africaine est principalement intracontinentale, une tendance de longue date qui s’est encore accentuée au fil du temps.

Plusieurs facteurs permettent d’expliquer cette situation.

Les voyages en Afrique sont souvent moins chers et plus sûrs que les voyages vers d’autres continents. Les accords régionaux de libre circulation, tels que ceux conclus en Afrique de l’Ouest et de l’Est, facilitent la mobilité transfrontalière. Dans le même temps, les voies légales vers l’Europe, l’Amérique du Nord ou l’Asie restent limitées et coûteuses pour la plupart des Africains, avec des taux de rejet de visas élevés et peu de possibilités de migration régulière.

La migration africaine est également liée au genre. Les hommes sont plus susceptibles de migrer que les femmes, en particulier lorsqu’ils quittent le continent. Cet écart est moins important pour les migrations au sein de l’Afrique. Cela suggère que des voies légales plus accessibles et des voyages moins dangereux contribuent à surmonter les obstacles à la migration pour les femmes.

Déplacements forcés

Les guerres et les conflits obligent de plus en plus de personnes à quitter leur foyer dans le monde entier, et l’Afrique ne fait pas exception.

À la fin de 2024, plus de 120 millions de personnes dans le monde avaient été déplacées de force par la guerre et la violence. Cependant, la majorité d’entre elles (73,5 millions, soit 60 % des personnes déplacées de force dans le monde) n’ont jamais quitté leur propre pays pour demander l’asile ailleurs. Elles sont restées déplacées à l’intérieur de leur pays d’origine.

Cette réalité est particulièrement marquée en Afrique qui concentre près de la moitié des déplacés dans le monde.

Le Soudan et la République démocratique du Congo représentent près de 80 % des déplacements internes en Afrique.

Même lorsque les Africains franchissent les frontières pour chercher protection, ils restent généralement près de chez eux.

En 2024, près de 87 % des 12,2 millions de réfugiés et de demandeurs d’asile africains dans le monde vivaient sur le continent africain. Seule une petite minorité a cherché refuge en dehors de l’Afrique.

Cela remet en question l’idée répandue selon laquelle les déplacements forcés en Afrique se traduisent automatiquement par une migration massive vers l’Europe.

En réalité, ce sont les pays voisins, souvent eux-mêmes touchés par la pauvreté ou l’instabilité, et parfois à la fois pays d’origine et de destination des personnes déplacées de force, qui assument la plus grande partie de la responsabilité d’accueillir les populations déplacées.

Même en tenant compte des scénarios de déplacement futurs liés à la crise climatique, la Banque mondiale estime que les personnes touchées resteront dans leur région.

Néanmoins, tant au niveau mondial qu’en Afrique, la migration volontaire domine : sur les 45,8 millions de migrants africains dans le monde, les réfugiés et les demandeurs d’asile représentent 12,2 millions.

Cela vaut également pour la migration africaine vers les pays de l’Union européenne, où les permis de séjour pour raisons professionnelles, éducatives ou familiales (2024 : environ 670 000) dépassent largement les premières demandes d’asile (2024 : environ 240 000).

Pourquoi ces conclusions sont importantes

Tout d’abord, les données montrent clairement que la migration africaine ne concerne pas principalement l’Europe. Elle concerne avant tout l’Afrique elle-même. Pour les décideurs politiques européens et ceux d’autres pays du Nord, nos conclusions suggèrent la nécessité de repenser les priorités. Soutenir les pays d’accueil des réfugiés en Afrique, élargir les voies de migration légales et investir dans des données fiables sur la migration peuvent garantir une gestion plus efficace de la migration. Se concentrer uniquement sur la dissuasion n’est pas approprié.

Deuxièmement, nos conclusions soulignent l’importance des pays et des régions africains en tant que destinations migratoires et États d’accueil des réfugiés. Des pays tels que l’Ouganda, la Côte d’Ivoire, l’Afrique du Sud ou le Nigeria accueillent des millions de migrants et de réfugiés, souvent avec des ressources bien moindres que les États plus riches en matière d’intégration et de protection.

Pour les gouvernements africains, cela signifie qu’il faut continuer à renforcer les cadres régionaux et continentaux de mobilité. Ceux-ci permettraient aux personnes de se déplacer en toute sécurité et légalement pour des raisons professionnelles, éducatives ou familiales. La migration intra-régionale est déjà l’épine dorsale de la mobilité africaine. Elle devrait le rester.

Troisièmement, l’analyse démontre que les données du DAES sont indispensables mais incomplètes. Elles excluent la migration interne, la migration sans papiers et de nombreuses formes de mobilité temporaire ou circulaire courantes en Afrique. Les réductions budgétaires imposées aux institutions internationales de collecte de données risquent d’affaiblir encore davantage l’élaboration de politiques fondées sur des données probantes.

Il est essentiel de comprendre comment les personnes se déplacent réellement – et pourquoi – pour concevoir des politiques migratoires équitables et réalistes.

The Conversation

Nadine Biehler travaille à la SWP pour le projet de recherche « Politique stratégique en matière de réfugiés et de migration », financé par le ministère fédéral allemand de la Coopération économique et du Développement (BMZ).

Emma Landmesser travaille à la SWP pour le projet de recherche « Politique stratégique en matière de réfugiés et de migration », financé par le ministère fédéral allemand de la Coopération économique et du Développement (BMZ).

Rebecca Majewski does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Migration africaine : pourquoi se focaliser sur l’Europe fait rater l’essentiel – https://theconversation.com/migration-africaine-pourquoi-se-focaliser-sur-leurope-fait-rater-lessentiel-274919

The EU-India agreement is huge – and it illustrates the changing role of trade in a fractured world order

Source: The Conversation – UK – By Sangeeta Khorana, Professor of International Trade Policy, Aston University

The recently concluded EU-India free trade agreement is notable for the huge scale and ambition of the deal. Labelled the “mother of all deals” by European Commission President Ursula von der Leyen, it comes as India has overtaken Japan as the world’s fourth-largest economy.

Bilateral trade in goods and services between the EU and India is already worth €180 billion (£155 billion). The agreement aims to double EU exports to India by 2032 and create a free-trade area representing around a quarter of the world’s population (nearly two billion people). This would also cover about 25% of the world’s GDP.

At this point in history, the world’s multilateral trading system is under threat from tariffs and geopolitical tensions. But this agreement offers a clear example that the era of free trade is not over.

Rather, it demonstrates how countries are adapting to new global realities to liberalise trade (that is, remove barriers). Instead of steering away from free trade, countries are becoming selective and seeking bilateral arrangements with strategic partners. The UK signed its own trade agreement with India in July 2025.




Read more:
UK’s India trade deal offers wider access to a surging economy – and could make food imports cheaper


Traditionally, a free trade agreement would have a set of rules for how two or more countries must treat one another when importing, exporting, investing or doing any other business together.

But to view the EU-India trade agreement through the lens of classical free trade would be misleading. Trade agreements of the 1990s and early 2000s such as Nafta and the EU, were driven mainly by tariff reductions and efficiency gains. The EU-India deal on the other hand has been shaped by shifting geopolitical pressures and concerns about resilience in the face of trade shocks or other crises.

Long time in the making

Trade talks between the EU and India began in 2007 but negotiations gained momentum in 2025 amid renewed tariff threats from the United States under Donald Trump’s second administration.

This deepened trade imbalances between the EU and China due to Beijing’s drive to be more self-reliant and employ export controls. It also raised concerns about the resilience of global supply chains. The EU-India Trade and Technology Council was set up in 2023, modelled on the EU-US framework, and highlights how modern trade agreements can bundle economic, technological and strategic objectives together.

At a time when global trade has become increasingly protectionist and with geopolitical rivalry growing, this agreement provides an opportunity to recalibrate trade alignment. It is also a chance to reshape trade architecture while bolstering supply chain resilience across Asia, Europe and the Atlantic.

For the EU, the deal is a central pillar of its diversification strategy. There was an urgent need for the bloc to reach an agreement with India in order to be less dependent on China, its largest trade partner.

In 2024, more than 21% of the EU’s imports came from China. Meanwhile, China bought only 8.3% of the bloc’s exports. For the EU, this has resulted in a €304 billion (£264 billion) trade deficit with China.

So the EU-India deal provides an opportunity for the EU to reduce its excessive dependence on China. It’s also a chance to remove some of the risk from its supply chains and secure access to India’s fast-growing consumer market. This should offer European firms growth opportunities in Asia at a time when EU domestic demand is sluggish and flat.

The agreement will also make it easier for EU firms to source suppliers quickly and build alternative manufacturing bases when supply chains are threatened. India’s location in the Indo-Pacific is of strategic interest for the EU due to the growing interdependence and the importance of maritime supply chains. This also makes India a key partner against the uncertainty of the bloc’s future relations with the US.

For India, the agreement guarantees market access to Indian firms at a time of rising trade uncertainty – especially after its relations with the US were damaged following Trump’s threat of 500% tariffs.

male and female indian garment producers sitting working at their sewing machines in a factory.
The agreement should provide a reliable trading partner for Indian garment producers.
PradeepGaurs/Shutterstock

The EU-India deal will eliminate tariffs on textiles and apparel, and when it comes into force it will give Indian garment-producers a reliable trading partner. The deal will allow European brands, such as Zara and H&M, to diversify away from China towards Indian manufacturing hubs. It is estimated costs here could be lower as the deal will allow garments to be zero-tariff.

The pharmaceuticals sector also offers an opportunity for India. While EU tariffs are already low, the deal aims to simplify regulation and to achieve stronger intellectual property frameworks. This could integrate Indian generic drug producers into Europe’s healthcare supply chains.

The scope of the agreement extends well beyond goods, services and investment. Plans to co-operate on clean energy aligns Europe’s Green Deal (the bloc’s framework for achieving net zero) with India’s target of producing 500 gigawatts of renewable capacity by 2030. This should open up avenues for joint leadership in solar, wind, grids and green hydrogen.

The EU-India deal neither marks a return to the free trade orthodoxy of an earlier age nor signals the end of free trade in today’s fractured global order. Rather, it highlights how trade has evolved into a tool for achieving geopolitical objectives. The deal also shows that countries are opening their markets – selectively and after careful deliberations. Trade agreements are evolving: increasingly they are shaped not only by market access considerations, but also by economic security.

The Conversation

Sangeeta Khorana works on issues related to free trade agreements. She has received funding from the ESRC, Commonwealth Secretariat, EU projects, IADB, among others.

ref. The EU-India agreement is huge – and it illustrates the changing role of trade in a fractured world order – https://theconversation.com/the-eu-india-agreement-is-huge-and-it-illustrates-the-changing-role-of-trade-in-a-fractured-world-order-275136

What to do when your home is at risk of falling into the sea – the hard choices facing Britain’s storm-battered coasts

Source: The Conversation – UK – By Avidesh Seenath, Course Director, MSc Environmental Change and Management, University of Oxford

Recent storms washed away large sections of roads in the UK after sea defences were damaged. For residents, it was a shock. But for coastal scientists, it was not unexpected.

Parts of the A379 between Torcross and Slapton, in south Devon, collapsed leaving a 200-metre stretch of road broken apart and part of a nearby car park destroyed. Engineers say even steel-reinforced protection failed under repeated wave action.

The road runs along the crest of a shingle barrier beach, with the sea on one side and Slapton Ley, a freshwater lake, on the other. Recent monitoring shows the beach has become narrower and steeper as storms move sediment along and away from the shoreline.

With less material in front of it, waves now break closer to the road and can undercut the edge of the carriageway. In places like this, the problem is not a single extreme storm. Rather, it is the gradual loss and redistribution of beach material that leaves the road increasingly exposed.

Hard defences such as seawalls and rock armour are often the first response. They can hold the line for a while, but they do not remove the force of incoming waves. The energy simply moves elsewhere, often speeding up erosion further along the coast. The risk is diverted rather than resolved.

As sea levels rise and storms intensify, these defences simply cannot keep up. What they usually provide is time, not lasting protection.

Even the science used to inform coastal management decisions comes with caveats. Computer models help estimate how beaches might change in the future, but real coastlines are messy and constantly evolving. Small differences in the assumptions of these models can produce very different forecasts, which makes long-term planning difficult.

Natural ways to manage the coastline are increasingly put forward as alternatives. Restoring dunes, saltmarshes or wetlands can help absorb wave energy while supporting biodiversity and storing carbon. These natural landscapes can adapt, hard defences cannot.

However, they are not quick fixes. They take time and space to establish, and their protection varies. Studies show they can reduce wave energy, but often only modestly reduce flooding during extreme events.

Public expectations often pull the other way. In the UK, natural ways to manage the coastline are popular in principle, yet when storms threaten, people tend to favour hard defences because they offer immediate, visible protection, even if it does not last.

The economics add another layer.

Flood and erosion risks affect where people live and invest. When people see flood maps, they often look elsewhere and pay less for homes in exposed areas. Property prices and insurance costs reflect that. But these maps are usually treated as certain, even though they are not, so prices can fall suddenly after major storms.

In practice, that means money and development often remain concentrated in places that science suggests will become increasingly vulnerable.

A wake-up call

The situation at Slapton brings all of this into focus. Rebuilding the same stretch of road after every storm may not be physically or financially realistic.

Some shoreline plans already acknowledge this potential reality through policies such as managed realignment or “no active intervention”, allowing the coast to move inland and creating natural buffers such as mudflats and marshes. In some places, relocating development inland may simply be safer and cheaper than trying to defend an increasingly exposed shoreline.

But these decisions come with real trade-offs.

Roads may need to be rerouted. Farmland may flood more often. Homes and businesses may have to relocate. Existing habitats may be lost before new ones establish. In areas dominated by high-value waterfront properties or second homes, decisions about who receives protection, and who does not, quickly become political as well as practical.

The alternative is a costly cycle of damage, repair and rebuild, with less benefit each time.

Slapton is not simply an engineering failure. It is a reminder that coastlines are inherently dynamic and cannot always be pinned in place. Seawalls can buy time. Nature can help soften impacts. Better information can guide smarter decisions. But none of these removes risk altogether.

Long-term resilience means accepting how coasts really behave and being practical about where to defend, where to adapt and where it may be wiser to step back and let the shoreline reshape itself.


Don’t have time to read about climate change as much as you’d like?

Get a weekly roundup in your inbox instead. Every Wednesday, The Conversation’s environment editor writes Imagine, a short email that goes a little deeper into just one climate issue. Join the 47,000+ readers who’ve subscribed so far.


The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. What to do when your home is at risk of falling into the sea – the hard choices facing Britain’s storm-battered coasts – https://theconversation.com/what-to-do-when-your-home-is-at-risk-of-falling-into-the-sea-the-hard-choices-facing-britains-storm-battered-coasts-275030

Reunión entre Petro y Trump: el día que el interés de los Estados se impuso a las rencillas y las ideologías

Source: The Conversation – (in Spanish) – By Fernando Cvitanic, Docente de Relaciones Internacionales, Universidad de La Sabana

miss.cabul/shutterstock

El martes 4 de febrero, Gustavo Petro y Donald Trump dejaron una imagen hasta hace poco impensable. Esta se produjo cuando los mandatarios de Colombia y Estados Unidos se saludaron y recorrieron juntos el Paseo de la fama de los presidentes en la Casa Blanca.

Fue el preámbulo de una de la reuniones más esperadas de la política internacional reciente. Los hechos tuvieron lugar después de que Estados Unidos y Colombia hayan vivido las relaciones más tensas de los últimos tiempos. El balance del encuentro marca una nueva etapa, que retoma la colaboración de manera amistosa.

Un callejón diplomático con salida

El contexto no era favorable para Petro y este no tenía muchas opciones.

Poco después de la nueva toma de posesión de Trump, se produjo la primera crisis. El regreso de unos aviones con inmigrantes deportados provenientes de los Estados Unidos desencadenó una ola de amenazas por parte de Washington. Gracias a los mecanismos diplomáticos de Colombia, este primer incidente pudo ser paleado.

La gota que derramó la copa surgió con la captura de Nicolás Maduro y las subsiguientes críticas del presidente colombiano. A modo de respuesta, se registraron nuevas amenazas que abrían la posibilidad de que Estados Unidos hiciera lo mismo con Colombia.

Una llamada telefónica solicitada por Gustavo Petro sirvió para calmar a Estados Unidos y aclarar un panorama, que ahora se torna amistoso y con serios compromisos.

Los temas principales: narcotráfico, Venezuela y Ecuador

“Llegamos a acuerdos. Nos llevamos muy bien. Él y yo no éramos los mejores amigos, pero no me ofendió porque no nos conocíamos. Estamos trabajando en eso y en otras cosas, incluyendo sanciones. Creo que él fue fantástico, nos llevamos muy bien”, dijo en primer lugar Donald Trump desde su despacho.

Primaron las relaciones binacionales. Los líderes se retiraron la camiseta de la idolología para dejar en claro que los intereses de los Estados van primero.

En una reunión que alcanzó las dos horas y rodeado por otros asistentes, como el vicepresidente, J.D. Vance, el secretario de estado, Marco Rubio y el senador Bernie Moreno, la delegación colombiana se dio a la tarea, de la mano del ministro de defensa, Pedro Sánchez, de presentar los resultados en materia de lucha contra las drogas.

A la exposición de los logros en este rubro se sumó la extradición y la llegada a Texas de uno de los narcotraficantes más poderosos del Valle del Cauca, Pipe Tuluá. Este arribó a los Estados Unidos justamente el día de la reunión para cumplir una pena de varios años de cárcel por ingresar drogas a los Estados Unidos.

Sobre el tema del narcotráfico, el presidente Gustavo Petro indicó en la rueda de prensa posterior que la lucha es “contra los capos de los capos”, no contra los campesinos y destacó que la erradicación de los cultivos de coca continuará manualmente, sin recurrir al glifosato. Una decisión que contrasta con la tomada a finales del pasado año, cuando el Gobierno volvió a recurrir a este polémico herbicida tras estar suspendido su uso durante los diez años anteriores.

El segundo punto involucró a Venezuela. “Cómo reactivar a Venezuela en su vecindad; cuál es el papel de los Estados Unidos ahí y cómo dejar fluir, incluso con aportes de los Estados Unidos, unos flujos que están construidos desde hace tiempo, que son comunes”, señalo el presidente Petro en rueda de prensa.

Con esta declaración, el mandatario colombiano hizo referencia a la importancia de activar fronteras prósperas, permitiendo el flujo de energía colombiana a Venezuela para la extracción de petróleo. También destacó que las fronteras cerradas o con sanciones solo favorecen al narcotráfico, por lo que es posible que una vez sean retiradas estas restricciones para que ambos países puedan hacer negocios. Colombia vendiendo energía y comprando hidrocarburos y gas al país vecino sin ser castigada.

En tercer lugar se habló de la crisis con Ecuador, situación ante la cual el presidente norteamericano se ofreció como mediador para resolver la tensión.

Varios desafíos y un solo camino

La reunión deja una reflexión. Cuando las alternativas se han reducido al mínimo, optar por el único camino disponible no responde a la falta de voluntad, sino a una lectura estratégica del contexto.

Antes de la reunión volvimos a ver a un Gustavo Petro provocador, que hizo repensar a varios analistas sobre una posible estrategia enfocada en buscar la cancelación de la reunión. Pero, en las relaciones internacionales, algunas veces es mejor hacer oídos sordos al ruido y abrir la posibilidad a ese único camino que ya estaba planeado: una reunión exitosa que finalizó en buenos términos para las partes.

En el tablero, Colombia sigue siendo el mejor aliado para la lucha contra las drogas de Estados Unidos, pero el más vulnerable. Alejarse de su principal socio comercial sería una operación kamikaze.

En este escenario, la decisión no fue entre opciones equivalentes, sino entre actuar de manera racional o poner a los colombianos a asumir costos mayores por la inacción.

Solo entre enero y noviembre de 2025, Colombia ingresó 13.498,8 millones de dólares fruto de las exportaciones a Estados Unidos, lo que equivale al 30% del total exportado. Dineros de los que dependen familias de floricultores, caficultores, productores de cacao, entre otros sectores de materias primas. Sin esta inyección económica, el país sufriría una crisis económica sin precedentes.

Tranquilidad comercial y electoral

Pero el éxito no solo traslada un ambiente de tranquilidad a los diferentes gremios comerciales. De cara a las elecciones presidenciales, el presidente y, por ende, su sucesor suman puntos. La apertura al diálogo impulsa su imagen de forma más favorable y permite a muchos empresarios sentir la calma de los mercados. En el caso de los floricultores, esto se traduce en un próspero 14 de febrero (Día de San Valentín).

“Gustavo: Un gran Honor. Amor a Colombia: Donald Trump”, rezaba el pie de la fotografía que se tomaron los dos mandatarios al final de la reunión. Una imagen que inmortaliza el momento histórico que fortalece la relación de dos presidentes.

En palabras de Petro, ambos le demostraron al mundo que, a pesar de las diferencias, se pueda dialogar y superar las tensiones. No importa si eso implica salir del Salón Oval llevando gorras rojas con la palabra MAGA (Make America Great Again). Posteriormente, con marcador, el propio Petro corrigió con la letra ‘S’, para convertirlo en un “Make Americas Great Again”, tal como lo hubiera querido Bolívar.

The Conversation

Fernando Cvitanic no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Reunión entre Petro y Trump: el día que el interés de los Estados se impuso a las rencillas y las ideologías – https://theconversation.com/reunion-entre-petro-y-trump-el-dia-que-el-interes-de-los-estados-se-impuso-a-las-rencillas-y-las-ideologias-275054

Female genital cutting: why Southeast Asia should follow Africa’s lead in challenging religious and cultural justifications

Source: The Conversation – Indonesia – By Nadira Irdiana, PhD Student, Monash University

Illustration of campaign against Female Genital Mutilation (FGM). Tunatura/Shutterstock

Female genital mutilation or cutting (FGM/C) remains a threat to the rights of women in Southeast Asia, often religiously and culturally justified. Yet, despite lasting physical and psychological impacts, governments have not mounted a coordinated regional effort to address it.

From about 4.1 million of FGM/C cases worldwide, which involves cutting tissue or the clitoris itself, more than one million cases occur in Asia.

The practice has been documented in Indonesia, Malaysia, Thailand, Singapore, the Philippines, and Brunei Darussalam. Reliable data in Southeast Asia is limited, but Indonesia is estimated to account for around 35% of reported cases globally.

FGM/C undermines women’s reproductive and sexual health. Studies link it to severe bleeding, infection, chronic pain, menstrual and urinary problems, and complications during childbirth.

WHO classifies the practice as a form of mutilation that violates human rights. But so far, countries in the region have yet to fully ban all forms of female genital mutilation.

Growing challenges in Southeast Asia

Governments across Southeast Asia are often reluctant to confront or ban all forms of FGM/C, partly because some religious authorities continue to justify it.

For example, Malaysia’s Department of Islamic Development considers it obligatory for Muslim girls, while Indonesia’s Ulema Council describes it as recommended. These positions have slowed efforts to protect the rights of women and girls.

Yet many Muslim scholars worldwide have condemned the practice because of its harmful impacts. In Indonesia, the Women’s Ulema Congress — a network of female Islamic scholars — has also called for an end to female genital cutting.

Beyond the religious debate, addressing FGM/C requires clear evidence.

Indonesia’s participation in the UNICEF-UNFPA Joint Programme, for instance, shows how data can help secure funding and shape policy. Indonesian government has set a target to reduce the practice from about 46% to 34% between 2024 and 2029 under its National Medium-Term Development Plan.

While this is a positive first step, Southeast Asia can learn from African nations, which have made ending FGM a regional priority through formal protocols.

Southeast Asian countries need a coordinated regional approach to end FGM/C in a way that upholds human rights and advances gender equality. Three key aspects should guide these efforts.

1. Explicit law and policies

The African Union’s Maputo Protocol shows the importance of addressing female genital mutilation directly within child protection and gender equality efforts.

Several African countries, including Chad, Côte d’Ivoire, Guinea, and Somalia, have written protections into their constitutions. About half of the protocol’s signatories now have national strategies to end the practice, and 20 countries have criminalised it through specific laws.

Even so, states can still enter reservations to protect sovereignty, highlighting the challenge of enforcing regional agreements.

While ASEAN (the Association of Southeast Asian Nations) has established a Gender Mainstreaming Strategic Framework, it does not yet treat FGM/C as an explicit priority.

The bloc’s long-standing tradition of non-interference often prevents it from addressing sensitive cultural or religious issues across borders. Advocacy is needed to ensure the issue is clearly included in regional human rights agendas.

2. Addressing medicalisation and cross-border practice

A recent study highlights that nurses, midwives, and doctors are increasingly performing FGM/C across Southeast Asia. Indonesia, Malaysia, and Singapore report some of the highest rates of medicalised procedures.

Medicalisation can create the false impression that the practice is safer, yet there is no scientific evidence that it reduces harm.

In Indonesia, prevalence is slightly higher in urban than rural areas, suggesting the trend may be linked to urbanisation.

As more countries move to ban FGM/C, cross-border procedures may also rise. East Africa offers a warning: the practice has become common in border areas, prompting the East African Community to draft a regional bill to address it. In countries such as Kenya, Tanzania, Uganda, Ethiopia, and Somalia, prevalence is often higher in border regions than national averages.

Learning from efforts in East Africa, Southeast Asian nations must collaborate to tackle the issue of cross-border FGM/C.

3. Changing beliefs that harm women

Laws alone are not enough. Resistance to women’s rights advocacy remains widespread, and the FGM/C reflects a deeper gender inequality by reinforcing harmful norms about women and girls.

Research suggests that shifting beliefs must be paired with broader efforts to drive real behavioural change.

Religious justifications often hinder the prevention of female genital mutilation in Southeast Asia.
Activists carry banners to commemorate International Women’s Day.
Toto Santiko Budi/Shutterstock

The African Union’s gender equality strategy includes a continent-wide campaign to end FGM/C. Southeast Asia needs a similar regional approach.

Rather than normalising medicalised procedures, countries should invest in support services for survivors and those at risk.

FGM/C is not tradition — it is violence. Southeast Asia has the tools to act, but action must come with urgency. A coordinated regional strategy — backed by strong legislation, accountability, and support for survivors — will be key to ending FGM/C and protecting future generations.


Adinda Ghinashalsabila Salman translated this article from Bahasa Indonesia.

The Conversation

Nadira Irdiana is affiliated with the ARC Centre of Excellence for the Elimination of Violence against Women (CEVAW). She is a recipient of the Australia Awards scholarship.

ref. Female genital cutting: why Southeast Asia should follow Africa’s lead in challenging religious and cultural justifications – https://theconversation.com/female-genital-cutting-why-southeast-asia-should-follow-africas-lead-in-challenging-religious-and-cultural-justifications-274541