Tax rises and benefit cuts are on the horizon as Reeves prepares the UK for a bad-news budget

Source: The Conversation – UK – By Steve Schifferes, Honorary Research Fellow, City Political Economy Research Centre, City St George’s, University of London

The UK chancellor, Rachel Reeves, has made it clear that taxes will go up, and more cuts to welfare spending are on the horizon. The moves will be deeply unpopular and controversial – but in an extraordinary press conference ahead of the UK budget on November 26, Reeves made it clear that she believes both will be necessary.

In a highly unusual move, the chancellor used the press conference to set out her priorities for balancing the books while growing the economy. Notably, she did not mention the pledge in Labour’s manifesto not to raise taxes on working people or increase national insurance, VAT or income tax.

Instead, she said her focus was on lowering the burden of excessive government borrowing and debt, improving public services and tackling the cost of living.

Reeves gave particular importance to sticking with her “iron-clad” fiscal rules. These, she argued, were essential for showing she is being responsible with the nation’s finances and preventing a further rise in the cost of borrowing (the interest the government pays on its debt).

At more than £100 billion per year, this already makes up 10% of all government spending. The government’s spending watchdog, the Office for Budget Responsibility (OBR), projects the total to rise to £111 billion by the next financial year.




Read more:
David Blunkett: the world has changed since Liz Truss’s mini budget, so what is Labour still so scared of?


She also emphasised the importance of measures to boost UK productivity. Productivity forecasts are expected to be downgraded by the OBR, heaping yet more pressure on the chancellor’s budget choices. Reeves questioned whether the forecast would accurately predict the future – but has accepted that she will have to work within the OBR’s constraints in this year’s budget.

The chancellor is right that there is a pressing need to boost productivity. But it is by no means certain that planned investment in things like housing, nuclear and a third runway at Heathrow will yield big gains, at least in the near term.

At the same time, she made it clear that to meet her budget target there will need to be cuts to public spending. Some cuts will come from more “efficiency” savings by government departments (that perennial option that all chancellors reach for).

But they will also come from tackling the UK’s rapidly rising welfare budget, focusing on the large number of young people who are not in education, employment or training but depend on state benefits (so-called “Neets”).

Any cuts to the welfare budget, as well as a failure to abolish the two-child benefit limit (although she is under pressure from colleagues to bite the bullet and axe it), will cause dismay within the parliamentary Labour party as well as many party activists.

phone screen showing universal credit sign-in screen alongside some pound coins and a five-pound note.
Reeves is determined to bring down the UK’s rapidly rising welfare bill.
AndrewMcKenna/Shutterstock

As ever, the budget choices will be political as well as economic. Both the Conservatives and Reform UK will accuse Labour of breaking its manifesto promises. They will also claim Labour is undermining any chance of growth by raising taxes by a larger amount than any UK government has done in the last 50 years.

At the same time, it will become even more difficult for Labour to manage its large but fractious parliamentary majority. Earlier this year, backbenchers forced the government to restore the winter fuel payment for some pensioners and abandon plans to cut personal independence payments for disabled claimants.

Local government elections, as well as elections to the Scottish and Welsh parliaments, are looming next May. Reeves risks further alienating Labour’s grassroot supporters and pushing them towards smaller left-wing parties such as the Greens. They already seem to be pulling ahead of Labour among younger voters.

The stakes could not be higher. A bad result could even lead to questions about the future of both the chancellor and the prime minister Keir Starmer.

Finally, the chancellor’s goal to cut the cost of living for working people does not seem particularly ambitious. Her suggested approach involves cutting energy costs by investing more in electricity generation, and reducing the cost of food by changing the business rates system to help small businesses.

Even if effective, these changes will take some time to work through and may not be enough to convince voters that Labour is on their side – particularly if inflation is not brought under control.

Reeves’ appeal to the public to back her long-term approach to sorting out the British economy may be admirable. But the political risks to her personally – and Labour more broadly – remain considerable.

The Conversation

Steve Schifferes does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Tax rises and benefit cuts are on the horizon as Reeves prepares the UK for a bad-news budget – https://theconversation.com/tax-rises-and-benefit-cuts-are-on-the-horizon-as-reeves-prepares-the-uk-for-a-bad-news-budget-269008

From nail bars to firefighting foams: how chemicals are deemed safe enough or too harmful

Source: The Conversation – UK – By Mark Lorch, Professor of Science Communication and Chemistry, University of Hull

Maksym93/Shutterstock.com

If you’ve sat in a nail salon recently, you may well have encountered TPO or trimethylbenzoyl diphenylphosphine oxide to give it its full chemical name. You won’t have seen the name on the bottle. But if you’ve had your gelled fingers under a blue-violet lamp, TPO could well have been part of the process.

TPO is what chemists call a photoinitiator – basically, a chemical that reacts when it’s hit with UV light. When your nails go under the lamp, TPO breaks apart and helps link tiny liquid molecules together, turning the polish into that solid, shiny, long-lasting gel layer.

It’s smart chemistry, and it’s one reason gel manicures last so much longer than normal nail polish. But recently, the EU banned TPO because research suggests it might increase the risk of cancer and could be harmful to the reproductive system.

Meanwhile, alternatives such as benzophenone and other common photoinitiators come with concerns of their own.

Benzophenone, for instance, is listed as a possible endocrine disruptor, meaning it may interfere with hormones. Another common substitute for TPO, called TPO-L is harmful to aquatic life and may cause skin allergies. None of this is hidden. The European Chemicals Agency maintains a public database where anyone can look up chemicals and find their hazard classifications and environmental data.

The point is not that nail varnish is dangerous. It is that even everyday products involve chemistry that is more complex than we might assume and that decisions about what is “safe enough” involve weighing risks, benefits and available alternatives.

The same pattern has played out recently with two much wider-reaching chemicals: Pfas, so-called “forever chemicals”, and glyphosate, a herbicide used in agriculture.

Recently, the European Commission announced new restrictions on Pfas in firefighting foam. It did this because Pfas don’t break down in the environment and can build up in living things over time, which can be harmful. Meanwhile, the use of glyphosate has been under review, with the EU approving its continued use and the UK due to make a decision in the next year or so.

None of these decisions happen instantly or automatically. Here is how chemical safety is regulated.

Firefighter using foam to put out a blaze.
Europe recently introduced restrictions on forever chemicals in firefighting foam.
ChiccoDodiFC/Shutterstock.com

What Reach does

Pharmaceuticals are tightly controlled globally, but chemicals aren’t always regulated as strictly. However, in the EU and UK, chemicals are managed under a system called Reach that is often described as one of the most comprehensive chemical regulations in the world.

The basic difference in how we treat medicines versus chemicals comes down to how we think about risk. Chemicals are expected to be safe when used properly. Medicines, on the other hand, are allowed to have some risks if the benefits outweigh the risks.

That’s why harsh cancer treatments, which can have serious side-effects, are still considered acceptable – because they can save lives. And it’s also why very dangerous chemicals can still be made and used, as long as there are strong safety measures in place.

Under Reach, companies must register their chemicals and provide detailed information on a chemical’s properties, hazards and safe handling. The principle here is: “no data, no market”.

Regulators then evaluate that information – and can request more if needed. Such substances may then be authorised, meaning they can only be used if companies can demonstrate that risks are controlled or that societal benefits outweigh them while safer options are developed.

If a substance poses an unacceptable risk that cannot otherwise be managed, regulators can restrict or ban specific uses of chemicals. Later if evidence emerges that suggests a chemical can cause cancer, harm reproduction, persist in the environment, accumulate in living things, or otherwise be hazardous, it might be added to a list of “substances of very high concern”.

Reach is a strict, step-by-step system that requires companies to prove their chemicals can be used safely. But in reality, we often only learn the full effects of a chemical over time, once it is being used outside the lab and in everyday life. That’s why decisions about chemicals such as TPO, Pfas and glyphosate can change slowly and sometimes take many years to fully settle.

Safe and sustainable by design

As a result of cases such as these, many feel that despite Reach being one of the most comprehensive chemical regulations in the world, it isn’t enough. This has led to a philosophy known as safe and sustainable by design, where, instead of making a chemical and then proving it is safe, a material is designed with safety and disposal or recycling in mind.

In this area, artificial intelligence may well prove to have a major role. AI is increasingly being used to predict toxicity of chemicals and so allow them to be flagged before they are manufactured.

Chemistry has built the modern world, given us durable coatings on the ends of our fingers, high-yield crops, non-stick pans, waterproof jackets and thousands of other unnoticed conveniences. It has also given us chemicals that travel too far, last too long and accumulate where they were never intended.

The challenge is not to stop using chemistry. It is to use it wisely. Whether we are talking about manicures, farmland, or emergency foam, the principle should be the same: use chemistry that does the job, without leaving a legacy. The more we can predict that, the fewer surprises we’ll find later.

The Conversation

Mark Lorch does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. From nail bars to firefighting foams: how chemicals are deemed safe enough or too harmful – https://theconversation.com/from-nail-bars-to-firefighting-foams-how-chemicals-are-deemed-safe-enough-or-too-harmful-268830

Maps reveal the greater risk to the world’s artificial coastlines from sea-level rise

Source: The Conversation – UK – By Dhritiraj Sengupta, Visiting Researcher, University of Southampton

Reclamation at Colombo Port, Sri Lanka. Google Earth

The coastlines I trace resemble logos and luxury icons: palms, crescents, pixelated grids, surreal ornaments etched into shallow seas. The cartography is striking. The environmental consequences are very concerning.

There is an urgent need to evaluate the negative effects and risks associated with these artificial structures around the world, especially as climate change makes sea-level rise more extreme.

For ten years, I have been tracking changing coastlines and trying to map the spread of artificial coastal developments. But this is difficult for two reasons.

First, it’s tricky to define what counts as reclamation and what doesn’t. Does a polder (a piece of low-lying land reclaimed from the sea) belong in the same category as a luxury island? Do sea walls belong in the same category as “dredge-and-fill peninsulas” (land created by digging sand from a seabed or river banks that is used to fill an area of water).

Second, at a global scale, constantly updating maps with rapidly changing unnatural boundary designs is a never-ending task, which involves extracting data from satellite images.

The geometry of reclaimed sites and artificial shorelines can seem bizarre – ranging from the leafed fronds of Ocean Flower Island in Hainan, China, to perfect crescents in Durrat Al Bahrain in the Persian Gulf, and straight-edged lattices in Lagos, Nigeria. In most cases, they are designed to look appealing without much consideration of ocean health or storm resilience.

aerial shot of horseshoe shaped coastal islands in sea
Durrat Al Bahrain island in the Persian Gulf.
PaPicasso/Shutterstock

Sharp angles interrupt longshore drift. Features such as headlands, jetties or bends in the coastline block or redirect the flow of sand moved by waves. This causes sand to build up in some areas while leaving other beaches with less sand, leading to erosion.

With artificial coastlines, these effects are amplified – a particular problem in places without the financial means to manage their beaches.

Grid-like canals slice tidal flats into disjointed basins. On maps, the lines are neat – but in reality, they produce messy hydrodynamics and fragmented ecosystems.

Such misplaced “neatness” can have far-reaching consequences. Reclamation destroys mangroves, muddy tidal flats and seagrass meadows – ecosystems which act both as valuable stores of atmospheric carbon and fish nurseries.

Dredging also stirs up sediment which clouds the water downstream, making it harder for coral reefs to survive. This compounds climate stress, acting as a threat multiplier. Most of the artificial coastlines aren’t as resilient to extreme weather as they could be.




Read more:
New islands are being built at sea – but they won’t help millions made homeless by sea-level rise


Human-made coastal changes disturb natural water flow, often leading to poor water quality, floods and erosion. Coastal communities can lose their fishing grounds and safe landing beaches. Without protective natural ecosystems acting as a buffer against extreme weather, often the poorest coastal communities bear the greatest impacts from coastal erosion and sea-level rise.

There’s also a carbon cost to this type of coastal development. Dredgers, quarrying, cement and machinery all stack up emissions. Add in the lost carbon storage from destroyed wetlands, and reclamation becomes a climate double blow.

How maps become bridges to action

Maps reveal where, when and how much development is occurring. They can become bridges to action if this research into shoreline change is combined with biodiversity surveys (to assess marine life), hydrodynamic modelling (changes to currents) and social impact assessments (how coastal communities are affected).

In my view, environmental impact assessments should look beyond short-term, single-project effects, and consider how multiple projects collectively affect ecosystems over time. Construction approvals should depend not only on each project’s immediate footprint, but on how it will perform across its entire lifetime – for example, how much flood risk it creates and how much carbon it emits or saves.

Using a mix of tools to engage diverse groups – including local communities, policymakers, scientists and educators – can strengthen understanding and action on coastal change. Examples include holding workshops on the interpretation of satellite-derived data and visualisations, creating interactive StoryMaps (digital storybooks using maps, pictures and text to explain a topic), as well as community-driven mapping.

Many coastal and fishing communities located around reclamation sites – who previously had direct access to the coast – are now calling to halt further reclamation. By documenting lost ecosystems, tracing flood pathways and highlighting human stories behind coastal change, we can better understand how vulnerable coastal communities are to land reclamation.

close up shot of sandy reclaimed islands and turquoise sea
Dubai’s The World is a series of manufactured sandy island developments.
Felix Lipov/Shutterstock

Some damage is irreversible. Natural coastlines are not just scenic – they are self-maintaining, shock-absorbing, carbon-storing infrastructure. A moratorium on new reclamation throughout the world is needed – and a pivot to restoration by rebuilding lost mangroves, protecting tidal creeks and removing “hard edges” where possible.

Mapping alone will not stop coastal development. But it can catalyse coalitions, inform policy, expose hidden costs and redirect finance. It can turn a line on a screen into a line in the sand.

I began my research by trying to define reclamation precisely enough to classify it. But it has revealed a more urgent task: to defend what remains of the natural coastline, and restore what we still can.

The coastline is not a canvas for our extravagant signatures. When protected, it is nature’s living margin which sustains us.


Don’t have time to read about climate change as much as you’d like?

Get a weekly roundup in your inbox instead. Every Wednesday, The Conversation’s environment editor writes Imagine, a short email that goes a little deeper into just one climate issue. Join the 45,000+ readers who’ve subscribed so far.


The Conversation

Dhritiraj Sengupta receives funding from the Chinese Government Scholarship (CSC , 2016-2020) and from Leverhulme Trust Funding for the project on “Unnatural dynamics of flood deposits in built environments”, plus volunteers for International Geographical Union (https://igu-coast.org/steering-committee/) and is a fellow of the Future Earth Coast (https://www.futureearthcoasts.org/biography/dr-dhritiraj-sengupta/).

ref. Maps reveal the greater risk to the world’s artificial coastlines from sea-level rise – https://theconversation.com/maps-reveal-the-greater-risk-to-the-worlds-artificial-coastlines-from-sea-level-rise-250299

In The Eleventh Hour, Salman Rushdie writes like he’s running out of time

Source: The Conversation – UK – By Jenni Ramone, Associate Professor of Postcolonial and Global Literatures, Nottingham Trent University

Salman Rushdie’s new collection of short stories urgently recollects his literary legacy. It’s as though time is increasingly uncertain so the need to tell stories is great.

Its title, The Eleventh Hour, says as much, and the book succeeds Knife (2024), written about his attack on stage in 2022. The central story portrays students and writers in the libraries of English literary history. Two stories set in India consider the entangled states of faith and doubt. The final two tales are set in America, employing stylistic innovation to address grand questions about authenticity, censorship and fraud.

The story In the South, first published in US magazine The New Yorker, questions the logic of death and ageing. Written after the 2004 Indian Ocean earthquake and tsunami estimated to have killed 250,000 people, it introduces two elderly neighbours and their encounters with relatives and neighbours.

Typically Rushdie in structural and narrative prowess, it portrays the astounding everyday. Recalling stories in his earlier collection East, West (1995), it is a close character study interrogating the minute but asking huge questions.

Nicknamed Junior and Senior, the neighbours’ only similarity beyond their interdependence is a shared (undisclosed) first name. While Junior is hopeful and serene, Senior is melancholy and cynical. And though Senior has a vast, attentive, unwanted family, Junior is alone.

A phrase in this story gives the collection its title, and alerts us to the book’s preoccupation with older age. The story comes to terms with death, however unfathomable, by understanding it as an “adjacent verandah” to life.

Where to start with the collection

For readers new to Rushdie, The Musician of Kahani is the story to read first. Ranging over several decades, its young female protagonist possesses magical talents comparable with the protagonist of Midnight’s Children (2008), Saleem Sinai. This was the book that cemented Rushdie as a globally significant author.

The Musician of Kahani indulges in renaming – one of Rushdie’s preoccupations. Mumbai becomes Kahani (meaning story) and its streets are renamed, enjoyably, after literature: William Shakespeare Bunder, Dahl Market, Petit Prince Parade. Events pivotal to the plot are handled out of sequence, presented like delightful gossip and we understand plot is incidental: storytelling is what matters.

The third story in the collection, Late, is set in an Oxbridge college. Simon Merlyn (S.M.) Arthur is the “late” protagonist of the title. The honorary college fellow and renowned novelist of a single book, he wakes to find himself unexpectedly dead at 61. Unmoved, he ponders the nature of the mind and body, life, death and the afterlife.

The story assembles cliches of England: Oxbridge, the second world war, contingent multiculturalism, colonialism’s falsely genteel face and the weather. However, it is also about English literature, myth and legend, and rejuvenation. Set “50-something” years ago, it reveals an author prevented from achieving his potential.

Rushdie discussed the knife attack in an episode of 60 Minutes.

Rosa, an undergraduate from India entrusted to organise S.M’s papers, can communicate with his ghost, and uncovers sadness and betrayal. Rosa is a version of Rushdie, perhaps: the story is peppered with anecdotes from his life, including advertising slogans (Rushdie was an advertising copywriter famous for “Naughty But Nice”). Rosa also stumbles upon transformative archival materials. In Rushdie’s own experience, these materials inspired his novel The Satanic Verses (1988).

The two final stories, Oklahoma and The Old Man in the Piazza, are set in the US and both are experimental, particularly Oklahoma.

Oklahoma is an unedited posthumous autofictional manuscript and a literary conversation between author M.A. and an acclaimed writer affectionately named Uncle K. What begins as an adventure in literary benefaction descends into uncertainty, deception and obsession.

M.A. is encouraged to complete the story of Kafka’s Karl Rossmann in Amerika (1927), who never attained fulfilment since he failed to reach Oklahoma. Instead, he presents manuscripts of uncertain authorship, including an 1819 tale of murals depicting anguish and despair in response to corruption, violence and ignorance sanctioned by controlling storytelling. These paintings also target old age, represented as death, rage, insanity, jealousy and hate.

The experimental story ponders obsession, incompleteness and falsehood as more of Rushdie’s preoccupations emerge: The Wizard of Oz, Alice in Wonderland, disappearance, global relocation.

While In the South makes peace with death as a facet of life, and Late shakes off the torment of life’s regrets, secrets and betrayals for a fruitful afterlife, Oklahoma is bleaker. Here, life is incoherent, and truth is only achieved by death.

The collection begins and ends with old men whose bodies are frail and inflexible. The Old Man in the Piazza is the final story, beginning with an elderly man who sits watching impassioned and aggressive conversations around him. In this fable about the folly of repression, the beauty and poetry of language is forgotten in favour of thumbs-up or down moralising.

The stories in The Eleventh Hour tell Rushdie’s life story in metaphorical glimpses. This may be better received than his memoir, Joseph Anton (2012), which was described by reviewers as too long and too focused on celebrity. These stories convey Rushdie’s literary life, and through them we are reminded of what has been termed “his brilliant early phase”, a phase that, as these stories show, is rarely disturbed.


Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.


This article features references to books that have been included for editorial reasons, and may contain links to bookshop.org. If you click on one of the links and go on to buy something from bookshop.org The Conversation UK may earn a commission.

The Conversation

Jenni Ramone does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. In The Eleventh Hour, Salman Rushdie writes like he’s running out of time – https://theconversation.com/in-the-eleventh-hour-salman-rushdie-writes-like-hes-running-out-of-time-268828

Rape culture is a problem for everyone – here are three ways to tackle it

Source: The Conversation – UK – By Alexandra Fanghanel, Associate Professor in Criminology, University of Greenwich

skypiercerr/Shutterstock

Rape, as a crime, is widely deplored. Society and media condemn rapists, and rape and other sexually-related crimes carry potentially heavy prison sentences when perpetrators are convicted. So why, given this apparent intolerance for rape, do criminologists like me (and many others) still say that we live in a “rape culture”?

Rape culture is a term used to describe societies that accept rape and sexual violence. It is defined as a “set of beliefs that encourage male sexual aggression and support violence against women”. It is a society where violence against women is often seen as sexy and therefore ignored, accepted or dismissed as a joke.

In the UK, this manifests in several ways. We see rape culture in the normalisation of sexual violence in schools, in suggestions that victims “must share some of the blame” for their own rape, and in violence against women dismissed as “pranks” in family courts. It is also expressed in rape myths (such as “men can’t be raped”) and in victim-blaming (“she was asking for it because of how she was dressed”).

Rape culture normalises acts of sexual violence (against all genders) by allowing these acts to continue unchallenged. According to the Office for National Statistics, in 2024, the police recorded 71,227 complaints of rape in England and Wales. Of these, 2.7% were charged, of which about half resulted in conviction.

In part, these low figures are because, in England and Wales, the Crown Prosecution Service will only prosecute an offender if they believe a case has a “realistic prospect of conviction”. Rape culture undermines that realistic prospect, because it influences how society and courts think about and respond to victims of rape.

Myths about how a victim “should” behave, whether they have any interest in unconventional sexual practices or are promiscuous, their age or what a perpetrator looks like, all inform these low conviction rates. And claims of how false rape accusations ruin lives mean there is a reluctance to label a man a rapist or sex offender, especially if he is popular or successful.

Rape culture is bad for everyone. It means victims of sexual violence of any gender are not taken seriously, and it denigrates people based on their sexuality. That is why it is necessary to challenge it wherever we can. Here are three ways you can fight rape culture in your own life:

1. Be an active bystander

Intervening in assault or harassment does not require you to be a vigilante, nor to go head-to-head with a perpetrator of sexual violence, which can be dangerous. Organisations like Right to Be have developed bystander programmes which help people intervene in sexist, bullying or abusive conduct in different ways.

Their “5 Ds” of intervention are:

  • distract the victim with an unrelated conversation to interrupt the encounter;

  • delegate: get someone (possibly someone with authority in the space, like a train guard) to help;

  • document: film what is happening, if it is safe to do so;

  • delay: seek the victim out afterwards to offer help or check in with them;

  • direct: if it feels safe and you feel able to, intervene directly and tell the perpetrator what they are doing is not OK. Keep this short and, once you have intervened, turn your attention to the victim and their needs.

2. Make sex unexceptional

My research explores how the shame around sex in general is much of what sustains rape culture. Sex crimes, because of their association with shame and taboo, are sensationalised and more morally charged than other crimes.

In my forthcoming book, I suggest that taking some of the stigma away from sex, and approaching it as ordinary, could help undo some of the rape culture we live in.

When we moralise about sex, it leads to expectations and preconceptions about how sex crimes happen. We create or believe myths about what “real” rape looks like and how “real” victims and perpetrators behave.

A sign at a protest reading 'No means no'
Changing rape culture is all of our responsibility.
BluIz70/Shutterstock

We need a better, broader understanding of what sex is and how people have it, so we are better at telling the difference between consensual and non-consensual encounters. Sexual exceptionalism nurtures rape myths. For example, a victim with a history of sex work, or who has rape fantasies, or who is friends with their attacker, can still be raped. Taking the salaciousness out of sex helps us to think about scenarios like these more clearly.

Instead of being squeamish about sex or treating it as something sordid, we need to talk more about sex without shame. Sex crimes are dreadful, but unburdening them from this baggage will help tackle rape culture.

3. Educate without stigma

Studies of university-aged students show that many have a poor understanding of the complexity of consent. Many do not know that rape can take place within a partner relationship, or that “stealthing” (removing a condom during penetrative sex without letting the other person know) is a crime, or that men can be sexually assaulted.

Whether you are a teacher, parent or friend, it is important to have candid, non-sensational conversations about sex and sexual violence. Through sharing unstigmatised knowledge about sexual conduct, people can learn to identify rape myths, to understand why actions like staring or lewd comments are problems, to name sexual violence if it happens, and to express their feelings about it.

Rape culture is not about weak women and predatory men. It is not about “cultures who rape” and the rest of us who don’t. Calling out rape culture is about challenging our preconceived notions, confronting our sexual squeamishness, and fighting for sexual justice for everyone.

The Conversation

Alexandra Fanghanel does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Rape culture is a problem for everyone – here are three ways to tackle it – https://theconversation.com/rape-culture-is-a-problem-for-everyone-here-are-three-ways-to-tackle-it-263152

Les psychoses ont souvent la même origine, mais les diagnostics sont multiples. Voici pourquoi cela pose problème

Source: The Conversation – in French – By Sameer Jauhar, Clinical Associate Professor, Imperial College London

Une étude révèle que les changements cérébraux à l’origine des symptômes psychotiques sont remarquablement similaires dans ces troubles mentaux supposés distincts. (Fahroni/Shutterstock)

Pendant des décennies, les psychiatres ont traité la psychose comme s’il s’agissait de troubles distincts. Les personnes souffrant d’hallucinations et de délires pouvaient être diagnostiquées comme schizophrènes, bipolaires, dépressives sévères ou autres troubles apparentés. Elles recevaient alors des traitements complètement différents selon le diagnostic. Mais de nouvelles recherches suggèrent que cette approche pourrait être fondamentalement erronée.

Notre dernière étude, publiée dans la revue Jama Psychiatry, révèle que les changements cérébraux à l’origine des symptômes psychotiques sont remarquablement similaires dans ces troubles mentaux considérés comme distincts. Ces résultats pourraient changer la façon dont les médecins choisissent les traitements pour les millions de personnes dans le monde qui souffrent de psychose.

La psychose, en ensemble de symptômes difficiles

La psychose en soi n’est pas une maladie, mais plutôt un ensemble de symptômes graves, qui empêchent de distinguer la réalité de sa propre perception. Les personnes touchées peuvent entendre des voix inexistantes, adhérer avec conviction à des croyances erronées, ou éprouver une pensée confuse et incohérente. Ces symptômes apparaissent soudainement et sont terrifiants, qu’ils surviennent seuls ou en parallèle avec la dépression ou la manie.

Nous avons étudié 38 personnes souffrant de leur premier épisode psychotique accompagné de symptômes de l’humeur, en les comparant à des volontaires en bonne santé. À l’aide d’une technologie de pointe d’imagerie cérébrale, nous avons mesuré la synthèse de dopamine, un neurotransmetteur lié à la motivation et à la récompense, dans différentes zones cérébrales.

Une découverte qui change la perspective

Nous avons constaté que les personnes souffrant d’épisodes maniaques présentaient une synthèse de dopamine plus élevée dans les zones du cerveau liées au traitement des émotions que celles souffrant de dépression. Toutefois, un schéma commun est apparu chez tous les participants : une synthèse de dopamine accrue dans les zones cérébrales liées à la réflexion et à la planification était systématiquement associée à des symptômes psychotiques plus graves (hallucinations et délires), quel que soit leur diagnostic officiel.

Cette découverte remet en question certains aspects de la pratique psychiatrique moderne. De nos jours, les décisions thérapeutiques reposent largement sur des catégories diagnostiques qui ne reflètent pas nécessairement ce qui se passe réellement dans le cerveau des patients. Deux patients présentant les mêmes symptômes peuvent recevoir des médicaments différents simplement parce que l’un a été diagnostiqué comme souffrant de trouble bipolaire et l’autre de dépression.

Notre étude montre que le dysfonctionnement de la dopamine n’est pas uniforme dans la psychose. Pour aller au-delà de la prescription par procédé par tâtonnements, il faut adapter les traitements à la biologie sous-jacente plutôt qu’aux seules catégories diagnostiques.

Un psychiatre et son patient
Ces résultats pourraient nous aider à nous éloigner de la prescription unique pour tous.
(Yurii Maslak/Shutterstock)

Vers une psychiatrie de précision

Les implications pourraient être profondes. Plutôt que de baser le traitement uniquement sur des catégories psychiatriques, les médecins pourraient bientôt utiliser des marqueurs biologiques pour identifier les médicaments les plus efficaces pour chaque patient. Cette approche, appelée psychiatrie de précision (inspirée de la médecine personnalisée), s’inspire de la manière dont les oncologues adaptent déjà les traitements contre le cancer à la composition génétique de tumeurs.

Pour les personnes atteintes de psychose, cela pourrait signifier un rétablissement plus rapide et moins d’effets secondaires, en remplaçant les médicaments qui ne fonctionnent pas. Trouver le bon traitement prend souvent des mois d’essais, durant lesquels les symptômes persistent.

Nos recherches suggèrent que les personnes dont la psychose s’accompagne de symptômes d’humeur importants pourraient bénéficier de médicaments ciblant les circuits cérébraux liés aux émotions. Celles qui n’ont pas de troubles de l’humeur pourraient nécessiter des traitements agissant sur les zones du cerveau impliquées dans la pensée et la planification. Certaines personnes pourraient même bénéficier de traitements qui ciblent simultanément les problèmes cognitifs, les hallucinations et les délires.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Limites et perspectives

Cela ne signifie pas que les diagnostics psychiatriques sont inutiles. Ils restent essentiels pour organiser les services de santé, faciliter la communication entre les professionnels et déterminer l’accès au traitement. Mais ils ne sont peut-être plus le meilleur guide pour choisir les médicaments.

L’étude a porté sur un nombre relativement restreint de personnes, et les résultats doivent être reproduits dans des groupes plus importants avant de modifier la pratique clinique. Néanmoins, cette recherche représente une avancée significative vers une approche plus scientifique et plus biologique du traitement de l’un des symptômes les plus difficiles à traiter en psychiatrie.

À mesure que notre compréhension du cerveau progresse, les catégories rigides qui ont dominé la psychiatrie pendant des décennies commencent à s’estomper. Si le cerveau (et la nature) ne respecte pas les frontières diagnostiques, nos traitements ne devraient pas non plus les respecter.

La Conversation Canada

Le Dr Jauhar a déclaré avoir reçu des honoraires personnels de Recordati, LB Pharmaceuticals, Boehringer Ingelheim, Wellcome Trust, Lundbeck, Janssen et Sunovion, ainsi qu’un soutien non financier de la part du National Institute for Health and Care Excellence, de la British Association for Psychopharmacology et du Royal College of Psychiatrists, en dehors du travail soumis.

Robert McCutcheon reçoit des honoraires personnels de Boehringer Ingelheim, Janssen, Karuna, Lundbeck, Newron, Otsuka et Viatris, en dehors du travail soumis.

ref. Les psychoses ont souvent la même origine, mais les diagnostics sont multiples. Voici pourquoi cela pose problème – https://theconversation.com/les-psychoses-ont-souvent-la-meme-origine-mais-les-diagnostics-sont-multiples-voici-pourquoi-cela-pose-probleme-263971

Obésité : pourquoi les nouveaux médicaments ne sont pas des remèdes miracles

Source: The Conversation – in French – By Alexandre Duparc, Cardiologue, Université de Toulouse

Wegovy, Mounjaro, Saxenda… Les analogues de l’hormone intestinale glucagon-like peptide-1 (GLP-1) ont beaucoup fait parler d’eux ces dernières années, en raison de leur efficacité en matière de perte de poids. Mais ces médicaments ne suffiront pas à vaincre l’obésité, dont la forte progression est due à de nombreux facteurs.


La lutte contre l’obésité est l’un des enjeux majeurs de la médecine du XXIe siècle. Cette maladie chronique, aux nombreuses complications physiques, psychologiques et sociales a vu sa prévalence mondiale doubler entre 1990 et 2022, date à laquelle elle touche, selon l’Organisation mondiale de la santé (OMS), plus d’un milliard de personnes (880 millions d’adultes et 160 millions d’enfants.

La France n’est pas épargnée. On considère qu’environ 8 millions de Françaises et de Français sont actuellement concernés par l’obésité. Sa prévalence est passée de 8,5 % en 1997 à 15 % en 2012, puis 17 % en 2020 et cette tendance va se poursuivre dans les années à venir.

Récemment, de nouveaux médicaments – les analogues de l’hormone intestinale glucagon-like peptide-1 (GLP-1) – ont intégré l’arsenal thérapeutique, suscitant de nouveaux espoirs. Cependant, ils ne permettront pas à eux seuls de vaincre l’obésité. Explications.

De nouvelles molécules efficaces

L’OMS définit le surpoids et l’obésité comme une accumulation anormale ou excessive de graisse, présentant un risque pour la santé. Une personne est considérée comme en surpoids si son indice de masse corporelle (IMC) est supérieur à 25, et comme obèse si celui-ci dépasse 30.




À lire aussi :
Pourquoi il est possible d’être obèse sans être en surpoids


Historiquement, la prise en charge thérapeutique de cette maladie s’est structurée autour d’une approche pluridisciplinaire et globale alliant conseils d’hygiène de vie (activité physique, alimentation), suivi psychologique, prévention et traitement des complications. Pour les cas les plus sévères, le recours à la chirurgie bariatrique peut être envisagé.

Les thérapeutiques médicamenteuses sont longtemps restées en retrait. On se souvient de l’échec du dexfenfluramine (nom commercial Isomeride, autorisé en France de 1985 à 1997), puis du benfluorex (nom commercial Mediator, autorisé de 1976 à 2009). Tous deux ont été retirés du marché en raison de leurs effets secondaires aux conséquences dramatiques, notamment cardiaques (dégradation des valves cardiaques) et pulmonaires (hypertension artérielle pulmonaire). Le Mediator reste associé à l’un des plus retentissants scandales sanitaires des dernières décennies.

Depuis peu, une nouvelle classe de molécules est à la disposition du corps médical pour lutter contre l’obésité : les analogues du peptide glucagon-like 1 (GLP-1). Cette petite hormone permet d’augmenter la production d’insuline, et donc de mieux absorber le glucose. Elle a un effet central bénéfique sur la satiété et retarde la vidange gastrique (le vidage de l’estomac). Parmi ces nouveaux médicaments figurent le liraglutide (commercialisé sous les noms Saxenda pour l’obésité ou Victoza pour le diabète), le sémaglutide (noms commerciaux Wegovy pour l’obésité ou Ozempic pour le diabète) et le tirzépatide (Mounjaro).

Prescrites sous forme d’injections hebdomadaires, ces molécules étaient déjà indiquées en routine dans la prise en charge du diabète de type 2. Plusieurs essais cliniques de grande envergure chez les sujets obèses ou en surpoids mais indemnes de diabète ont démontré l’efficacité de ces médicaments en complément d’une prise en charge alliant diététique et activité physique. Le bénéfice semble dépasser la seule perte de poids, puisqu’on constate également une amélioration de certains paramètres cardiovasculaires et métaboliques.

L’autorisation de mise sur le marché permet actuellement de les prescrire en complément d’un régime hypocalorique et d’une augmentation de l’activité physique, chez l’adulte ayant un indice de masse corporelle supérieur à 30 kg/m2 ou supérieur à 27 en cas de co-morbidité liée au poids. Toutefois, l’Assurance maladie ne les rembourse pas.

Ces traitements, qui apparaissent comme simples, efficaces et moins invasifs que la chirurgie, ont soulevé un enthousiasme légitime. Il est cependant illusoire d’imaginer que le combat contre l’obésité puisse se réduire à l’injection hebdomadaire d’un médicament. En effet, les causes de l’obésité et du surpoids sont multifactorielles, et dépassent la problématique du seul déséquilibre entre apports et dépenses caloriques.

Obésité, surpoids : des multiples causes

Les travaux de recherche ont révélé que les risques de surpoids et d’obésité dépendent de plusieurs déterminants : des facteurs génétiques (et épigénétiques), endocriniens (autrement dit, hormonaux), médicamenteux (certains traitements augmentent le risque), psychologiques, sociologiques ou encore environnementaux.

Concernant ce dernier point, on sait aujourd’hui que de nombreuses substances omniprésentes dans l’environnement sont classées comme obésogènes. Elles peuvent perturber notre métabolisme hormonal (perturbateurs endocriniens), modifier notre microbiote intestinal, ou agir à l’échelle génétique et épigénétique.

Dans ce contexte, le concept d’exposome, défini comme « l’ensemble des expositions environnementales au cours de la vie, y compris les facteurs liés au mode de vie, dès la période prénatale », prend tout son sens.




À lire aussi :
Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard


Dans certains cas, les effets des déterminants impliqués dans l’obésité peuvent rester latents pendant de nombreuses années, et les conséquences ne s’exprimer que tardivement, voire aux générations suivantes. Le diéthylstilbestrol (plus connu sous son nom commercial Distilbène) est un exemple emblématique de ces effets métaboliques transgénérationnels, non seulement en matière de surpoids et d’obésité, mais également en ce qui concerne le risque de cancers.

C’est pour rendre compte de ces phénomènes causaux que le concept de developmental origins of health and disease (DOHaD) – origines développementales de la santé et des maladies – a été forgé.

Une fois exposée la complexité de l’obésité, il apparaît donc évident que les cibles sur lesquelles agissent les analogues du GLP-1 (production d’insuline, satiété) sont loin d’être les seules impliquées dans la maladie.

Par ailleurs, on constate que les sources d’obésité ont, pour la plupart, des conséquences négatives sur la santé qui vont au-delà de la seule prise de poids. Ainsi, la consommation excessive de sucres raffinés, d’aliments ultratransformés, de viande rouge, de charcuterie, le manque de fibres, l’exposition à des toxiques, ou encore la sédentarité sont autant de facteurs de risques de santé dégradée.

Des molécules qui ne font pas de miracles

Les analogues du GLP-1 ne peuvent pas « guérir » l’obésité. Ce n’est d’ailleurs pas ce que prétendent les auteurs des études qui en ont testé l’efficacité.

Selon les résultats de l’étude STEP3, la perte de poids sous sémaglutide est de 15 % après 68 semaines de traitement (contre 5 % dans le groupe placebo). Si l’on considère le profil « type » des patients inclus dans cette étude, soit des individus ayant un IMC moyen à 37 (ce qui correspond à un poids de 100 kg pour une taille de 1m65), une perte de poids de 15 % les mènera à un IMC à 31. Ils passeront alors d’une obésité sévère à une obésité modérée. Si le gain en termes de santé est considérable, ces sujets présenteront encore un surrisque médical significatif.

Il convient également de se questionner sur la tolérance du traitement, ainsi que sur son observance chez des patients dont les ordonnances peuvent être très longues du fait des polypathologies. Par ailleurs, le maintien de l’efficacité au long cours reste à déterminer, a fortiori si l’ensemble des facteurs causaux n’est pas éradiqué.

Se posent aussi les problématiques de la prise de poids à l’arrêt du traitement, ainsi que de la sarcopénie, c’est-à-dire la perte musculaire, qualitative ou quantitative. En effet, une perte de poids ne se résume jamais seulement à une perte de masse graisseuse, mais s’accompagne également d’une perte de masse maigre, notamment musculaire. Ce phénomène pourrait être prévenu ou compensé grâce à l’exercice physique.

L’importance de la prévention

À ce jour, les analogues du GLP-1 sont envisagés comme traitement de l’obésité une fois que celle-ci est installée. Il s’agit donc d’une approche curative. Les articles scientifiques partent du principe que les mesures de préventions, dites « hygiénodiététiques » sont insuffisantes alors que les modalités d’élaboration de ces mesures ne sont que rarement questionnées, pas plus que la possibilité de s’attaquer aux nombreux facteurs qui entravent leur mise en pratique.

Les conseils adressés au grand public sont en effet essentiellement diffusés sous forme de messages ou d’injonctions à modifier les comportements individuels. Ils font donc implicitement reposer la responsabilité sur chacun et chacune, et sont, en ce sens, potentiellement culpabilisants. Parallèlement, ils passent le plus souvent sous silence les autres facteurs causaux qui structurent notre exposition globale.

Parmi les facteurs qui entravent la prévention, citons :

  • la facilité d’accès à des aliments favorisant l’obésité (sucrés, salés, ultratransformés), bon marché, vantés par la publicité, peu régulés et peu taxés alors que leur caractère néfaste est avéré ;

  • l’obstruction à la généralisation d’outils pourtant largement validés tels que le Nutri-Score, illustrant le fait que la question sanitaire passe généralement après les intérêts économiques, tant à l’échelle française qu’européenne ;

  • le contexte environnemental défavorable, exposant les individus à de multiples polluants. Nombre d’entre eux favorisent l’obésité, notamment via des mécanismes hormonaux ;

  • les manquements des politiques d’aménagement du territoire qui devraient promouvoir les mobilités actives et l’accès aux infrastructures d’activités physiques et sportives sur l’ensemble du territoire (urbain, semi-urbain et rural) et lutter ainsi contre la sédentarité et le manque d’activité physique ;

  • l’impact des déterminants socio-économiques ou psychologiques qui rendent difficilement applicables les comportements vertueux en termes d’alimentation et d’activité physique.

Rappelons le poids des inégalités (socio-économiques, de genre, ethno-raciales, territoriales…) dans la santé en général et particulièrement dans les questions touchant à l’obésité . En France, 17 % des individus dont le niveau de vie est inférieur au premier quart de la distribution sont obèses contre 10 % pour ceux dont le niveau de vie appartient au quartile de niveau de vie supérieur.




À lire aussi :
Obésité et « manque de volonté » : les préjugés négatifs ont la vie dure


L’augmentation de la pauvreté, de la précarité et le creusement des inégalités sociales sont à ce titre inquiétants, car ils ne peuvent que dégrader les conditions de santé des populations les plus défavorisées.

Prévenir coûterait moins cher que guérir

Terminons sur un point impossible à ne pas considérer : celui du coût du traitement par analogues du GLP-1, évalué à environ 300 euros par mois et par patient.

Sans remboursement, ce traitement ne sera accessible qu’aux plus aisés. S’il est pris en charge par l’Assurance maladie, le coût potentiel apparaît comme vertigineux. L’OMS prévoit en effet que d’ici 2030, près de 30 % de la population française pourrait être concernée par l’obésité.

Conclusion, la communauté des soignants, associée à celle des patients, ne peut compter exagérément sur cette classe de médicaments. Pour lutter contre l’obésité, il faut continuer à valoriser une prise en charge pluridisciplinaire, alliant des savoirs académiques, issus de différentes disciplines scientifiques, avec des savoirs souvent qualifiés d’« expérientiels » : ceux des patients, des professionnels de l’éducation et de la prévention en santé, des décideurs en matière de politiques de santé, etc.

Cette approche est certes moins spectaculaire et moins facilement médiatisable que les annonces tonitruantes qui accompagnent les découvertes de thérapies innovantes, mais elle est indispensable. La prévention ne s’oppose pas au traitement curatif : elle le précède, et l’accompagne.

On ne peut espérer diminuer significativement et durablement la prévalence de l’obésité qu’en ciblant l’ensemble des facteurs qui la sous-tendent, individuels, sociaux et environnementaux. Cela implique l’élaboration et la mise en œuvre de politiques de santé publique larges, ambitieuses et respectueuses de la démocratie sanitaire.

Il faut avoir conscience que cela ira vraisemblablement à l’encontre d’intérêts économiques de court terme. Mais la santé publique en vaut sans aucun doute la chandelle.

The Conversation

Alexandre Duparc n’a pas de conflit d’intérêt financier à déclarer. Il est membre de L’Atecopol et de Scientifiques en Rébellion

Philippe Terral a reçu des financements de l’ANR, l’INCa, l’IRESP, la Fondation de France.

Tania Pacheff est membre de l’association “no plastic in my food” (ex-Cantine sans plastique France)

Olivier Lairez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Obésité : pourquoi les nouveaux médicaments ne sont pas des remèdes miracles – https://theconversation.com/obesite-pourquoi-les-nouveaux-medicaments-ne-sont-pas-des-remedes-miracles-259846

Les vaccins à ARNm anti-Covid 19 vont-ils révolutionner le traitement du cancer ?

Source: The Conversation – in French – By Adam Grippin, Physician Scientist in Cancer Immunotherapy, The University of Texas MD Anderson Cancer Center

Avec un peu d’aide, les cellules immunitaires peuvent devenir de puissantes destructrices de tumeurs. Steve Gschmeissner/Science Photo Library/Getty Images

Les vaccins contre le Covid-19 à base d’ARN messager, qui ont sauvé 2,5 millions de vies dans le monde pendant la pandémie, pourraient aussi stimuler le système immunitaire, aidant ainsi à combattre le cancer. C’est la conclusion, aussi inattendue que marquante, d’une nouvelle étude publiée dans la revue Nature.


En 2016, notre équipe, dirigée par le pédiatre oncologue Elias Sayour, développait des vaccins à ARN messager (ARNm) pour tenter de soigner des patients atteints de tumeurs cérébrales. Au cours de ces travaux, nous avons découvert que l’ARNm était capable d’entraîner le système immunitaire à détruire les tumeurs. Et ce, même lorsque ledit ARNm n’a aucun lien avec le cancer.

Partant de ce constat, nous avons émis l’hypothèse que les vaccins à ARNm conçus pour cibler le SARS-CoV-2, le virus responsable du Covid-19, pourraient également présenter des effets antitumoraux.

Renforcer les capacités naturelles de l’organisme

Afin de le vérifier, nous avons examiné les résultats cliniques de plus de 1 000 patients atteints de mélanome ou de cancer du poumon à un stade avancé, auxquels avait été prescrit un traitement par inhibiteurs de points de contrôle immunitaire. Cette prise en charge fait partie des immunothérapies : son objectif est de renforcer les capacités naturelles de l’organisme à éliminer les cellules cancéreuses.

Couramment utilisée par les médecins, l’approche basée sur l’emploi d’inhibiteurs de point de contrôle consiste à bloquer une protéine produite et utilisée par les cellules tumorales. Ladite protéine est employée par ces dernières « pour éteindre » les cellules immunitaires, et ainsi éviter d’être repérées et éliminées par les défenses de l’organisme. Bloquer cette protéine tumorale permet de remettre les cellules cancéreuses sur le radar du système immunitaire.

Nos résultats ont révélé que, de façon remarquable, les patients qui ont reçu le vaccin anti-Covid-19 à ARNm des laboratoires Pfizer ou Moderna dans les cent jours qui ont suivi le début de l’immunothérapie avaient plus de deux fois plus de chances d’être en vie au bout de trois ans que ceux qui n’avaient reçu aucun des deux vaccins.

Fait surprenant, les patients porteurs de tumeurs connues pour répondre généralement mal à l’immunothérapie ont eux aussi tiré un bénéfice très important de cette vaccination : leur taux de survie globale à trois ans s’est nettement amélioré, puisqu’il a été multiplié par cinq.

Ce lien entre administration d’un vaccin anti-Covid-19 à ARNm et amélioration de la survie est resté robuste même après ajustement pour des facteurs tels que la gravité de la maladie et la prise en compte d’éventuelles comorbidités (des pathologies ou troubles présents en même temps que la maladie, ndlr).

Pour comprendre le mécanisme sous-jacent à ces résultats, nous avons eu recours à des modèles animaux. Ces travaux nous ont permis de découvrir que les vaccins anti-Covid-19 à ARNm agissent comme un signal d’alarme. Ils déclenchent la reconnaissance et la destruction des cellules tumorales par le système immunitaire, contrecarrant ainsi la capacité du cancer à désactiver les cellules immunitaires.

Lorsque de tels vaccins sont associés à une immunothérapie par inhibiteurs de points de contrôle, les deux traitements se coordonnent, ce qui libère contre les cellules cancéreuses toute la puissance du système immunitaire.

Le pédiatre oncologue Elias Sayour (University of Florida Health), qui a dirigé ces travaux, explique que des vaccins à ARNm non spécifiques du cancer d’un patient peuvent « réveiller le “géant endormi” qu’est le système immunitaire pour qu’il lutte contre le cancer » (vidéo en anglais).

En quoi est-ce important ?

Au cours de la dernière décennie, l’immunothérapie par inhibiteurs de points de contrôle a révolutionné le traitement du cancer. Elle a permis de guérir de nombreux patients auparavant considérés comme incurables. Toutefois, ces thérapies restent inefficaces chez les patients présentant des « tumeurs froides » (peu infiltrées par les cellules immunitaires, ndlr), qui parviennent à échapper à la détection immunitaire.

Nos observations laissent penser que les vaccins à ARNm pourraient fournir l’étincelle nécessaire pour transformer ces « tumeurs froides » en « tumeurs chaudes » (qui contiennent des lymphocytes T et répondent mieux aux immunothérapies, ndlr). Nous sommes en train de monter un essai clinique pour confirmer ces résultats. Si ses conclusions sont positives, nous espérons que le recours à cette intervention, largement disponible et peu coûteuse, permettra à des millions de patients de profiter des bénéfices de l’immunothérapie.

D’innombrables flacons transparents étiquetés « CANCER mRNA vaccine 10 ML » posés sur une table
L’association de l’immunothérapie et des vaccins à ARNm pourrait permettre à un plus grand nombre de patients de percevoir les bénéfices de cette prise en charge.
Thom Leach/Science Photo Library/Getty Images

D’autres travaux de recherche sont en cours

Contrairement aux vaccins destinés à lutter contre les maladies infectieuses, qui sont utilisés pour prévenir une infection, les vaccins thérapeutiques contre le cancer sont employés en vue d’entraîner le système immunitaire des patients à mieux combattre les tumeurs.

Comme de nombreux autres scientifiques, nous travaillons activement à concevoir des vaccins à ARNm personnalisés destinés aux patients atteints de cancer. Pour y parvenir, nous prélevons un petit échantillon de la tumeur d’un patient, puis nous cherchons à prédire quelles protéines tumorales constitueraient, pour cet individu, les meilleures cibles pour le vaccin en question, grâce à des algorithmes d’apprentissage automatique. Toutefois, cette approche peut s’avérer coûteuse et les vaccins résultants, complexes à fabriquer.

A contrario, les vaccins à ARNm anti-Covid-19 n’ont pas besoin d’être personnalisés. Par ailleurs, ils sont déjà disponibles dans le monde entier, à faible coût ou gratuitement, et pourraient être administrés à tout moment au cours du traitement d’un patient.

Nos résultats, qui indiquent que ces vaccins possèdent d’importants effets antitumoraux, suggèrent que l’on pourrait aussi les utiliser pour contribuer à étendre à tous les patients les bénéfices anticancéreux des vaccins à ARNm. Dans cette optique, nous nous préparons à tester cette stratégie thérapeutique dans le cadre d’un essai clinique national.

Perspectives

L’essai clinique que nous allons mener concernera des personnes atteintes d’un cancer du poumon. Les participants recevant un inhibiteur de point de contrôle immunitaire seront répartis aléatoirement dans deux groupes. Les membres de l’un des groupes recevront un vaccin anti-Covid-19 à ARNm au cours de leur traitement, tandis que ceux de l’autre n’en recevront pas.

Cette étude nous permettra de déterminer si les vaccins à ARNm contre la Covid-19 devraient être inclus dans les protocoles de soins standards prodigués aux personnes qui reçoivent un inhibiteur de point de contrôle immunitaire. En définitive, nous espérons que cette approche aidera de nombreux patients traités par immunothérapie, en particulier ceux qui, aujourd’hui, disposent de peu d’options thérapeutiques efficaces.

Ce travail illustre comment un outil né d’une pandémie mondiale pourrait se transformer en une nouvelle arme pour lutter contre le cancer, étendant rapidement à des millions de patients les avantages des traitements existants. En exploitant un vaccin familier d’une nouvelle manière, nous espérons que des patients atteints du cancer et jusqu’à présent laissés pour compte pourront avoir accès aux bénéfices de l’immunothérapie.

The Conversation

Adam Grippin reçoit des financements du National Cancer Institute (NCI), de l’American Brain Tumor Association et de la Radiological Society of North America. Il est l’inventeur de brevets liés aux thérapies à base d’ARNm qui font l’objet d’une option de licence par iOncology. Il est actuellement employé par le MD Anderson Cancer Center et consultant pour Sift Biosciences.

Christiano Marconi travaille pour l’université de Floride. Il reçoit des fonds du centre de cancérologie UF Health Cancer Center.

ref. Les vaccins à ARNm anti-Covid 19 vont-ils révolutionner le traitement du cancer ? – https://theconversation.com/les-vaccins-a-arnm-anti-covid-19-vont-ils-revolutionner-le-traitement-du-cancer-268419

La grande histoire de la Sécurité sociale de 1945 à nos jours

Source: The Conversation – in French – By Léo Rosell, Ater, Université Paris Dauphine – PSL

Pour les 70 ans de la Sécurité sociale en 2015, un timbre commémoratif réunissait Pierre Laroque, premier directeur général de la « Sécu » (à gauche de l’image), et Ambroise Croizat, ministre communiste du travail et de la sécurité sociale (à droite). Wikitimbres

Créée en 1945, la Sécurité sociale répondait à un objectif ambitieux : mettre les Français à l’abri du besoin et instaurer un ordre social nouveau. Fruit d’un compromis entre l’État et le mouvement ouvrier, cette institution a profondément façonné la solidarité sociale en France. Retour sur l’histoire d’un système révolutionnaire, aujourd’hui confronté à des défis de gouvernance et de légitimité.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le dont le numéro 8 a pour thème « Notre modèle social, un chef-d’œuvre en péril »..


La Sécurité sociale fête ses quatre-vingts ans. Née en 1945, dans un pays où tout est à reconstruire, cette institution sociale affiche alors l’ambition de créer un « ordre social nouveau ». La Sécurité sociale vise à mettre l’ensemble de la population « à l’abri du besoin » et à la libérer de « la peur du lendemain ».

À la Libération, la solidarité en armes exprimée dans la Résistance devait, en quelque sorte, se transcrire dans une solidarité sociale. Cette idée caractérise le compromis institutionnel à l’origine de la Sécurité sociale, entre un État social émancipateur et un mouvement ouvrier puissant et organisé. Dans les décennies suivantes, la démocratie sociale originelle disparaît progressivement, d’abord au profit d’un paritarisme plus favorable au patronat, puis dans le sens d’une gouvernance reprise en main par l’État.

Une longue histoire

Commençons par rappeler que tout ne s’est pas créé en 1945. Le plan français de sécurité sociale est le fruit d’un processus qui s’inscrit dans le temps long, et l’on peut en faire remonter les origines philosophiques à la Révolution française, un moment important de « laïcisation de la charité religieuse » qui avait cours depuis le Moyen Âge et sous l’Ancien Régime. La Déclaration des droits de l’homme et du citoyen de 1793 pose ainsi pour la première fois le principe selon lequel « les secours publics sont une dette sacrée » de la nation. Après la chute des robespierristes, qui portaient cette aspiration, les expérimentations en matière de secours publics disparaissent.

Commence alors un XIXe siècle marqué par le refus de l’État d’intervenir directement dans les affaires économiques et sociales, mais aussi par le retour de la charité assistancielle. En parallèle, deux traditions se développent en matière de protection sociale : d’une part, une conception républicaine, qui revendique une solidarité nationale, et d’autre part, une tradition ouvrière, qui repose sur l’entraide collective au sein des caisses de secours mutuels et qui est attachée à une gestion par les travailleurs eux-mêmes. La fin du siècle est quant à elle marquée par le développement d’une philosophie, le solidarisme, inspirée de l’œuvre de Léon Bourgeois. Ce courant de pensée postule que la société doit être organisée autour de la solidarité nationale. Il inspire la « nébuleuse réformatrice » à l’origine de l’État social, à travers les premières lois sur les accidents du travail en 1898, sur les retraites ouvrières et paysannes en 1910 ou encore sur les assurances sociales en 1928-1930.

Mais ces anciennes législations sont imparfaites, car elles ne couvrent que les salariés les plus pauvres, elles dispensent des prestations jugées insuffisantes et on y adhère selon le principe de la « liberté d’affiliation ». Cela signifie que le système compte une multiplicité de caisses, d’origine patronale, mutualiste, confessionnelle, syndicale ou départementale, dont l’efficacité est inégale. Compte tenu de ce bilan critique, le programme du Conseil national de la résistance (CNR), adopté dans la clandestinité le 15 mars 1944, entend réformer cette ancienne législation, à travers « un plan complet de sécurité sociale ». Le Gouvernement provisoire de la République française va donc s’y atteler, une fois le territoire national libéré.

Une réforme révolutionnaire

Ce contexte a permis la réalisation d’une « réforme révolutionnaire ». La Sécurité sociale repose sur des mesures prises par le pouvoir politique : elle s’est construite à partir d’ordonnances, comme celles du 4 et du 19 octobre 1945 portant création de la Sécurité sociale, sur des lois, comme celle du 22 mai 1946 portant généralisation de la Sécurité sociale, ou encore sur de nombreux décrets. En revanche, elle n’en est pas moins révolutionnaire par sa portée, par son ambition, celle de créer un « ordre social nouveau », pour reprendre une expression du haut fonctionnaire Pierre Laroque, elle-même déjà présente chez Jean Jaurès. Le 23 mars 1945, Laroque proclame :

« C’est une révolution qu’il faut faire et c’est une révolution que nous ferons ! »




À lire aussi :
Mesurer le non-recours pour éviter de dépenser « un pognon de dingue »


Si le rôle de l’institution est incarné par Pierre Laroque, premier directeur de la Sécurité sociale, celui du mouvement ouvrier l’est par Ambroise Croizat. Ancien ouvrier dès l’âge de treize ans, dirigeant de la Fédération des métaux de la Confédération générale du travail (CGT) et député communiste sous le Front populaire, Ambroise Croizat devient président de la commission du travail et des affaires sociales de l’Assemblée consultative provisoire à la Libération, puis ministre du travail et de la sécurité sociale, du 21 novembre 1945 au 4 mai 1947.

Avec Pierre Laroque, ils mettent en œuvre le régime général de la Sécurité sociale, qui repose sur quatre principes fondamentaux. Tout d’abord, il doit s’agir d’un régime universel : l’ensemble de la population, de la naissance à la mort, doit bénéficier de la Sécurité sociale. De plus, le millier de caisses qui existaient du temps des assurances sociales est remplacé par un système obligatoire reposant sur une seule caisse primaire par département, une caisse régionale et une caisse nationale, prenant en charge l’ensemble des risques sociaux.

Le financement par la cotisation sociale constitue le troisième principe. Renvoyant à la formule « de chacun selon ses moyens à chacun selon ses besoins », ce mode de financement par répartition permet au budget de la Sécurité sociale d’être autonome et donc de ne pas dépendre des arbitrages budgétaires de l’État. Enfin, le quatrième principe, sans doute le plus original, renvoie à la démocratie sociale : les caisses de la Sécurité sociale sont gérées « par les intéressés eux-mêmes ».

Des oppositions diverses

De nombreuses oppositions vont tenter de retarder, voire d’empêcher, cette réalisation. Dans les milieux patronaux d’abord, hostiles vis-à-vis de la cotisation patronale, de la caisse unique et de la gestion des caisses par les travailleurs. La Mutualité et les assurances privées craignent de perdre le rôle qu’elles avaient dans les anciennes assurances sociales. Les médecins libéraux ont peur d’être « fonctionnarisés » et de perdre leur liberté d’exercice, tandis que les cadres n’ont pas envie d’être associés au même régime que les salariés. Face à ces obstacles, Croizat et Laroque font preuve de pragmatisme, en donnant partiellement satisfaction à la Mutualité, ou encore aux cadres, avec la création d’un régime complémentaire, l’Agirc. Les artisans, commerçants, professions libérales et agriculteurs obtiennent la mise en place de régimes particuliers.

Entre 1945-1967, la gestion des caisses de la Sécurité sociale est donc organisée selon le principe de la démocratie sociale, en reconnaissant un pouvoir syndical fort. En effet, les conseils d’administration des caisses sont composés à 75 % par des représentants des salariés et à 25 % par ceux du patronat. Ces administrateurs sont d’abord désignés selon le principe de la représentativité syndicale. Le syndicat chrétien de la CFTC refuse alors de participer à la mise en œuvre du régime général car il perd la gestion de ses anciennes caisses confessionnelles, mais aussi parce qu’il craint de subir l’hégémonie de la CGT. Les militants cégétistes disposent de fait d’un quasi-monopole dans la mise en œuvre du régime général sur le terrain.

La Sécurité sociale à la française n’est donc pas un système étatique. Sur le plan juridique, les caisses primaires et régionales sont de droit privé, tandis que la caisse nationale est un établissement public à caractère administratif. L’État, à travers le ministère du travail et de la sécurité sociale – et la direction de la Sécurité sociale qui en dépend –, voit son pouvoir limité à certaines prérogatives, qui restent importantes : en plus du pouvoir normatif, qui s’exprime par la fixation du taux de cotisation et du montant des prestations, l’État dispose aussi d’une fonction de contrôle sur l’activité des caisses.

Une gestion ouvrière fragilisée

Au cours de l’année 1947, le changement de contexte politique a des conséquences directes sur la Sécurité sociale. Le 24 avril 1947, des « élections sociales » sont instaurées pour renforcer sa dimension démocratique et donnent lieu à une véritable campagne politique. La CGT obtient environ 60 % des voix, la CFTC 26 % et la Mutualité 10 %. Le 4 mai, les communistes sont exclus du gouvernement. L’entrée dans la logique de la guerre froide fragilise la gestion ouvrière de la Sécurité sociale, en particulier à la suite de la scission syndicale entre la CGT et Force ouvrière.

En 1958, l’instauration de la Ve République permet à l’État d’intervenir plus directement. Les ordonnances Debré instaurent la nomination des directeurs de caisses par l’exécutif, et non plus leur élection par les conseils d’administration. En 1960, les pouvoirs des directeurs augmentent, au détriment de ceux des conseils d’administration. Au cours de la même année, le corps de l’Inspection générale de la Sécurité sociale est créé, de même que le Centre d’études supérieures de la Sécurité sociale – devenue l’EN3S en 2004 –, participant à la professionnalisation du personnel des caisses.

À partir de 1967, la démocratie sociale disparaît, au profit d’un nouveau principe, le paritarisme. Instauré par les ordonnances Jeanneney, le paritarisme repose en théorie sur un partage du pouvoir entre partenaires sociaux, à parts égales entre syndicats de salariés et patrons. Dans les faits, ce nouveau mode de gestion renforce le pouvoir du patronat, qui joue de la division syndicale. De même, les élections sociales sont supprimées, et la caisse unique est divisée en quatre branches autonomes, chacune présidée par un haut fonctionnaire.

Tout se passe comme si le compromis de 1945 entre l’État social et les syndicats ouvriers s’était renversé au profit d’une nouvelle alliance entre la « technocratie » et le patronat. En tout cas, l’ensemble de ces mesures répond aux revendications du Conseil national du patronat français (CNPF).

La crise de l’État-providence

Les années 1980-1990 voient s’imposer un autre discours, celui sur la « crise de l’État-providence ». Un État réformateur, avec à sa tête le socialiste François Mitterrand depuis 1981, réalise certes la promesse d’une retraite à 60 ans et celle de restaurer les élections sociales. Mais l’affaiblissement des syndicats et le « tournant de la rigueur » de 1983 consacrent l’objectif de réduction des dépenses publiques, partagé par tous les gouvernements successifs.

L’instauration de la contribution sociale généralisée (CSG) en 1990-1991 participe quant à elle de la fiscalisation du financement de la Sécurité sociale, au détriment de la cotisation sociale, ce qui justifie politiquement une intervention accrue de l’État.

Une parlementarisation de la gestion de la Sécurité sociale se développe ainsi entre 1996 et 2004. Le rôle du Parlement et l’influence des directives européennes en matière budgétaire et réglementaire se traduisent par plusieurs mesures prises en 1996 : l’instauration par ordonnances d’une loi de financement de la Sécurité sociale votée chaque année, la suppression définitive des élections sociales et la création de deux outils de gouvernance budgétaire, l’objectif national des dépenses de l’Assurance maladie (Ondam) et la Caisse d’amortissement de la dette sociale (Cades). En 2000, c’est au tour du Conseil d’orientation des retraites (COR) d’être créé.

France Inter, 2025.

Néomanagement et logique comptable

Enfin, depuis 2004, s’est imposée une gouvernance managériale, fortement inspirée du « nouveau management public ». Cette évolution est symbolisée par la réforme de l’assurance-maladie et celle de l’hôpital public, avec l’instauration de la tarification à l’activité (T2A). Les différentes branches sont désormais gérées par des directeurs généraux aux pouvoirs élargis, tandis que des Conventions d’objectifs et de gestion (COG) sont contractées tous les quatre ans entre l’État et les branches, puis déclinées au niveau des caisses.

Une logique comptable de définition d’objectifs et d’évaluation des résultats s’impose donc devant l’exigence de répondre à des besoins et de garantir l’accès aux droits des bénéficiaires. Cette gouvernance managériale parvient parfois à mener des réformes impopulaires, comme la réforme des retraites de 2023 passée via l’usage de l’article 49.3 de la Constitution et le détournement d’un PLFSS rectificatif. Néanmoins, se pose dès lors la question du consentement populaire à ce mode de gestion, qui fragilise une institution centrale du pacte social républicain.

Les commémorations du 80e anniversaire de la Sécurité sociale ont ainsi été propices à la remise en cause d’une gouvernance, dénoncée comme étant antidémocratique, y compris parfois au sein même des élites de l’État social. Certains appellent à renouer avec les ambitions portées, en son temps, par Pierre Laroque, leur illustre prédécesseur, notamment en termes de démocratie sociale.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 8 a pour objet « Notre modèle social, un chef-d’œuvre en péril ». Vous pourrez y lire d’autres contributions.

Le titre et les intertitres sont de la rédaction de The Conversation France.

The Conversation

Léo Rosell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La grande histoire de la Sécurité sociale de 1945 à nos jours – https://theconversation.com/la-grande-histoire-de-la-securite-sociale-de-1945-a-nos-jours-268673

Crise au Mali: ce que révèle le blocus djihadiste de Bamako

Source: The Conversation – in French – By Olivier Walther, Associate Professor in Geography, University of Florida

Une coalition de groupes djihadistes affiliés à Al-Qaïda a assiégé la capitale du Mali. Depuis plus d’un mois, ils attaquent les convois d’approvisionnement de ce pays enclavé d’Afrique de l’Ouest. Ces attaques ciblent notamment ceux qui approvisionnent Bamako en carburant. Cette stratégie vise à exercer une pression considérable sur la junte militaire qui dirige le pays depuis cinq ans.

La situation sécuritaire s’est tellement détériorée que les États-Unis ont demandé à tous leurs ressortissants de quitter immédiatement le pays. Après plus de 10 ans d’insurrection armée, le blocus djihadiste conduira-t-il à la chute de la capitale ? The Conversation Africa s’est entretenu avec des chercheurs du Sahel Research Group de l’université de Floride.


Quelle est la situation actuelle à Bamako ?

Les attaques contre les infrastructures de transport et les convois circulant entre les centres urbains au Sahel ont considérablement augmenté depuis la fin des années 2010. Nos recherches montrent que certains axes routiers de transport au Mali sont particulièrement ciblés par les groupes djihadistes. L’un des plus importants relie Bamako à Gao, un centre économique stratégique où se trouve une importante base militaire. Ces attaques s’accompagnent du blocus d’autres centres urbains tels que Farabougou, Tombouctou, Kayes et, plus récemment, Bamako.

Bamako, située dans le sud-ouest du pays, a déjà été victime d’attaques djihadistes, notamment en 2015 et en 2024. Mais il s’agissait alors d’attaques terroristes limitées. Le blocus actuel reflète une ambition et une capacité bien plus grandes de la part des djihadistes. En juillet, des attaques coordonnées dans le sud-ouest du Mali ont marqué une nouvelle étape dans l’expansion vers le sud du Jama’at Nusrat al-Islam wal-Muslimin.

Depuis plusieurs semaines, Bamako est isolée de ses sources d’approvisionnement extérieures, en particulier en carburant, qui doit être importé depuis ses voisins côtiers. Le gouvernement a récemment été contraint de déclarer la fermeture des écoles et des universités en raison du manque de moyens de transport.

Pourquoi Bamako ?

Bamako est de loin la ville la plus importante du Mali en termes de population, d’économie et de politique. Sa chute aurait des conséquences catastrophiques pour l’avenir du pays.

Avec une population de 4,24 millions d’habitants en 2025, selon Africapolis, l’agglomération urbaine de Bamako est plus de dix fois plus grande que la deuxième ville du pays, Sikasso. L’importance de Bamako n’est pas seulement démographique. Toutes les fonctions exécutives y sont concentrées, notamment les ministères, la télévision nationale et l’aéroport international.

Bamako représente également une part importante de l’économie nationale. Nos études suggèrent que plus de 90 % des entreprises formelles sont situées dans la zone métropolitaine de Bamako.

La prise de Bamako rendrait inutile la conquête de territoires plus vastes et pourrait décider du sort du conflit malien. Le contrôle d’une capitale sert souvent de critère de facto pour la reconnaissance politique. Par exemple, bien qu’il ne commandait guère plus que Kinshasa dans ses dernières années, Mobutu Sese Seko a continué d’être reconnu comme le dirigeant du Zaïre jusqu’à ce que Laurent-Désiré Kabila s’empare de la capitale en mai 1997.

La prise de la capitale a également été une étape centrale dans la résolution de nombreuses guerres civiles africaines. En 2011, la prise d’Abidjan par les forces d’Alassane Ouattara, de la France et des Nations unies a mis fin à la deuxième guerre civile ivoirienne.

La prise d’une capitale africaine par des djihadistes, plutôt que par des rebelles conventionnels, déclencherait-elle une intervention extérieure des puissances occidentales ou africaines ? Cela semble peu probable. À l’exception de ses partenaires de l’Alliance des États du Sahel, le gouvernement malien est très isolé sur le plan diplomatique.

Une nouvelle intervention française paraît hautement improbable, après le retrait forcé de Paris et la montée du sentiment anti-français dans la région. Quant aux États-Unis, ils privilégient désormais les relations transactionnelles à de nouvelles interventions militaires, surtout en Afrique.

La rupture du Mali avec la Communauté économique des États de l’Afrique de l’Ouest (Cedeao) rend toute réponse régionale coordonnée peu probable. Même le Burkina Faso et le Niger, voisins du Mali et partenaires de l’Alliance des Etats du Sahel (AES), sont eux-mêmes enlisés dans leur propre insurrection djihadiste.

Quel avenir pour Bamako et le Mali ?

Trois grands scénarios semblent envisageables :

  • une offensive militaire qui permet à la junte malienne de briser le blocus

  • un règlement négocié qui conduirait vraisemblablement à un nouvel Etat

  • un chaos politique en cas de chute de Bamako.

Le premier scénario suppose une mobilisation massive des forces armées maliennes, appuyées par l’Alliance des États du Sahel et sans doute par des mercenaires russes. Elle suppose pour cela que l’armée concentre ses efforts dans la région de Bamako et reprenne le contrôle des axes stratégiques

Ce scénario paraît peu probable. L’armée malienne reste limitée et, jusqu’à présent, peu de combats ont eu lieu dans les zones urbaines. Tombouctou, Gao et Kidal ont été conquises ou « libérées » sans combat. Les forces gouvernementales, les rebelles et les djihadistes ont préféré se retirer lorsque leurs adversaires ont avancé.

Le deuxième scénario, sans doute plus réaliste, serait une sorte d’accord politique négocié entre les autorités militaires maliennes et les djihadistes. Nous suggérons depuis de nombreuses années qu’un accord politique est le seul moyen de mettre fin à un conflit qu’aucune des parties ne peut gagner militairement.

Ces derniers mois, les appels au dialogue se multiplient. Des responsables religieux, politiques et économiques y contribuent, même si la question divise. Parmi les partisans les plus favorables au dialogue sont Alioune Nouhoum Diallo, ancien président de l’Assemblée nationale, et Mossadeck Bally, président du Conseil national du patronat du Mali.

Les partisans du dialogue citent souvent les expériences de règlements obtenus grâce au dialogue entre les islamistes et les acteurs étatiques ailleurs dans la région, en particulier dans certaines parties du Maghreb. Ces cas ont toutefois été façonnés par des traditions très différentes en matière de relations entre l’État et l’islam.

Un tel accord politique obligerait le Mali à abandonner son principe de laïcité inscrit dans la Constitution, ce que toutes les élites au pouvoir, y compris les leaders actuels, ont toujours refusé. Et vu la position de force des djihadistes, le gouvernement serait contraint à des concessions qui affaibliraient sa légitimité.

Cependant, si Bamako tombait, un dialogue médiatisé deviendrait plus probable. Gérer une ville aussi grande, maintenir les échanges commerciaux et l’approvisionnement en carburant nécessiterait des arrangements avec les pays voisins, hostiles aux djihadistes. Dans ce cas, les groupes armés pourraient accepter une autorité plus modérée dans le cadre d’un compromis pragmatique. Parmi les personnalités susceptibles de mener ou de négocier un tel processus on cite souvent l’imam Mahmoud Dicko, actuellement en exil. Même loin de son pays, il continue d’exercer une influence sur la politique malienne.

Le dernier scénario est la chute de Bamako et la prise du pouvoir par les djihadistes. Bien qu’entrer dans la capitale soit désormais envisageable, former un gouvernement uni et stable serait bien plus difficile. La coalition djihadiste est traversée par des divisions, des rivalités et des scissions. Elle entretient en outre une relation conflictuelle avec l’État islamique – Province du Sahel, actif dans l’est du Mali.

Si les djihadistes prenaient Bamako, l’État islamique chercherait sûrementà être impliqué dans l’exercice du pouvoir au niveau national. Ce qui pourrait déclencher des affrontements entre eux, comme on l’a vu en Somalie ou en Afghanistan.

La situation reste donc très confuse et imprévisible. Aucun de ces scénarios ne semble imminent, mais une chose paraît certaine : la crise qui déchire le cœur du Sahel est loin d’être résolue.

The Conversation

Olivier Walther bénéficie d’un financement de l’OCDE.

Leonardo A. Villalón a précédemment reçu un financement pour ses recherches universitaires sur le Sahel dans le cadre de l’initiative Minerva du gouvernement américain.

Alexander John Thurston, Baba Adou, and Cory Dakota Satter do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Crise au Mali: ce que révèle le blocus djihadiste de Bamako – https://theconversation.com/crise-au-mali-ce-que-revele-le-blocus-djihadiste-de-bamako-268870