Source: The Conversation – UK – By Felia Allum, Professor of Comparative Organised Crime and Corruption, University of Bath
France has reached what has been called a “turning point” in its relationship with drugs cartels after Medhi Kessaci the innocent 20-year-old brother of anti-drug activist Amine Kessaci was shot dead in Marseille last November.
The murder was taken as a warning to Amine, who had lost another brother five years earlier. Brahim had been found burnt in a car, a casualty of internal drug rivalries and business. Amine has since been very outspoken about the need to understand what is happening in Marseille and in France.
But he continues to risk his life by being outspoken. He was recently evacuated from a meeting in Aix en Provence, after a threat was made on his life.
Between 2023 and 2024, 73 people were murdered in Marseille in crimes related to the drugs business. Many of them were young people freshly recruited on the internet to make easy money by selling drugs. Similar drug-related murders have taken place in Grenoble, Paris, Nimes, Montpellier, Nice and Lyon.
Experts and commentators have invented labels such as “narcobanditism”, “narcomurder”, “narcoterrorism”, “narcostate” and “narcocracy” to try to explain what is happening in France.
Marseille is emblematic of a state’s failure to understand how drug networks function, and their relationship with local communities and drug consumers. Although the current drug group dominating in France at the moment uses the term mafia in its name (Mafia DZ), it is still different from the mafia-type associations that have developed in Italy.
These waves of drug-related crime reflect the contemporary cosmopolitan and capitalist cities that our society, governments, value systems and economic systems have created. These are places where the welfare state, with its sense of belonging and collectivity, has been downgraded in favour of individualism, money, technology and bureaucracy.
Organised crime groups in their different forms, whether local drug lines, more sophisticated drug networks or traditional mafias, do not appear out of nowhere overnight. They do not become embedded in local communities against citizens’ will. They don’t develop links with local politicians and professionals for no apparent reason. These crime groups fill the gaps that the state and society should occupy because they offer jobs, support and votes.
We know that criminal organisations take hold through two different mechanisms.
In Italy, the US, Colombia, Albania and Russia, mafia and cartel structures have developed during major state transformations. These periods of upheaval create space and even vacuums, which can be filled by other non-state organisations and structures. The classic example of this is the US in the late 19th and early 20th centuries, when there was significant economic upheaval, rapid urbanisation and industrialisation, developing political institutions and changing social makeup. Another is Naples and Sicily during the 1860s, when Italy went from being a peninsula of kingdoms to a unified state.
In other cases, as has happened in the 20th century, the state has established itself but its capitalist structural conditions create the conditions for organised crime to thrive. Social, racial, educational and economic inequalities drive crime.
Political economist Susan Strange explained how the state’s authority has evaporated and how the markets now dictate terms. Communities are left with no safety net in the wake of the state’s retreat. Gangs seize on this vulnerability and propose an alternative model for young people. They offer instant and easy money to local people and enjoy visible respect in neighbourhoods where despair has become the daily background music. They dictate the law to their drug dealing employees and seek social consensus from the local community, which feels abandoned and has little option but to live with the violence.
This is not a French-only phenomenon – it is taking place in many liberal democratic systems where the welfare state is becoming a privatised, bureaucratic and technological state based on individualism and profit.
The French government has proposed new solutions such as police and judicial tools to tackle these drug groups. The French state has made some inroads in the past, but these groups just reorganise, often controlling operations from Dubai.
France hopes to learn from the Italian anti-mafia legislation of the 1990s. It is bringing in a new anti-organised crime directorate (PNACO), which includes 16 prosecutors who will tackle drug networks across France and Europe.
In addition, it wants to introduce a new state witness protection programme for former criminals to collaborate with the state to go with their new harsh prison conditions for drug bosses and laws on confiscation of assets.
It also wants to target the consumers and increase fines for drug possession and even take away people’s driving licences or jobs if they get caught with drugs.
But when states implement reactive and punitive measures of this kind, they aren’t dealing with the roots of the problem. As Amine Kessaci recently wrote in his book, ending drug trafficking isn’t just about combating the networks in Marseille. It’s about resisting a societal model that makes these networks desirable. It’s about promoting other values and offering an alternative to escape or downfall. It’s about giving the foot soldiers of the drugs trade a positive horizon other than a cell or a grave.
Felia Allum does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – UK – By Kevin Olsen, UKSA Mars Science Fellow, Department of Physics, University of Oxford
A new study of carbon-based molecules in a Martian rock offers new hints about the possibility that the red planet once hosted life.
The researchers considered a range of possible processes that could have produced the molecules they found. They argue that high concentrations of large organic (carbon-based) compounds found in the rock cannot be fully explained by the non-biological processes they examined.
The team members say it is therefore possible that the organics were produced by living organisms. It is also feasible that molecules made by hydrothermal processes – where water is heated to high temperatures underground – also contributed to the organics found in the rock.
The scientists also believe that some of the organic compounds came from fatty acids, which are found in the cell walls of living organisms.
The complexity of the newly detected molecules is strikingly distinct. They require more complex methods for production, which helps scientists narrow down their source.
The discovery of the molecules was made with Nasa’s Curiosity rover, which examined a Martian rock named Cumberland. This is a sedimentary rock, meaning it was probably built up in layers in the presence of water billions of years ago. Curiosity has been exploring a site called Gale Crater on Mars since 2012.
The molecules include long chain alkanes in the form of decane (C₁₀H₂₂), undecane (C₁₁H₂₄), and dodencane (C₁₂H₂₆), much larger molecules than previously identified on Mars.
These measurements come from a pyrolysis experiment – where samples are heated to release gases that can then be analysed. This experiment broke down even larger molecules, and the assumption, from well-known chemistry, is that these may have been derived from carboxylic acids, or fatty acids. These are the kinds of compounds we recognise from our food.
The molecules were reported in a separate paper from March 2025. This new study, in the journal Astrobiology, considers the various ways they could have been made, both biological and non-biological.
Curiosity used its drill to extract a sample of rock from Cumberland. Nasa/JPL/MSSS
The discovery of organics on Mars is critical to our understanding of whether the planet could have supported life (and whether it could today). Organic matter refers to molecules containing a bond between carbon and hydrogen. These comprise the essential building blocks for life as we know it.
The critical line of reasoning in the new paper is that because these long chains will break down under the ionising radiation in the harsh Martian environment (a combination of ultraviolet radiation from the Sun, heavier charged particles that don’t make it through Earth’s magnetic field, and cosmic radiation), the actual quantity of the carboxylic acids that we are measuring now must have been hundreds of times higher in the past.
Today, these molecules are present at 30–50 parts-per-billion in the rock. But the authors estimate this could have been around 120–7,700 parts-per-million before ionising radiation exposure.
The authors examined several possible, but non-biological, sources for these fatty acids, such as delivery by interplanetary dust and meteorites, organic hazes in the ancient Martian atmosphere, and the act of serpentinisation – a geological process known to have occurred on Mars involving high heat and abundant liquid water.
The authors point out potential limitations with some of these processes that may make them less likely as sources for the organic molecules. For example, these limitations may relate to what we know about the ratio of simple organics, like methane, to the amount of CO₂ in the early Martian atmosphere, or where reactions like serpentinisation need to take place (underground) and how this matter could be transported to the surface.
Therefore, the authors argue, it is plausible that these carboxylic or fatty acids have a biological origin and may be remnants of an ancient, early Martian biosphere. They concede in their closing paragraph extraordinary claims require extraordinary evidence, as the scientist and author Carl Sagan once said, and downplay any attempt to claim evidence of life without intense scrutiny. However, it sets an optimistic tone for future projects – and there will be a busy future on Mars.
In September 2025, Nasa made a similar announcement using results from the Perseverance rover. They reported organic carbon-bearing mudstones that appeared to have participated in low temperature chemical reactions after they were deposited.
The researchers behind this study also looked at a variety of ways that the reactions could have taken place and were unable to explain them using known non-biological processes. The results hinted at the possible presence of microbial activity on Mars billions of years ago.
However, it will be impossible to say for sure whether the red planet hosted life until Martian rocks are delivered to Earth for analysis in laboratories. The findings published in September 2025 were largely seen as a rallying cry for the Mars Sample Return mission. This will gather up samples collected by the Perseverance rover and send them to our planet for examination.
Unfortunately, Mars Sample Return was effectively cancelled last month after years of being under-funded. Despite this, there remain big things ahead. The European Space Agency will send its Rosalind Franklin rover to Mars in 2028, featuring a drill that will search for signs of life up to two metres underground.
In 2026, Japan will attempt to retrieve a piece of the Martian moon Phobos with its Martian Moons Exploration mission. At the same time frame, follow-up missions from China and India are taking shape, with China also attempting to retrieve a sample from the surface.
Kevin Olsen does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – UK – By Martin B. Richards, Research Professor in Archaeogenetics, Department of Physical and Life Sciences, University of Huddersfield
The researchers analysed genetic material from remains found at excavations across Belgium and the Netherlands.Monika Knul
When ancient DNA studies began to gain attention, little more than a decade ago, the view took hold among geneticists that everything we thought we knew about the peopling of Europe by modern humans was wrong. The story was simpler than anyone was expecting: Europe was settled in just three massive migrations from the east.
First came the hunter-gatherers, more than 40,000 years ago. Then, after 9,000 years ago, there was an expansion of farming people from Anatolia during the Neolithic age.
Finally, from 5,000 years ago, the Corded Ware people expanded out of the Russian steppe to inaugurate the European bronze age. The Corded Ware were named after the cord-like impressions in their pottery and carried a distinctive genetic signature previously absent from most of Europe. Genetically, most present-day Europeans have some of each.
This was always an over-simplification, however. Our new paper, produced with colleagues from the US and across Europe, has highlighted some of the more complex interactions between ancient populations that took place in north-west Europe.
Our research untangles the origins of prehistoric populations across Belgium and the Netherlands, as well as identifying the source population for a migration into Britain during the late Neolithic that seems to have led to a 90% replacement of Britain’s Neolithic farmers.
Ancient DNA research already suggested a much more nuanced picture. For example, when early Neolithic farmers first moved into Europe, they interacted little with the local hunter-gatherer people. As a result, although they now lived far from their homeland, their genomes still resembled those of their ancestors from Anatolia.
But by 1,000–2,000 years later, they had absorbed significant local ancestry. Their hunter-gatherer ancestry swelled from only 10% to 30–40% in some regions. Clearly the hunter-gatherers had not vanished as the farmers expanded.
The new research takes us even further from the simple picture. Almost a decade ago, our research group at the University of Huddersfield began a collaboration with palaeoecologist Professor John Stewart from Bournemouth University and archaeologists at the Université de Liège, Belgium. We analysed the genomes of Neolithic human remains excavated along the River Meuse in Belgium, dating to around 5,000 years ago.
This work became part of a larger project, led by Professor David Reich and Dr Iñigo Olalde at Harvard University, involving geneticists and archaeologists from across western Europe. This widened the focus to further sites around the Lower Rhine–Meuse area – wetlands and coastal areas as well as rivers – spanning the late hunter-gatherer cultures to the bronze age.
The fertile soils south of the Rhine-Meuse wetlands had attracted pioneer Neolithic farmer-colonists as early as 5,500BC. However, the rich resources of the northern wetlands were more suited to the lifestyle practised by hunter-gatherers. Even so, the results, generated by our research student, Alessandro Fichera, in collaboration with Harvard, came as a big surprise.
The genomes of people from later Neolithic times in Belgium carried at least 50% local hunter-gatherer ancestry, alongside the expected Anatolian farmer ancestry. Discussing these results with our collaborators led to a “eureka” moment: the same pattern appeared at other sites situated in similarly water-rich environments across the region.
Notably, many of the earlier Neolithic Dutch samples from further north – such as the Swifterbant culture, well-known for maintaining a hunter-gatherer economy alongside some adoption of agriculture – carried close to 100% hunter-gatherer ancestry.
Women’s role in the spread of farming
We then compared the Y-chromosome and mitochondrial DNA, which track the male and female lines of descent, respectively. The Y chromosomes in the Belgian remains were all characteristic of hunter-gatherers, but three-quarters of the mitochondrial DNA lineages had come from Neolithic farmers living further south. The implication was clear: farming know-how had been imported into the “waterworld” hunter-gatherer communities by women.
Our findings support a version of the “frontier mobility” or “availability” model for the spread of the Neolithic, proposed by archaeologists Marek Zvelebil and Peter Rowley-Conwy in the 1980s. They envisioned a contact zone between pioneer farming groups arriving by “leapfrog colonisation” and hunter-gatherer areas.
In the model, the “availability” phase entailed contact and small-scale movements across the frontier, with trading relationships and marriage alliances, for example, forming gradually. This would be followed by a “substitution” phase where farming develops alongside foraging in the hunter-gatherer area, and eventually a “consolidation” phase, when farming predominates.
Our results suggest that the frontier was much more permeable to women than it was to men, and that it may have been marriage of Neolithic women into the forager communities that eventually helped the hunter-gatherers to adopt farming full time. After all, because of the predominance of farming across Europe, the likely alternative long-term was extinction.
Perhaps this kind of model might also apply to other parts of Europe where we lack evidence for how the increased hunter-gatherer ancestry in the later Neolithic came about. In any case, the fact that, here, the “more advanced” farming women married into hunter-gatherer groups, contrary to many archaeologists’ expectations that hunter-gatherer women would “marry up”, suggests that perceptions need to change.
Pottery made by the Bell Beaker people, who created the bronze age of central Europe. Alfons Åberg, CC BY-SA
Beakers, bronze age and Britain
Around 4,600 years ago, though, people were on the move again. A new wave of settlers – pastoralist-farmers hailing ultimately from the Russian steppe – began to infiltrate the Rhine area in the form of the Corded Ware culture. As growing numbers moved in from the east, they were transformed – we still don’t understand exactly how – into what is known as the Bell Beaker culture.
Within a few centuries, the genetic landscape of the Rhine-Meuse region, including the wetlands, was completely reshaped. Our colleagues found that, 4,400 years ago, less than 20% of the ancestry of the people living there traced back to the earlier farmers and hunter-gatherers. At least 80% of their ancestry was now from the steppe.
The Bell Beaker people rapidly expanded and rippled out further in all directions, creating the bronze age of central Europe. And not only central Europe – they also spread across the English Channel and throughout Britain, extending as far north as Orkney.
It looks as if the British farmers who had been building Stonehenge over the preceding centuries all but disappeared – again, for reasons which remain unclear.
But did they actually vanish? Perhaps this rather blunt picture might become more nuanced too, as we learn more fine-grained details of what happened from archaeology and ancient DNA.
Martin B. Richards has received funding from The Leverhulme Trust’s Doctoral Scholarship scheme.
Maria Pala has received funding from The Leverhulme Trust’s Doctoral Scholarship scheme.
Source: The Conversation – UK – By Samuel Finnerty, Senior Research Associate, Social Psychology, Lancaster University
From marches and demonstrations to civil disobedience, scientists are increasingly turning to climate protest. As a social psychologist, I’ve been investigating why researchers – who are trained to value scientific norms of objectivity and restraint – choose to engage in such public and sometimes disruptive action.
My study, just published in the journal PLOS Climate addresses this question by exploring scientists’ own experiences and decision-making. I spent two years observing, participating with, and interviewing scientists engaged in climate activism to understand their motivations.
Science and activism are very different. Scientific training emphasises restraint, uncertainty, narrow expertise, and objectivity. Activism demands urgency, moral clarity, and visibility. This tension often fuels the critique that scientists who protest have abandoned scientific norms in favour of ideology. Yet, a significant number of scientists engage in advocacy and activism. This marks a culture change in how scientists communicate.
So, how do scientists advocate without betraying what it means to be a scientist?
Most activism does not begin with actions that risk arrest such as blocking a road. Scientists typically become involved through roles aligned closely with their professional identity: public communication, giving talks, producing evidence summaries for social movements or acting as visible “scientist” figures within protest spaces. This reflects wider research showing that continuing to “feel like being a scientist” rather than stepping outside that role altogether, is critical for scientists’ engagement in activism.
Scientists for Extinction Rebellion protesting at Department for Business, Energy, and Industrial Strategy in 2022. Andrea Domeniconi, CC BY-NC-ND
The white lab coat is one tool scientists use to manage this tension. In protest spaces, it serves as visible signal of expertise, collective identity and legitimacy. Lab-coated scientists can challenge expectations of what an activist looks like, while also helping participants feel united and reassured that they are still acting as scientists. This helps reconcile identities that might otherwise appear in conflict.
However, for some social scientists who do not wear lab coats in their everyday research, this approach risks reinforcing narrow ideas about what counts as “real science”, both in public perception and within activist spaces, discouraging some from participating.
Acting alongside other scientists helps normalise and legitimise activism, reduce anxiety and build confidence. Being part of a collective also mitigates concerns about reputation damage. Participants nevertheless described activism as emotionally demanding. Continued involvement therefore depended on feeling supported by others.
Escalating actions
Some scientists choose to take part in civil disobedience, a form of peaceful protest that involves deliberately breaking the law to draw attention to an issue, such as sitting in roads or attaching themselves to buildings.
Many scientists told me this move was driven by frustration with the limits of conventional science communication. Many had spent years publishing research, advising policymakers and engaging with the media, yet saw little meaningful political response. For some, civil disobedience felt like a last resort. They framed it not as abandoning science, but as acting on it, when producing and communicating evidence no longer felt sufficient.
As one scientist, arrested during a protest at the London headquarters of the Department for Business, Energy and Industrial Strategy, said: “As scientists, we have tried to warn the world as reasonably and as rationally as possible, […] But what is the point of doing it if it just gets ignored?”
Researchers answer questions from the public at the Ask a Scientist stand at The Big One, a climate action protest in 2023. Crispin Hughes., CC BY-NC-ND
The challenges of advocating as a scientist
Once scientists appear in activist spaces, their identity is not always taken at face value. Wearing a lab coat or invoking scientific credentials can open conversations and signal trust. But it may also invite scepticism, heightened scrutiny, or unrealistic expectations that one person can speak for all of science. Participants described being questioned by members of the public, journalists and sometimes other scientists about whether they were “real scientists”, whether their research field counted, or whether they were qualified to speak at all.
Many scientists therefore found themselves balancing the need to speak with authority while remaining honest about the limits of their expertise. Research on scientist advocacy shows mixed effects on public trust, sometimes positive, sometimes negative, and often context-dependent.
Scientists in my study were acutely aware of this. They sought to manage how their activism was perceived by clarifying their expertise, acting alongside other scientists, and choosing forms of participation consistent with their professional values.
Looking at the wider picture, as political inaction, hostility towards climate activism, politicisation of science and misinformation grow, scientists face growing pressure not only to produce knowledge, but to decide how to visibly stand for it. The rise of scientist activism reflects this shifting terrain, and the difficult choices it brings.
Don’t have time to read about climate change as much as you’d like?
Samuel Finnerty does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – France in French (3) – By Anne E. Deysine, Professeur émérite juriste et américaniste, spécialiste des États-Unis, questions politiques, sociales et juridiques (Cour suprême), Université Paris Nanterre
La décision était très attendue : la Cour suprême vient de juger que la promulgation d’une grande partie des droits de douane imposés par Donald Trump à de nombreux pays du monde relevait d’un abus de pouvoir. Il s’agit certes d’un net désaveu infligé au président par une Cour dont il semblait estimer qu’elle lui était totalement acquise ; il n’en demeure pas moins que le président des États-Unis dispose d’autres leviers pour poursuivre dans cette même voie.
Donald Trump a placé au cœur de sa politique économique les droits de douane qu’il impose de façon aléatoire à titre de représailles, en invoquant le plus souvent « une situation d’urgence » pour justifier ses actes. On l’a notamment constaté, dès les premières semaines de son second mandat, pour la Chine, le Mexique et le Canada, à qui il reprochait des efforts insuffisants pour combattre la circulation du fentanyl, puis le 2 avril 2025 – le fameux « Jour de la libération ».
Ce jour-là, invoquant l’International Emergency Economic Powers Act (IEEPA, texte de 1977 autorisant le président à réglementer le commerce après avoir déclaré une situation d’urgence nationale en réponse à une menace inhabituelle, extraordinaire et de source étrangère pour les États-Unis), Trump a promulgué des droits de douane tous azimuts, qui allaient ensuite être suspendus et modifiés à plusieurs reprises, en fonction du comportement de ses interlocuteurs ou des cadeaux apportés (que l’on songe à la récente controverse provoquée par le don au président d’une Rolex et d’un lingot d’or de la part de patrons suisses).
Retour sur l’histoire judiciaire et la question de droit
Plusieurs États et entreprises, conscients que ces mesures allaient renchérir leurs coûts et affecter leur activité économique, ont contesté ces décisions, certains devant une juridiction fédérale classique (qui n’était pas compétente), d’autres devant le Tribunal du commerce international des États-Unis (CIT) qui, en mai 2025, a conclu à l’illégalité du décret et suspendu sa mise en œuvre.
Le 29 août 2025, saisie par l’administration, la Cour d’appel pour le circuit fédéral (CAFC), qui a compétence en matière de commerce international sur tout le territoire états-unien, a confirmé la décision de première instance : s’appuyant sur « l’histoire législative » (les motivations du Congrès pour voter la loi IEEPA) et la séparation des pouvoirs, elle conclut que la promulgation des droits de douane au nom de l’IEEPA par Trump relève d’un abus de pouvoir du président.
Tous les droits de douane sont illégaux, sauf ceux imposés en vertu de la section 232 du Trade Expansion Act (TEA). Pourtant, malgré la décision de la CAFC, les droits de douane contestés sont entrés en vigueur et ont continué de s’appliquer… jusqu’à la décision que la Cour suprême vient de rendre le 20 février 2026.
En septembre 2025, l’administration Trump a demandé à la Cour d’intervenir en procédure d’urgence pour sauver ses droits de douane. Il faut souligner que la Cour a accepté nettement plus de recours en urgence sous Trump que sous ses prédécesseurs, ce qui traduit bien la conviction de l’actuel président que la Cour suprême (dont il a nommé trois juges, durant son premier mandat) est à son service pour lui permettre de faire ce qu’il veut, sans aucun contrôle ni contre-pouvoir. Pour autant, il lui a fallu suivre le processus normal et demander un examen au fond (merits case) en faisant une demande de certiorari que la Cour a acceptée.
La loi sur les pouvoirs économiques d’urgence (IEEPA) et la décision de la Cour suprême
Il s’est trouvé une majorité de six juges sur les neuf que compte la Cour suprême pour affirmer que le recours du président à la loi IEEPA est contraire à la séparation des pouvoirs, car la loi permet au président de « réguler » et d’« interdire » mais pas d’imposer des droits de douane, qui sont de la compétence du Congrès. Mais c’est une opinion fragmentée, avec quatre opinions convergentes et deux opinions dissidentes, chacun des juges tentant de justifier et d’ancrer ses préférences en matière d’interprétation de la loi et de la Constitution.
La loi IEEPA invoquée par Donald Trump pour imposer des droits de douane tous azimuts à quasiment tous les pays du monde est prévue pour les situations d’urgence, mais l’objectif du Congrès à l’époque de son adoption, en 1977, était de limiter les pouvoirs du président par rapport à une autre loi existante (Trading with the Enemy Act, datant de 1917). C’est ce qu’il est possible de comprendre en recherchant l’« intention du législateur » – une méthode prônée par la juge progressiste Ketanji Brown Jackson dans son opinion convergente, mais les juges « conservateurs » s’y refusent.
Le texte de l’IEEPA prévoit en cas d’urgence la possibilité pour le président de « réguler » ou de déclarer un embargo, par exemple, mais ne mentionne nulle part les droits de douane. Quant à considérer que le « dramatique déficit commercial » invoqué par Trump constitue une urgence, ce serait oublier que celui-ci n’est pas nouveau et existe depuis plusieurs décennies.
Les enjeux constitutionnels
Les enjeux économiques et constitutionnels étaient importants, ainsi qu’en témoigne le nombre élevé de pétitions amicus curiae (« ami de la cour ») que les personnes physiques (un économiste, un professeur de droit) ou morales (des groupes divers) ont la possibilité de déposer afin d’éclairer la cour sur leur lecture de l’affaire, les dangers ou le bien-fondé des positions défendues par l’administration et la solution qu’ils préconisent.
Presque toutes défendaient des arguments allant à l’encontre de la position de l’administration Trump, y compris les groupes de droite comme le Cato Institute (libertarien) ou la Washington Legal Foundation (qui défend généralement les causes de la droite, mais qui argumentait ici pour l’inconstitutionnalité du recours à la législation d’urgence).
Certains invoquaient des arguments économiques et plusieurs professeurs de droit soulignaient les dangers si la Cour ne met pas un coup d’arrêt aux velléités de cumul des pouvoirs par le président. Si la Cour ne sanctionne pas cet empiètement, expliquaient-ils, le risque est réel que le Congrès ne puisse jamais voter une loi, non seulement à la majorité simple mais, en cas de veto quasi certain, à la majorité des deux tiers.
Les juges avaient semblé conscients lors de l’audience de la quasi-impossibilité pour le Congrès de recouvrer ses pouvoirs et avaient posé de nombreuses questions sur ce sujet.
Que dit exactement la décision de la Cour suprême ?
La décision Learning Resources, Inc. v. Trump, traite de deux catégories de droits de douane : ceux qui ont été imposés sur le Mexique et le Canada pour lutter contre l’importation d’opiacés ; et les droits de douane plusieurs fois modifiés, instaurés le 2 avril 2025 dit « Jour de la libération ». Elle laisse en place les autres droits de douane imposés sur d’autres fondements, tels que les droits de douane de 25 % placés par la première administration Trump en vertu de la section 301 de la loi Trade Act de 1971, maintenus par le président Biden, qui ont ajouté des droits de douane de 100 % sur les véhicules électriques chinois.
Comme prévu, l’opinion de la majorité est rédigée par le Chief Justice et, comme largement anticipé après l’audience, elle statue contre le président, mais après avoir laissé les droits de douane en vigueur pendant près d’un an.
Le président de la Cour rédige une opinion courte dont la première partie, signée par lui-même et cinq autres juges, repose sur l’atteinte à la séparation des pouvoirs : la Constitution attribue au Congrès (et au Congrès seul) le pouvoir de lever l’impôt et d’imposer droits de douane et droits indirects.
Les juges progressistes ont voté avec la majorité sur le premier fondement parce que la décision permet d’interdire au président d’utiliser la loi IEEPA (qui, nous l’avons dit, prévoit interdictions ou embargos mais pas les droits de douane) et renforce la séparation des pouvoirs et la primauté du droit (Rule of Law). Mais pas sur le deuxième fondement, qui ne recueille l’adhésion que des juges conservateurs Gorsuch et Barrett (tous deux nommés par Trump).
Cette opinion de pluralité se fonde sur la doctrine de la question majeure (Major Questions Doctrine, MQD) en vertu de laquelle les décrets qui entraînent une modification majeure d’un secteur doivent être autorisés par une délégation de pouvoir précise et spécifique par le Congrès. Ici, l’imposition de droits de douane a causé une modification majeure de l’économie du pays et ne peut être autorisée. La question est développée sur près de 50 pages par le juge Gorsuch dans son opinion convergente.
Quelle signification et quelles suites ?
C’est un net revers pour Donald Trump, qui a placé les droits de douane au cœur de sa politique économique, mais la Cour ne se prononce pas sur les pouvoirs du président (et leurs limites) ni sur les multiples recours aux législations d’urgence, pas nécessairement motivés. C’est une décision limitée à la signification de la loi IEEPA et à ce qu’elle autorise (déclarer un embargo) et interdit (imposer des droits de douane).
Ce n’est pas l’annonce que la Cour suprême va dorénavant s’opposer à Trump, sauf sans doute sur le limogeage de la gouverneure de la Réserve fédérale (FED), ce qui accréditera la thèse que la majorité de droite à la Cour est du côté du business et protège l’économie du pays contre les politiques dangereuses du président.
Par ailleurs, la décision ne dit rien sur un éventuel remboursement qui serait versé aux entreprises lésées et ne prévoit aucun mécanisme en ce sens. Beaucoup soulignent que les entreprises n’ont aucun droit à un remboursement dans la mesure où elles ont répercuté l’augmentation des coûts sur les consommateurs finaux. Le gouverneur de Californie propose que chaque Américain reçoive un chèque de 1 700 dollars (1 420 euros environ) ; le gouverneur de l’Illinois a envoyé sa facture (8,4 milliards de dollars, soit plus de 7 milliards d’euros) à l’administration Trump. En d’autres termes, d’autres contentieux sont à prévoir. D’autant que les mesures ne sont pas parvenues à diminuer le déficit commercial en 2025 et que rembourser les quelque 140 milliards de dollars (plus de 118,6 milliards d’euros) indûment perçus creuserait un peu plus le déficit budgétaire.
Que peut faire Trump maintenant ?
Une autre question est elle aussi passée sous silence. Donald Trump dispose-t-il d’autres outils pour imposer d’autres droits de douane ? La réponse est oui, car, dans les années 1970, le Congrès a voté plusieurs lois (Trade Acts) déléguant de nombreux pouvoirs au président pour lui permettre de répliquer à des mesures discriminatoires prises par les partenaires commerciaux des États-Unis.
Trump, furieux de la décision de la Cour suprême, a immédiatement annoncé des droits de douane étendus à l’ensemble du monde de 10 %, puis de 15 % en recourant à la section 122 de la loi Trade Act de 1974. Dans ce cas, les droits ne peuvent dépasser 15 % et sont censés expirer au bout de 150 jours si le Congrès n’a pas voté pour confirmer la mesure. Connaissant le peu de cas que Trump fait des règles et du droit, il n’est pas impensable d’imaginer qu’il renouvellera les droits de douane pour d’autres périodes de 150 jours – en violation peut-être non pas de la lettre de la loi mais de son esprit. Ou bien il tentera d’utiliser d’autres outils (les sections 232 ou 301, par exemple).
En conclusion, la décision de la Cour ne clarifie guère la situation économique et, à ce jour, l’état du commerce international est toujours aussi instable et chaotique.
Anne E. Deysine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Justine Bondoux, Responsable de la production de l’enquête SHARE en France, Université Paris Dauphine – PSL
Malgré des revenus de remplacement, tels que les pensions d’invalidité, le revenu global d’un salarié en situation de handicap diminue en moyenne d’environ 20 %.Simonovstas/Shutterstock
La survenue d’un handicap grave après 50 ans entraîne une dégradation significative des revenus à court terme pour tous les salariés européens. Cette perte peut être largement amortie dans les pays où les systèmes de protection sociale sont généreux et les politiques d’intégration professionnelle efficaces. Alors, quelles disparités entre les pays européens ? Les femmes et les hommes ? Les différents revenus de compensation ?
Selon Eurostat, dans l’ensemble de l’Union européenne, l’écart de taux d’emploi entre les personnes en situation de handicap et celles sans handicap atteint 24 points de pourcentage (pp) en 2024. Derrière cette moyenne se cachent de fortes disparités. L’écart n’est que de 8 pp au Luxembourg et de 14 pp en Slovénie, mais dépasse 40 pp en Roumanie et en Croatie – un point de pourcentage correspond à l’écart absolu entre deux taux exprimés en pourcentage.
Graphique réalisé par les auteurs à partir des données Eurostat. Fourni par l’auteur
Sur le marché du travail, le désavantage des personnes en situation de handicap s’explique par plusieurs facteurs : la nécessité de soins réguliers, l’insuffisante adaptation des postes, une baisse de productivité perçue ou réelle, mais aussi des phénomènes de discrimination. Les caractéristiques du handicap telles que son intensité, son type – physique, cognitif, etc. – ou encore le moment de sa survenue – naissance, enfance, âge adulte – peuvent également jouer un rôle crucial.
Alors, que se passe-t-il lorsqu’un handicap survient en deuxième partie de carrière, chez des personnes initialement en emploi et sans limitation déclarée ? Comment cet événement affecte-t-il leurs revenus globaux deux années après ? C’est précisément la question que nous abordons dans une étude publiée dans la revue Annals of Economics and Statistics.
À partir de l’enquête Survey on Health Ageing and Retirement in Europe (SHARE), menée entre 2011 et 2015 auprès de plus de 2 500 individus âgés de 50 ans et plus, dans 12 pays européens, nous analysons l’effet de la survenue d’un handicap grave sur le revenu global. Nous distinguons ensuite les différents canaux à l’œuvre, en décomposant ce revenu entre salaires d’activité et revenus de remplacement, tels que les pensions ou les allocations.
Concrètement, quelles différences entre les pays européens ?
Chute de près de 79 % des salaires
À partir d’individus initialement en emploi et sans handicap en 2011, nous isolons l’effet du handicap sur le revenu global en combinant deux méthodes économétriques : le Propensity Score Matching et la méthode des différences de différences.
Cette approche permet de comparer, entre 2011 et 2015, les trajectoires de revenus d’individus déclarant un handicap en 2013 (qui perdure en 2015) à celle des individus ne déclarant pas de handicap en 2013 et 2015, tout en homogénéisant leurs caractéristiques initiales de 2011. La méthode permet de tenir compte non seulement des caractéristiques observables – âge, sexe, niveau d’éducation –, mais aussi de l’hétérogénéité non observée, comme la capacité des individus à faire face à leur handicap ou la discrimination des employeurs face aux individus en situation de handicap.
Nous postulons ensuite que cet événement va détériorer la situation sur le marché du travail comme la perte de productivité due au handicap, la réduction subie du temps de travail, voire du chômage. Tout en activant potentiellement des mécanismes de compensation. Pour tester ces hypothèses, nous décomposons le revenu global en salaire d’activité et en revenus de remplacement. Après l’apparition du handicap, les deux hypothèses sont bien confirmées : les salaires chutent fortement, tandis que les revenus de remplacement augmentent. Dans de nombreux cas, cette compensation reste insuffisante pour maintenir le revenu global.
L’apparition d’un handicap entraîne, en moyenne, une chute de près de 79 % des salaires. Malgré une augmentation massive – 200 % en moyenne – des revenus de remplacement tels que les pensions d’invalidité, le revenu global diminue en moyenne d’environ 20 %.
Différentes générosités des systèmes sociaux
Ces chiffres masquent de grandes inégalités entre pays. Dans les systèmes sociaux les plus généreux – Allemagne, Belgique, Danemark, France, Suède et Suisse –, la baisse des salaires est compensée par les revenus de remplacement comme les pensions d’invalidité. Résultat : le revenu global reste stable.
À l’inverse, dans les pays les moins généreux – Autriche, Espagne, Estonie, Italie, République tchèque et Slovénie –, ils ne suffisent pas à endiguer la perte de salaire, entraînant un appauvrissement marqué par une chute du revenu global de 27 %.
Cette hétérogénéité souligne l’importance de la générosité des systèmes sociaux et de leur capacité à protéger les individus face aux risques financiers liés au handicap. Les politiques publiques – allocations, pensions, mesures d’intégration et anti-discrimination – peuvent, par conséquent, couvrir l’intégralité de la perte de revenu lié au handicap.
Les pays nordiques combinent facilité d’accès aux prestations, mesures d’intégration sur le marché du travail et cumul des revenus de remplacement et d’un salaire. À l’inverse, certains pays d’Europe de l’Est faiblement généreux imposent, de surcroît, des conditions strictes pour cumuler pension et autres prestations, ce qui réduit fortement la protection des personnes en situation de handicap.
« Double peine » pour les femmes
Le handicap n’affecte pas les hommes et les femmes de la même manière. Chez les hommes, la baisse des salaires est souvent compensée par les revenus de remplacement, si bien que le revenu global n’est pas significativement affecté. Chez les femmes, les allocations compensent moins la chute des salaires, ce qui entraîne une diminution notable du revenu global de 32 %.
Nos résultats montrent que la survenue d’un handicap grave après 50 ans entraîne une dégradation significative des revenus à court terme. Cette perte n’est pas inéluctable. Elle peut être largement amortie dans les pays où les systèmes de protection sociale sont généreux et où les politiques d’intégration professionnelle permettent de limiter les sorties du marché du travail.
Ils soulignent plusieurs leviers d’action pour les pouvoirs publics :
renforcer les dispositifs de maintien dans l’emploi ;
améliorer l’adaptation des postes de travail ;
ajuster les mécanismes de compensation financière lorsque l’activité professionnelle devient impossible.
Autrement dit, il ne s’agit pas seulement de compenser la perte de revenu, mais aussi de prévenir la rupture avec l’emploi, qui constitue un facteur majeur de fragilisation économique. Notre étude comporte néanmoins certaines limites. Elle porte exclusivement sur des Européens âgés de 50 ans et plus ; l’impact économique d’un handicap pourrait différer chez les actifs plus jeunes.
La durée de suivi, limitée à deux ans, ne permet pas de saisir pleinement les conséquences de moyen et long termes, notamment en matière de trajectoires professionnelles et de cumul des désavantages. Malgré ces réserves, les résultats apparaissent robustes : la générosité des systèmes sociaux et la capacité à intégrer durablement les personnes handicapées sur le marché du travail sont des déterminants essentiels de leur sécurité économique. À ce titre, les politiques publiques disposent de marges de manœuvre réelles pour protéger les individus face aux aléas de la santé et réduire les inégalités de revenus.
Cette étude a bénéficié d’un financement de la Caisse Nationale de Solidarité pour l’Autonomie (CNSA) dans le cadre du projet “Programme Handicap et Perte d’Autonomie – Session 8” de l’Institut de Recherche en Santé Publique (IReSP). Elle a également reçu le soutien du projet SHARE-France.
Alors que TF1 vient de supprimer son téléshopping trente-huit ans après sa création, le « live shopping » connaît un succès grandissant. Reste que pour transformer le live en achats sonnants et trébuchants, des règles doivent être respectées. Si la confiance est nécessaire pour déclencher le processus d’achat, ce dernier carbure aussi à l’émotion.
Le live shopping, appelé aussi le live streaming commerce (LSC), consiste à vendre les produits en direct par vidéo. Le LSC est très populaire en Chine, il a connu dans ce pays une croissance sans précédent depuis 2017. L’achat en streaming en direct a fait son entrée sur le marché français en 2020 durant la pandémie de Covid-19, avec Les Galeries Lafayette.
Une recherche récente, menée auprès de 555 consommateurs français, propose un modèle éclairant des mécanismes sous-jacents à l’achat lors du LSC. Celui-ci révèle que le processus d’achat en ligne est déterminé par l’articulation séquentielle et complémentaire de deux dimensions : la confiance envers le produit (cognitive) et l’expérience de flow (affective). Bien mené, le live shopping peut être un canal de vente très puissant promettant des taux de conversion jusqu’à dix fois supérieurs à ceux du e-commerce traditionnel.
Lever les freins à l’achat en ligne
Dans l’univers asynchrone et parfois impersonnel des sites e-commerce traditionnels, le risque perçu et l’incertitude sur la qualité des produits peuvent freiner l’achat. Le LSC réintroduit une dimension sociale et interactive cruciale, incarnée par le streamer. Ce dernier n’est pas un simple présentateur, mais un véritable prescripteur dont les caractéristiques vont directement nourrir la confiance du consommateur à l’égard du produit.
et surtout sa réactivité à répondre en temps réel aux questions posées par les consommateurs via la boîte de dialogue.
Les résultats de cette recherche sont sans appel. Sans ces attributs, la confiance peine à s’établir.
« C’est qu’on peut poser nos questions et que la vendeuse est très réactive… Je trouvais que les précisions étaient toutes au rendez-vous, ça met vraiment en confiance. » (Sylvain, 30 ans, enquête qualitative)
Le rôle des émotions
Si la confiance du consommateur est le socle indispensable à l’achat lors du LSC, l’expérience de flow constitue un réel moteur émotionnel. Concept introduit par le psychologue Mihaly Csikszentmihalyi, le flow désigne cet état d’immersion totale et de plaisir dans une activité, au point d’en oublier le temps qui passe.
Le LSC est un terrain particulièrement propice pour générer cet état. Deux caractéristiques propres à ce format y contribuent : l’interactivité en temps réel (chat, réactions, sentiment de communauté) et l’attractivité de la présentation (visuels dynamiques, scénarisation, divertissement). Ces stimuli captivent l’attention et créent un engagement profond.
« On a vraiment l’impression d’être dans la pièce avec elle comme si on assistait à l’essayage en direct… J’étais très attentive aux commentaires des autres personnes, on a vraiment cette idée de communauté. » (Aurélien, 35 ans, enquête qualitative)
Une expérience captivante
Les résultats de l’enquête montrent que c’est précisément cette expérience de flow qui influence le plus fortement et directement l’intention d’achat. La rationalité (la confiance) prépare le terrain, mais c’est l’émotion (le flow) qui renforce l’intention d’achat. Autrement dit, la confiance est une condition nécessaire mais non suffisante. Elle agit comme un facilitateur essentiel, créant un environnement sécurisé et crédible. C’est ensuite en se transformant en expérience de flow qu’elle démultiplie son effet sur la décision du consommateur.
Cette voie « mixte », allant du cognitif à l’affectif est au cœur du processus d’intention d’achat en ligne lors du LSC. Elle explique pourquoi une simple démonstration du produit, même technique et fiable, peut échouer si elle n’est pas portée par une expérience captivante.
Des outils à manier avec stratégie
Cette compréhension fine du mécanisme d’achat en LSC offre des leviers d’action concrets pour les marques et les retailers :
Sélection et formation des streamers : prioriser l’expertise produit, l’authenticité et la capacité à interagir vite et bien. La réactivité est le facteur ayant le plus fort impact sur la confiance.
Scénarisation de l’expérience : concevoir les lives non comme des catalogues animés, mais comme des moments de divertissement et de socialisation. Intégrer des fonctionnalités ludiques (concours, jeux, récompenses) et favoriser les interactions entre les participants pour renforcer le sentiment de communauté et d’immersion.
Adopter une approche holistique : ne pas dissocier l’argumentaire (confiance) de la forme (flow). Une démonstration produit doit être à la fois précise et spectaculaire ; une interaction via le chat doit être à la fois rapide et chaleureuse.
Le live streaming commerce, loin d’être un phénomène éphémère, incarne ainsi l’avenir d’un e-commerce à la fois plus interactif et plus immersif. Son succès repose sur une alchimie subtile entre la confiance rationnelle dans le produit et l’expérience immersive, un équilibre que les marques doivent absolument maîtriser.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Une étude expérimentale a tenté d’identifier la valeur ajoutée de l’intelligence artificielle lors d’un *hackathon*.Wikimediacommons
L’IA ne remplace pas la collaboration humaine. C’est un outil qui repose sur le bon timing. Utilisée trop tôt, elle court-circuite la réflexion. Utilisée au bon moment, elle fait gagner du temps. Alors où l’IA est-elle la plus utile dans un projet, de la phase de lancement à la phase de suivi ?
Certains et certaines d’entre nous sont passés par là. Il est 16 h un mardi. Le tableau blanc est couvert de gribouillis, mais la « grande idée » ne vient pas. Le silence règne dans la pièce. L’énergie s’est évaporée dans l’air. Puis, quelqu’un ouvre son ordinateur portable et tape un prompt dans ChatGPT.
L’écran se remplit instantanément de points et de mots. La tension retombe. L’équipe approuve d’un signe de tête : on dirait une stratégie. On dirait un plan d’action. On dirait un progrès.
Mais ce n’est pas le cas.
Une expérience menée par le Boston Consulting Group révèle que cette sensation de soulagement est un piège : les performances de 750 consultants utilisant l’IA ont été inférieures de 23 % à celles de leurs collègues qui n’utilisaient pas l’IA.
Ce n’est pas un cas isolé. Cette expérience est symptomatique d’une incompréhension plus large sur la manière d’utiliser l’intelligence artificielle au bon moment.
C’est pourquoi dans une étude récente impliquant 107 consultants d’une entreprise du classement états-unien Fortune 500, nous avons suivi les performances des équipes utilisant l’IA lors d’un hackathon. Ces dernières devaient élaborer un plan de projet (objectifs, étapes, ressources et délais du projet) pour le lancement d’une nouvelle solution numérique.
Les résultats remettent en question l’idée selon laquelle « il vaut mieux trop que pas assez ». Nous avons constaté que l’IA générative offre une valeur ajoutée pendant la phase d’exécution d’un projet. Cependant, durant la phase critique de lancement, elle offre une valeur négligeable, voire parfois négative.
Le piège de la « moyenne »
Pourquoi un outil fondé sur la somme des connaissances humaines échoue-t-il dès le départ ? La réponse est simple : l’IA excelle dans les schémas préétablis, mais elle est mauvaise pour naviguer dans le flou, ou ce que les sciences de gestion nomment l’ambiguïté.
Lancer un projet nécessite une « pensée divergente ». Vous devez explorer des idées folles et contradictoires pour trouver une proposition de valeur unique.
Nos données montrent que l’IA générative nuit aux performances dans cette phase précise. Cette idée correspond au « principe de pertinence » dans la recherche en management. Comme les grands modèles linguistiques en IA sont des moteurs probabilistes, ils ne peuvent logiquement traduire une discussion spontanée. Le « mot suivant » rédigée par une IA est tiré d’une moyenne statistique des mots probables liés au mot précédent, au lieu d’un mot précis et idoine.
Si ces algorithmes permettent d’éviter les idées « désastreuses », ils tuent les idées « farfelues ». L’IA rehausse le niveau de qualité minimum d’un projet en nivelant par le bas le niveau de qualité maximum. Vous obtenez un concept soigné, robuste, mais tout à fait moyen.
Moteur du « comment »
Une fois que les humains ont défini le « pourquoi » et le « quoi », l’IA devient le moteur du « comment ».
Comme nous le soulignons dans notre recherche, l’utilisation de l’IA se révèle davantage pertinente pendant les phases de planification et d’exécution. La « planification » consiste à transformer les objectifs en calendriers. L’« exécution » consiste à rédiger les livrables, tels que le code ou les textes marketing.
Deux mécanismes sont à l’origine de cette augmentation des performances lors de ces deux phases précises :
Traducteur des expertises
Des recherches suggèrent que l’IA agit comme un traducteur dans une équipe, notamment pour les experts. Par exemple, elle aide un spécialiste du marketing à rédiger un dossier technique ou un développeur à rédiger un communiqué de presse. Par ricochet, l’IA réduit les coûts de coordination.
Tâches fastidieuses
L’IA se charge des tâches fastidieuses telles que la rédaction de codes standardisés ou de diapositives. Dès lors, les humains peuvent se consacrer à des tâches à forte valeur ajoutée.
Signalement du « patron numérique »
La dernière phase, celle du suivi, recèle un danger caché.
Les outils modernes d’IA peuvent analyser les échanges de courriels, afin de détecter les risques humains autour d’un projet, comme une baisse de moral ou un stress avant qu’une échéance ne soit dépassée.
Une étude sur le marketing d’influence nous met en garde : lorsque les employés se sentent surveillés par des algorithmes, l’authenticité disparaît. Ils commencent à « manipuler les indicateurs », en travaillant pour satisfaire l’IA plutôt que pour atteindre l’objectif.
Si l’IA devient un « patron numérique », la sécurité psychologique s’érode. Les équipes cessent de signaler honnêtement les risques d’un projet pour éviter d’être eux-mêmes signalées par l’IA.
Une stratégie en fonction des étapes
Les dirigeants doivent cesser de considérer l’IA générative comme une solution universelle. Ils doivent plutôt adopter une stratégie en fonction des étapes d’un projet.
Au cours de la phase de lancement
Établissez des « zones réservées aux humains ». Obligez les équipes à définir le problème sans algorithmes.
Au cours de la phase d’exécution
Utilisez l’IA pour faire se comprendre les équipes, notamment les experts, et accélérer les tâches fastidieuses et ingrates.
Au cours de la phase de suivi
Utilisez l’IA pour donner de la visibilité à l’équipe, non pour l’espionner.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Cette fois, c’est décidé, tout va changer. On est lundi ; c’est le bon moment pour vous y mettre. Las ! Déjà 11 h 30 et toutes les routines que vous ne vouliez plus voir sont à l’œuvre. C’est reparti pour un tour ! Ne vous accablez pas outre mesure. Ce n’est pas un problème de personne mais de méthode. Découvrez celles éprouvées par la recherche qui montrent que pour changer, il faut peut-être commencer par changer la manière de penser… puis celle de faire.
Tous les lundis matin (ou presque), de nombreux managers se font la même promesse : fini les réunions inutiles ! Place à une meilleure délégation des tâches pour avoir enfin une semaine plus calme. Et pourtant, arrivé à midi, les points se sont multipliés, Slack est en effervescence et la nouvelle manière de travailler tant espérée est déjà oubliée. S’ensuit une nouvelle résolution : « Je n’ai pas le temps aujourd’hui, je commencerai vraiment lundi prochain. »
Or, cette nécessaire disposition d’esprit bute sur des croyances bien ancrées chez de nombreux managers. Les responsables d’équipe valorisent la persévérance. Cela fait partie de leur formation et de la culture de leur métier. Pourtant, la persévérance qui est une qualité – peut vite devenir un défaut, quand elle devient obstination, cette disposition d’esprit qui maintient quoi qu’il en coûte des routines inutiles : des réunions récurrentes dont personne n’a besoin, à la production de rapports lus par personne, en passant par des boucles d’approbation qui ralentissent les décisions. Elles restent en place parce que les abandonner reviendrait à admettre que les mettre en place était une erreur. Et pourtant c’est bien connu, errare humanun est, perseverare diabolicum.
Il est nécessaire dès lors de changer de point de vue, de mindset. Loin d’être un recul, abandonner peut être stratégique. Pour cela, il est nécessaire d’apprendre de ce que vous abandonnez, de savoir trier pour conserver ce qui a fonctionné et, surtout, de distinguer la persévérance de l’obstination.
La même logique s’applique aux désaccords ou à une dynamique d’équipe ralentie. Lorsque les comportements se répètent, changer les conditions fonctionne souvent plus rapidement que de répéter la même conversation : déplacez la discussion, changez le rythme, réorganisez les étapes, puis observez à quelle vitesse les « habitudes » de l’équipe changent.
Quitter l’illusion du perfectionnisme
Le travail n’est pas un environnement sous total contrôle. Les délais changent, les priorités sont en concurrence permanente et l’énergie fluctue. Dans cet environnement normal, les managers continuent paradoxalement d’attendre que le changement soit linéaire et de s’adonner à une forme de perfectionnisme qui n’est pas adapté à la situation.
La notion d’optimalisme, travaillée en particulier par Tal Ben-Shahar, serait plus adaptée. Dans cette perspective, je propose de gérer de front ce décalage : lorsque la réalité change, les habitudes doivent s’adapter.
Il est dès lors essentiel de « normaliser » le redémarrage, en visant ce qui est immédiatement réalisable et en réduisant le coût du retour en arrière. Cela signifie considérer les possibles retours en arrière comme faisant partie du processus plutôt que comme le signe, ou pire encore, comme la preuve, d’une incapacité. Un manager doit pouvoir indiquer à ses équipes qu’il teste un nouvelle façon de travailler provisoirement.
Trois catégories de leviers ont été identifiées par la recherche :
le pouvoir (Power) invite à structurer en commençant, si nécessaire, pas des petits pas, dans le cadre de priorités formalisées ;
l’action (Move) s’appuie sur la régularité, sur la continuité, mais aussi sur le support d’autrui, en cohérence avec sa propre dynamique ;
le changement (Shift) désigne l’état d’esprit « positif », puisqu’il s’agit de changer en y prenant plaisir, en conciliant détermination et souplesse avec soi-même.
Pour les managers, le message est clair : cessez de traiter les habitudes de travail comme des problèmes privés de discipline. Commencez à les considérer comme des problèmes de conception et de méthodologie individuelles au sein d’un collectif.
La question de la délégation montre pourquoi cela est si important. Un leader ou un manager peut vouloir déléguer, mais revenir au contrôle lorsque les enjeux augmentent. « Move » consiste alors ajouter un léger contrôle pour favoriser l’autonomie plutôt que la surveillance. « Shift » conduit à nommer l’émotion sous-jacente la rechute : derrière la mise en place de normes se trouve souvent une forme d’anxiété déguisée.
Le mirage de la sur motivation
Le manque de temps ou de moyens peut aussi faire dérailler la mise en place de routines ou d’habitudes positives en raison d’une trop grande pression. C’est le domaine des discours que vous avez déjà entendus, des prétextes du type « oui mais je n’ai pas le temps », « vouloir changer était une erreur et j’ai préféré abandonner » etc. L’antidote à ces situations n’est pas à aller chercher dans des discours de sur motivation, souvent creux, mais dans la mise en place de mécanismes efficaces.
Quand on veut changer une habitude, il ne faut pas avoir peur d’opérer des vérifications fréquentes, d’enregistrer les microvictoires visibles. Un changement d’habitudes ne se fait pas par magie, il demande de la méthode, de l’organisation autant que de la persévérance.
Dans l’ensemble, la méthode que je décris est simple et peut être résumée en trois suggestions :
arrêter avec intention,
savoir recommencer sans drame
et redessiner les routines pour les adapter au système dans lequel vous travaillez réellement.
Car la pression et le changement ne sont pas des exceptions. Ils sont devenus la norme des organisations.
Julia Milner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Une question anime Dakar depuis plusieurs mois, mais également Londres, Paris, Pékin et Washington : le Sénégal devrait-il continuer à rembourser sa dette sur un chemin peut-être insoutenable ou faire défaut sur sa dette ? Cette question en ouvre une autre, non moins complexe : cette dette est-elle soutenable ?
La signification du terme « soutenable » n’est pas aisée à définir, pour deux raisons : d’abord parce que cette définition dépend non seulement des conditions actuelles, mais aussi de choix futurs ; ensuite parce que la soutenabilité de la dette ne dépend pas uniquement de ce que perçoit l’administration sénégalaise, mais aussi de ses créanciers, comme le FMI, les institutions multilatérales et bilatérales, et les marchés financiers.
Le Sénégal fait face à une crise de la dette aiguë, marquée par un surendettement atteignant environ 132 % du PIB selon le Fonds monétaire international (FMI). Le service de la dette s’élève à 5 500 milliards de francs CFA (9,1 milliards de dollars US), mobilisant une part croissante des recettes fiscales. La situation, aggravée par la découverte d’une « dette cachée », ce qui nécessite une restructuration que le Premier ministre Ousmane Sonko exclut.
Un nouveau rapport tente de décrire les principales conséquences de deux options : tenter de rembourser à tout prix ou bien faire défaut. Abdoulaye Ndiaye, l’un des auteurs, s’est entretenu avec The Conversation Africa.
Comment la crise de la dette du Sénégal est-elle apparue ?
En septembre 2024, le nouveau gouvernement, élu en avril de la même année, découvre et annonce publiquement des anomalies dans les rapports sur la dette. Dans la foulée, en octobre de la même année, le FMI suspend son programme d’aide au pays.
Quelques mois plus tard, en février 2025, la Cour des comptes estime que le déficit a été sous-estimé de 5,6 % du PIB par an entre 2019 et 2023. Dès lors, le ratio dette/PIB est révisé à 100 %, contre 74 % initialement annoncés. Entre mars 2025 et octobre 2025, malgré plusieurs visites dans le pays, le programme FMI reste en hiatus.
Par la suite, le gouvernement publie le budget révisé pour 2025 ainsi que les
perspectives à moyen terme. La dette est désormais estimée à 120 % du PIB, Un mois après, la mission envoyée par le FMI est prolongée de deux semaines. Dans le même temps, les premières tensions publiques majeures éclatent entre le FMI et le gouvernement. Conséquence directe, les obligations d’État s’effondrent. Face à cette pression, le Premier ministre Ousmane Sonko s’engage à tout mettre en oeuvre pour éviter un défaut de paiement.
Sur quels paris repose la stratégie actuelle du Sénégal face à la crise de la dette ?
Rembourser à tout prix, c’est faire deux paris en un. Le premier, c’est celui d’une consolidation budgétaire massive en un temps record. Autrement dit, un marathon au rythme d’un sprint. Passer de 14 % du PIB de déficit primaire en 2024 environ à 2 % de surplus est quelque chose que seulement quelques pays ont pu faire, généralement en profitant d’une manne exceptionnelle de ressources naturelles. C’est le cas d’Antigua-et-Barbuda qui a réalisé un spectaculaire rebond budgétaire avec des excédents primaires après des années de déficit.
Le second pari, c’est que pendant ce temps certains acteurs clés dont le FMI accepteront de croire que la dette du Sénégal est soutenable, autrement dit de prêter en ce moment difficile. Pour financer son déficit courant, mais aussi la dette à rembourser entre 2026 et 2028, le gouvernement doit lever 15 000 milliards de francs CFA (25 milliards de dollars US).
Si le FMI ne peut pas intervenir, qui pourrait financer le Sénégal et à quel prix ?
L’institution la plus à même de le faire serait effectivement le FMI, dont les programmes visent précisément à soutenir des pays en crise, qui permettent de mobiliser d’autres prêteurs concessionnels, et dont les prêts aux pays pauvres sont à taux zéro. Mais du fait de ses propres règles, le FMI ne peut signer de programme que si son cadre d’analyse de la dette publique indique que la dette est soutenable. Or, aussi imparfait que soit cet outil, notre analyse indique qu’il est peu probable que ce soit le cas.
Si le FMI ne peut pas prêter, d’autres acteurs pourraient-ils s’y substituer ? C’est possible : on l’a vu par le passé : dans le cas de l’Egypte ou du Kenya en 2024, des prêteurs émergents comme les Emirats Arabes Unis ont accepté de fournir des liquidités malgré des doutes sur la solvabilité du pays. Mais il serait illusoire de croire que ces soutiens sont gratuits : plus ils sont risqués, plus ils vont exiger des contreparties : privatisations douloureuses, etc.
Le Sénégal dispose-t-il d’une autre option pour faire face à sa crise de la dette ?
Une troisième option serait de s’appuyer sur les marchés financiers régionaux. En 2025, ce sont les banques régionales qui ont financé l’endettement sénégalais, fournissant plus de 4000 milliards de francs CFA (6,7 milliards dollars US). Elles pourraient continuer, mais sans doute pas dans les mêmes volumes : cela réduirait les prêts au secteur privé, et, surtout, pourrait exposer le secteur bancaire à un risque croissant.
Il n’est pas impossible que ce double pari réussisse, mais une telle stratégie expose à des risques considérables : soit que la consolidation massive échoue, soit qu’aucun prêteur ne se manifeste.
Si le Sénégal dispose d’une autre option pour faire face à la crise de la dette, là, on peut parler également du fait qu’il y a eu, pour développer cette partie, plus d’opérations opaques, comme les échanges de rendement total – contrat financier dans lequel deux parties échangent des flux financiers liés à la performance d’un actif –, qui sont essentiellement des manières pour les marchés financiers internationaux de pouvoir accéder au marché sénégalais. Ce sont des produits dérivés financiers.
Comment le Sénégal peut-il négocier sa dette sans bloquer ses investissements futurs ?
L’autre stratégie possible est de chercher à négocier avec les créanciers, dans le « Cadre Commun », la procédure mise en place par le G20 pour réduire les dettes dues aux créanciers bilatéraux des pays en développement.
Ce choix n’est pas aisé non plus. Les cas récents de restructuration étaient longs et complexes, même si les derniers en date, le Ghana et l’Éthiopie, ont vu une certaine accélération. La communauté internationale devrait en faire un test de collaboration possible : la Chine et la France, qui détiennent ensemble environ 70% de la dette bilatérale, devraient clairement montrer leur soutien en s’engageant à traiter la dette le plus rapidement possible.
Négocier avec les créanciers privés est toujours compliqué : ils chercheraient à minimiser leurs pertes, et les obligations seraient classées en « défaut » par les agences de notation. Ces conséquences sont importantes, mais la réémergence après un défaut est possible, en particulier quand la dette est réduite de manière suffisamment décisive.
De leur côté, les institutions internationales devront soutenir le pays avec de nouveaux prêts, pour que le Sénégal puisse continuer à investir malgré les difficultés d’accès aux marchés internationaux. Enfin, pour minimiser les coûts économiques, il faudrait exclure les dettes dues en franc CFA du périmètre de restructuration, pour éviter de déstabiliser la zone.
Quelle est, selon vous, la meilleure voie à suivre ?
Dans tous les cas, les leçons de cette crise doivent aller au-delà du Sénégal, et conduire à renforcer la transparence de la dette et la supervision bancaire dans la zone. Comme l’ont fait les pays européens au moment de la crise grecque en 2010, l’Union écoomique et monétaire ouest-africaine (Uemoa) devra se réformer et adopter des filets de sécurité additionnels.
L’expérience montre que repousser un défaut est coûteux : mieux vaut négocier tôt pour réduire l’impact sur les exportations et la croissance. Les deux choix en présence sont difficiles, et les deux imposeront des coûts sérieux à l’économie. Notre analyse est qu’en l’absence de liquidités importantes et peu chères, rembourser serait plus dangereux et coûteux.
Les coûts d’une restructuration se concentreraient principalement à court terme, avec des négociations pouvant durer deux à trois ans. En revanche, les conséquences de l’échec d’un remboursement seraient beaucoup plus lourdes et durables. Ce scénario ferait peser des risques importants sur la stabilité économique à long terme et doit donc être évité.
Abdoulaye Ndiaye does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.